ディープフェイク 動画 ポルノ。 芸能人フェイクポルノが見れる動画サイトまとめ【DEEPFAKE】

フェイク動画って?広がる「うそ」に注意しよう

ディープフェイク 動画 ポルノ

ページコンテンツ• 現在は動画を合成する技術も進化していて、AIを使って偽物の動画、いわゆるフェイク動画がつくられる事例が増えています。 昨年は、米国の前大統領オバマ氏が、トランプ大統領ののしる動画が公開され、話題になりました。 先日は、米民主党のナンシー・ペロシ下院議長が酔っぱらってインタビューに答える動画が公開され、話題になっています。 これらは、誰かが意図的につくったフェイク動画です。 従来は、画像の音声だけを別のものに入れ替えて、元の動画とは全く別の内容にしてしまうアテレコや、音声を早回しにしたり、遅くして低い声にするような、簡単な方法で作られていました。 これらは「シャローフェイク」と呼ばれます。 現在は、AIを使って高度に合成する「ディープフェイク」と呼ぶ技術が注目されています。 マツコ・デラックスが力士になって、インタビューに答える動画 これは、よく出来ていますね。 体や声は、元の力士のものだと思います。 顔の部分だけマツコ・デラックスに入れ替えられています。 顔のすげ替えがすごく自然にできているのは、マツコ・デラックスの顔の輪郭が力士に似ているからでしょう。 表情は、違和感ないです。 全体を見れば、違和感があるのですが、顔に注目すると、本人が喋っているような感覚になってきます。 元の力士の声も、マツコ・デラックスに似ているのでしょう。 ディープフェイクとは、ここでは2つの動画を対応づける部分にAIが使われています。 まず、元の力士の目、鼻、口など、顔の要素を正確に認識し、その位置と動きを捉えます。 そして、別に用意しているマツコ・デラックスの動画か写真から、同様に、目、鼻、口など、顔の要素を正確に認識して、対応する部分に画像を貼り付けます。 画像を貼り付けるときに、引き伸ばしたり縮めたりしますが、これは従来技術で簡単にできます。 難しいのは、顔の要素を細かく分解して認識させ、別の画像と対応づけることです。 実は、AIは人間が「これが目」と認識するように、意味を理解していません。 あくまでもパターン認識で対応づけるので、間違えることが多い。 自然に対応づけるのは、かなり難しい技術なのです。 今のところは、少しぎこちない動きや表情になるので、よく見れば分かってしまいます。 でも、数秒程度の短い動画クリップだと、フェイク動画かどうかよくわかりません。 さらに、フェイク動画だとわかっていても、面白半分でTwitterなどで拡散されてしまうこともあるでしょう。 一旦広まったデマを取り消すのは大変です。 GAN(Generative Adversarial Networks)とは、敵対的生成ネットワークと呼ばれるこの技術。 入力データを大量に与えることで、データだけから特徴を抽出することができ、教師データと呼ぶ正解を人間が教えなくてもいい、という点が特長です。 GANは本物に似せてフェイク画像をつくる仕組みと、それを偽物かどうか見破る仕組みを、戦わせます。 偽札を作る人と警察が協力して、警察にもバレないような偽札を完成させるようなものです。 警察のレベルも学習によって上がるので、偽札づくりのレベルも、どんどん上がっていきます。 AIの中に、悪人と善人が同居して、お互いにレベルを上げながら、最終的に悪人が勝つ、という仕組みなのです。 GANは本来は善人を生み出すためにつくられたのですが、悪人をつくるためにも利用できてしまった、というわけです。 フェイク動画にGANを適用して進化させると、どんどん巧妙な合成ができるようになります。 巧妙になるディープフェイク動画を検出するツール開発の動きもあります。 でも、検索してみると、怪しいサイトに誘導されたり、有料だったりするので、素人は手を出さない方が良さそうです。 パソコンで動画合成する場合は、かなり高性能なCPUやGPU(グラフィックカード)が必要になります。 そうやって苦労して作った割には、出来上がった動画の品質はいまひとつだったりします。 話題になるほどの完成度に仕上げるのは、簡単ではありません。 従来は、かなりお金をかけても難しかったものが、現在ではある程度の投資で作れるようになった。 というレベルです。 自分で作るのではなく、ときどき話題になる動画を見て、へ~、AIの進化はここまで来たか、と確認する程度がいいでしょう。 では、代表的なアプリ、Webサービスをご紹介していきましょう。 FakeApp(動画のAI合成アプリ、無料) 高性能PCが必要です。 具体的には、高性能のグラフィックカード(NVIDIAのGPUチップ)が必要で、これだけで数万円から10数万円。 PC本体も併せると、パソコンのハードだけで20~50万円くらいかかりそうです。 さらに動画の合成には何時間もかかります。 ハードの性能が低いと、処理が完了するまで何日もかかります。 動画合成用の専用パソコンを用意して、気長に待つ必要があります FakeApp 2. 0 Tutorial (ソフトのインストールから、使い方まで解説) 3. FaceSwap GitHub、オープンソースのプログラム、開発ができる人向け) ソフトは無料ですが、自分でソフト開発できる環境が必要です。 かなり玄人で、細かい調整を自分でやりたい人向けです。 現在は公開禁止になっています。 今でも、いくつかのサイトではダウンロードできるような表示がありますが、本当に使えるのか怪しいです。 当然、本人のヌード写真が現れるわけはなく、顔だけ本人のものを残して、体の部分を他人のヌード写真から合成している筈です。 合成が自然にできれば、あたかも本人のヌードのように見えるというだけです。 手間をかければ、人力でも合成できますが、1クリックで簡単にできるようにしたところが凄い。 AIを使って、本人の顔画像から、合成しやすいヌード画像を探し出して、自然に合成するところまで、自動化したのでしょう。 ある意味単純作業ですから、AIが得意とする領域です。 技術が進歩すると、こういうソフトも簡単に作れるようになります。 でも、アップした個人の顔画像が永久にアプリ会社で再利用されてしまう、とんでもないプライバシーポリシーが設定されていたと、大ブーイングとなりました。 ビックリですが! 6. iPhoneで超簡単、ディープフェイク動画アプリ「Xpression」 iPhone(iOS)アプリで簡単にディープフェイク動画がつくれるアプリが登場しました。 現在も普通にダウンロードできて、使えます。 日本企業が開発しているのも安心なところ。 できるのは、口や顔の表情だけを入れ替えること。 顔自体を入れ替えることはできません。 でも、上手く使えば、パーティーとかで盛り上がるにはちょうどいい感じ。 真面目な使い方では、寝起きで頭ぼさぼさで電話会議に出るときに、このアプリを使えば、スーツで決めたカッコイイ姿で登場できる、とか。 色々な使い方を考えるだけでも、楽しいですね! 実は、このアプリ、「EmbodyMe」という日本のベンチャー企業が開発していて、高い技術力をアピールするデモソフトとしての役割が強いようです。 技術的には、顔自体を入れ替えることもできそうですが、そこまでやると悪用される可能性が高くなる。 技術力をアピールしながら、遊びの範囲で使ってもらうために、あえて機能を制限している感じです。 ここまで見てきたように、ディープフェイクの技術はどんどん進化しています。 しかし、まだ素人がフェイク動画をつくるのは簡単ではありません。 今後仮に、簡単につくれるようになっても、トラブルを避けるには、安易に手を出さないことが重要です。 一歩間違えれば、犯罪にもなりかねません。 目を疑うような動画を見たときに、簡単に騙されないこと フェイク動画かも? と思えるだけの、知識と心の余裕を持ちたいですね。 ではでは。

次の

ディープフェイク(偽動画)がアメリカ大統領選を混乱に陥れる

ディープフェイク 動画 ポルノ

Video by:Multimedia LIVE このディープフェイクは、元々イギリスで開催された芸術祭『スペクター』の作品として製作されましたが、製作者サイドとしては、ソーシャルメディアでは人々にどのように見られ、操作されるのかを示すのが狙いだといいます。 この作品で、ザッカーバーグ氏は次のように語っています。 「何十億もの人々から盗み出したデータ、すべての秘密、人生、未来を1人の男が完全に掌握している状況について、少し想像してみてほしい。 それはすべてSpectreのおかげだ。 データを掌握するものが未来も掌握する、ということをSpectreは私に教えてくれた」 ~CNET Japan ~ つまり、「一人の男が何十億もの個人データをコントロールできる」と言っているわけです。 ザッカーバーグ氏のディープフェイクはFacebook傘下のInstagramに投稿されたものですが、 この投稿すらもザッカーバーグ氏は削除を拒否しています。 彼が動画の削除に応じないといった背景には、Facebookのようなビジネスモデルの特性が影響しています。 話題の動画、刺激的な動画はそのような作品を好む人々によって、広告収入を得ているからです。 このことはYouTubeも基本的には同様です。 それに呼応するかのように、自分の主義主張と同じであれば、動画の真偽は問わない人々も、一方で増えてきているようです。 そのような動向が、アメリカ社会の分断をさらに加速するのではと、懸念する声が上がるのも当然と言えます。 ただし、従来のフェイクニュースとは異なり、ディープフェイクはAI特有のディープラーニングが技術的裏打ちとなっているため、圧倒的な精巧さを実現し、真贋を判断するのは益々困難となっています。

次の

【ディープフェイクAV】深偽ぽるのJP

ディープフェイク 動画 ポルノ

プロでなくても簡単に動画加工できる「ディープフェイク」 Hank Green(ハンク・グリーン)氏:CGIのおかげで、あたかも実在するように見える「架空の動画」が、ごく一般的になりました。 例えば、(映像に見る)キャプテン・アメリカの体は、現実にはありえませんよね。 テレビや映画、ゲームなどで見る「Computer Generated Imagery(コンピューター ジェネレイテッド イマジェリー)」つまりCGIは、何百万ドルものお金や、何ヶ月もの時間をかけて、専門教育を受けたプロが作り上げるものです。 ディープフェイクの登場により、アマチュアでも動画を安価に手早く加工できるようになりました。 現時点ではディープフェイクのクオリティは発展途上ですが、将来は格段に向上するでしょう。 もしかしたら、現実と区別がつかなくなるかもしれません。 そんな未来が実現したら、どうなってしまうのでしょうか。 実は、対策はもう練られているのです。 動画の人物の身体に他人の顔を合成して、顔を差し替えたりするようなこともできます。 実在する、とある動画のように、個人の楽しみとして、有名な映画の出演者を差し替えて加工することもできます。 とはいえ、ニコラス・ケイジの差し替えだけは勘弁願いたいところです。 しかし、もっと悪どい利用法もあります。 例えば2018年、ジョーダン・ピール監督は、バラク・オバマ元大統領に面白おかしく悪態をつかせたコンセプトビデオを製作しました。 この動画は明らかに偽物でしたが、虚偽の選挙広報動画がいとも簡単にできてしまうことを広く知らしめました。 さらに恐ろしいことに、出回っているディープフェイク動画の95パーセントは、ディープフェイクだと明言していません。 セレブはもちろん、ごく普通の一般人を合成した、合意の無いポルノ動画などがそれです。 これは大きな問題です。 ディープフェイクが作られる仕組み ディープフェイクの技術はまだ出て来たばかりなのですが、急激に進歩しています。 一説によると、ディープフェイクの動画数は2019年には倍増しています。 どんどん手軽に作れるようになってきているのが原因のようです。 ディープフェイクが使っているのは、敵対的生成ネットワーク、通称GANs(generative adversarial networks)と呼ばれる、新生の強力なコンピューティングメソッドです。 この場合は、動画を作りたい対象の人物の写真や動画です。 次に、2つのネットワークを競合させます。 片方のネットワークには、トレーニングデータを使って人物の顔をテンプレートにはめ込み、動画にして、ディープフェイクを作るよう指示します。 もう片方のネットワークには、そのディープフェイクを観測して、トレーニングデータと比較させ、動画がリアルかどうかを判別するよう指示を出します。 最終的には、ディスクリミネーティブネットワークが真贋を判別できないほどの均衡点に達するのです。 もちろん、作られるディープフェイクは、ニューラルネットワークの性能の範囲内に限られますし、コンピュータを騙せても、人間を騙せるとは限りません。 現在では、チープなアマチュアレベルのディープフェイクであれば、ターゲットの画像250枚程度と、2日程のコンピュータプロセスで作ることができます。 しかし、人間を騙せる品質ではありませんし、ニコラスケージ・パーティを合成する程度の、クオリティの低い動画しかできません。 オバマ元大統領の動画のような、高品質のものを作成するには、いまだにプロの手を加える必要があります。 とはいえ、ディープフェイクを見破る難易度は、どんどん上がっています。 例えば、以前であれば、不自然にまばたきが少ない人物を探せば見分けることができていました。 しかし、専門家によれば、最近のものはもはやこの手法には頼れないようです。 GANs同様、人間のプログラマーも、時と共にアルゴリズムを向上させているのです。 そのため、今日、偽物の検出に使えた手法でも、翌日には使えなくなる可能性があります。 動画よりも似せるハードルが高いのは音声 さて、真贋の見分けが付かないほどのディープフェイクが作られる日は、来るのでしょうか。 その答えは、いまだ議論の域を出ません。 しかし、偽動画よりも高いハードルになるのは、「偽音声」です。 顔の合成はかなり質が上がっており、GANsが人間を騙せる動画を生成する日は、遠からず来ることでしょう。 しかし、人物に言葉を話させるのは、まったく別の問題です。 通常は、動画と同様、機械学習とGANsで音声を偽造できます。 人物の声の録音データが、多少必要になる程度です。 しかし、芸術の域に達するような音声偽造ソフトウェアは、まだ人間を騙せるほどのクオリティではありません。 人間による研究が、あまり進んでいないためでしょう。 しかしこれもまた、将来は変わる可能性があります。 映画のクリエイターなどにとっては画期的なことではありますが、信頼できる情報の判別は、今後ますます困難となるでしょう。 メディアリテラシーがより一層求められる時代へ これはゆゆしき問題であり、これに備えている企業もあります。 例えばスマートフォンについては、携帯が動画を撮影した時のGPS位置情報や、気圧や方角センサーなど、偽造しづらいデータを活用します。 この企業は、動画撮影の際にこれらのデータを読み込み、企業のサーバーに送信するカメラアプリを開発しました。 オリジナルのデータが本物であるという証明に役立ちますし、オリジナルの撮影後で偽バージョンを作りにくくなります。 さらに、偽オーディオクリップを制作するあるグループは、自作のコンテンツだとわかる「電子透かし」を、自分たちの作品に実験的に付与しています。 残念なことに、どれほど安全対策をしたとしても、ルールを守らない人は必ずいますし、多くのコンテンツにおいてそれは事実です。 また、動画を加工したり、ミスリードされるような動画の作成は、ずいぶん前から行われてきました。 高品質の偽物を作るディープフェイクの時代が訪れたとしても、自分たちのメディアリテラシーのスキルを磨く以外に術はなさそうですし、そうしても何の損もありません。

次の