ディープフェイクとは?

人工知能、機械学習、コンピュータープログラミングは、信じられないほど高度になりました。それらは今や、ほぼ正確な現実のシミュレーションを作成することができるようになった。そのような技術の1つがディープフェイクで、その能力と技術の使用による結果から、世界中で急速に人気を集めています。

「ディープフェイク」という言葉は、「ディープラーニング」技術に由来しています。これは人工知能の一種で、大規模なデータセットを使って問題を解決する方法を自ら学習するものです。顔を入れ替えたり、実在の人物に似せているが本人ではない動画コンテンツを作ったりするのに使われています。

例えば、プーチンと金正恩のフェイクビデオを探して見て、彼らがいかに実在の人物に恐ろしいほど似ているかを確認してください。もし信頼されるメディアサイトがこの記事を出してて、ディープフェイクであると私たちを納得させなければ、これらのビデオがディープフェイク技術で作られたものだと信じるのは難しいでしょう。

ディープフェイクはどのように始まったのか?

データ操作や情報の改ざんは、インターネットの出現で当たり前のように行われるようになりました。戦争や政治の世界では、誤報や誤解を与えるためにそのような行為が当たり前のように行われていたので、それらは常に人間の本性の一部でした。

ディープフェイクでの技術は、1997年にChristoph Bregler、Malcolm Slaney、Michele Covellによる映像書き換えプログラムとして始まりました。このプログラムは、既存のビデオ映像を操作して、新しい別のコンテンツに置き換えるものでした。プログラムが顔の再生を完全に自動化したのは、この時が初めてでした。

2014年には、イアン・グッドフェローが「Generative Adversarial Networks(GAN)」を発明しました。このプログラムによって、上記のプーチンの例のようなリアルなフェイク動画を作成することが可能になったのです。

GANは、敵対的モデルプロセスで動作します。生成モデルGがデータ分布を取得し、識別モデルDがサンプルの確率を推定する。モデルの設計は、Dから、そしてGを訓練することによって、間違いの可能性を最大化することです。このフレームワーク全体は、ディープフェイク技術の進化に重要な役割を果たしました。

ディープフェイクはどのように機能するのか?

ディープフェイクの動作メカニズムは、GANと機械学習モデルに大きく依存しています。しかし、そのためには特定のプロセスを必要とします。ディープフェイクを作成する最も一般的な方法は、オートエンコーダーを使用したディープニューラルネットワークを使用する方法です。

まず、操作対象となる動画が必要で、その人物のあらゆる顔の角度が鮮明な動画セットが必要です。動画セットには、無関係のクリップが入っていてもいいですし、一方は映画のクリップ、もう一方はランダムなクリップやソーシャルメディアの動画でも良いのです。

オートエンコーダーは、動画を研究する深層機械学習AIツールです。動画を研究する目的は、さまざまな角度や環境から見た人物の外見を知ることです。そして、このツールは、操作された動画内の人物に人物をマッピングします。

このプロセスは、大規模なデータセットを研究し、精度の高い結果を開発するGANの助けを借りて改善されます。改善すべき潜在的な領域を検出することで、顔面置換の欠陥を修正しました。これはディープフェイクの検出と解読をさらに難しくしています。

ディープフェイクは何のためにあるのか?

リアルな合成映像は、映画、ゲーム、シネマ業界において様々なシーンでの利用実績があります。

ただし、よくない使い方をされる事もあります。

2017年、「Deepfake」と呼ばれるRedditのコミュニティが、有名人や俳優の偽ポルノ(別名「リベンジポルノ」)を作成していたことが発覚しました。プライバシーを侵害し、本人の同意なしに性的なコンテンツを配信し、その人物の評判を落とすことが目的でした。

ディープフェイクの危険性とは?

ディープフェイク技術には、いくつかの潜在的なデメリットがあり、悪用されると非常に危険な状態になる可能性があります。まず、大量の偽情報の拡散を助長する可能性があります。ディープフェイクは、フェイクニュースのストーリーや、ビデオで紹介された人物が発言していない政治的発言を含むビデオを作成するためによく使用されます。これは、選挙など政治的緊張が高まっているときに特に問題となります。ディープフェイクは、何百万人もの人々に誤った情報を信じ込ませ、投票の意思決定に影響を与える可能性があるからです。

さらに、ディープフェイクは、誹謗中傷や特定の個人を狙った脅迫など、悪質なコンテンツの拡散にも頻繁に利用されています。他人の肖像権を無断で使用することで、加害者は個人の精神的苦痛や生活に大きな支障を与えることができます。

また、ディープフェイクは「合成メディア」と呼ばれる、本物そっくりの画像や動画でありながら、これまで存在しなかったものを生成することができます。そのため、誰でも、被害に遭った人が救済されることなく、やったことのない言動をとらされる可能性があります。この意味で、ディープフェイクは、デジタルコンテンツの信頼性と信用性を脅かすものです。

さらに、ハッカーが写真やビデオなどの個人情報にアクセスし、個人情報の盗難やその他の悪意のある行為に利用できるようになるため、ディープフェイクは消費者のプライバシーに対する大きな脅威となります。このような悪用が横行する中、より深刻な事態が発生するのは時間の問題でしょう。

Deepfakeの危険性を示す一例として、マーク・ザッカーバーグのフェイクビデオがあります。アーティストのダニエル・ハウとビル・ポスターは、AI企業Cannyと共同で、ある展覧会のために幽霊ビデオを作成しました。彼らは、”何十億もの人々の盗まれたデータ、すべての秘密、人生、未来を完全にコントロールする一人の男 “のマークの2年前のクリップを使用しました。現在、このビデオはFacebookが所有しており、Instagramの奥深くでも見つけることができます。

この例は、この技術がいかにオリジナルのコンテンツを変え、大量の誤報とパニックを引き起こすかを示しています。

シャローフェイクとは?

シャローフェイクは、ある出来事や人物について、人々の心や意見を悪意を持って操作することができます。シャローフェイクとディープフェイクの最終的な結果は同じであり、どちらも操作によって害を及ぼす傾向があります。

シャローフェイクは、危害を加えたり楽しんだりするために、似ているリアルな操作の動画を使用することができます。AIや機械学習が使えるディープフェイクと違い、シャローフェイクは手動で作成する必要があります。重い編集が必要ですが、ディープフェイクに比べればかなり短時間で済みます。クリップをカットしたり、動画の速度を変えたりすることも可能です。

ディープフェイクとシャローフェイクの違いとは?

シャローフェイクとは、情報を誤魔化すためにわずかに操作されたビデオ、画像、またはオーディオ録音のことです。例えば、動画の冒頭から数フレームを削除したり、オーディオ録音にほんの少し歪みを加えるなど、既存の映像やオーディオの細かい部分を変更することで作成されます。このような操作は比較的簡単で、技術的なスキルはほとんど必要ありません。こうした実際の動画にささいな編集を加えることで、実際に起きた事と異なる印象を視聴者に与えることを目的としています。

しかし、ディープフェイクはもっと複雑です。高度な人工知能(AI)アルゴリズムを利用し、複数のソースから得た素材を用いてリアルなデジタル画像や動画を生成します。例えば、ある人物の顔の特徴や表情と、別の人物の声を組み合わせて、説得力のある合成画像や動画を作成することができます。ディープフェイク技術では、説得力のあるデジタル印象を作り出すために、多大な時間、労力、コンピューティングパワーを必要とします。ディープフェイクの結果を検証することは困難であり、誤報や偽情報のキャンペーンに関して深刻な影響を与える可能性がある。

要約すると、シャローフェイクはディープフェイクよりも簡単に作成でき、技術的なスキルもあまり必要としませんが、ディープフェイクは作成に使用される高度なAIアルゴリズムにより、よりリアルで検出が困難です。そのため、ディープフェイクはシャローフェイクに比べ、より大きなリスクを持っています。

ディープフェイクビデオを見抜くには?

ディープフェイクビデオは、ますます説得力を増し、肉眼で発見することが困難になっています。しかし、ある兆候を見れば、ディープフェイクを見抜くことができます。

1つの重要な指標は、ビデオの音声です。ディープフェイクの中には、オリジナルの録音と比較して、音声がわずかに同期していなかったり、歪んでいたりするものがあります。これは、ビデオの合成音声と自然な唇の動きのミスマッチが原因であることが多いのです。

また、奇妙な間や不自然な話し方にも注意が必要です。これは、描かれている人物の本物の音声ではなく、偽物が使用されたことを示す可能性があります。

また、映像の光や影に矛盾がないかを確認するのもポイントです。照明の向きや強さが突然変わると、ディープフェイク映像のサインとなることがあります。近年、ディープフェイクの技術は格段に進歩していますが、それでも実際の映像にある微妙な光と影の変化を再現するのは難しいかもしれません。

また、ディープフェイク動画に登場する人物の顔の特徴を調べることも重要です。ディープフェイクはアルゴリズムで画像を動画にマッピングしているため、シワやソバカス、ほくろなど、その人特有の特徴を完全に再現することはできません。近年、人工知能は大きく進歩していますが、ディープフェイクの中には、このような顔の細部を完璧に再現することが困難なものもあります。

ディープフェイク動画の見分け方を学ぶには練習が必要ですが、見分けられるようになることは貴重なツールになります。ディープフェイクの可能性を慎重に検討する時間を取ることで、正確な情報が共有され、偽の動画によって損なわれることがないようにすることができます。

技術の進歩に伴い、本物と偽物の映像を見分けることはますます難しくなるかもしれませんが、ある程度の練習をすれば、騙されないように自衛することは可能です。この知識があれば、私たちはより良いメディア消費者になり、偽情報の犠牲になることを避けることができます。

ディープフェイク映像の例

ウラジーミル・プーチンや金正恩のフェイククリップの例についてはすでに述べました。しかし、以下は人気のあるディープフェイククリップです。

  1. マーク・ザッカーバーグがInstagramで公開したディープフェイク動画
  2. ウラジーミル・プーチンがアメリカ人にメッセージ
  3. 金正恩がアメリカの民主主義を嘲笑う
  4. ジョーダン・ピールによるバラク・オバマのディープフェイク

ディープフェイクは合法か?

テキサスは、ディープフェイククリップを最初に犯罪とした州でした。バージニア州の法律も、ディープフェイクやその他の方法でメディアを操作することを違法としました。有罪の場合、最高1年の禁固刑と2500ドルの罰金を科せられます。

世界知的所有権機関はそれに対して懸念を抱いており、プライバシーと知的財産の侵害として個人の権利の問題とみなしています。

ディープフェイクを止める/防ぐには

ディープフェイク動画の拡散を防ぐのに役立つ方法の一つは、その使用と潜在的な結果に対する一般の人々の認識を高めることです。また、ディープフェイク動画を識別し、報告する方法について人々を教育することも重要です。

また、ソーシャルメディアプラットフォームなどの企業や組織が、ディープフェイク動画を特定するための検出アルゴリズムを開発することも、ディープフェイクを阻止・防止する方法のひとつです。これらのアルゴリズムにより、コンテンツが拡散する前にブロックしたり、フラグを立てたりすることができます。また、テクノロジー企業や研究者は、動画の改ざんを迅速に検出できるよう、人々が動画を認証できるツールを開発しています。

最後に、各国政府は、悪意のあるディープフェイクを作成・共有した者に罰則を与える法律の制定を検討する必要があります。

法的アプローチ

ディープフェイクを防止するための最も効果的な方法は、法的措置をとることです。このプロセスの最初のステップは、コンテンツを作成または普及させた責任者を特定することでしょう。次に、加害者に停止命令書を送達し、対象となる個人または企業のあらゆるディープフェイクの作成と共有を停止するよう要求する必要があります。これ以上の措置は、知的財産法の経験が豊富な弁護士に相談し、管轄権の問題を解決した後に行う必要があります。

また、ディープフェイクの作成者に対して訴訟を提起することは、法的問題の解決に役立つだけでなく、それによって生じた損害に対する損害賠償を求めることができます。適用される法律によっては、法律専門家が必要と判断した場合、刑事責任を追及することができます。

よくある質問

  • ビデオがディープフェイクであるかどうかをどのように見分けるのですか?

    ビデオで本人にライブに来てもらったり、目、鼻、唇などの顔の特徴に歪みが見られることがあります。さらに、次のようなアクセサリーの不正な複製がある場合もあります。

  • ディープフェイクの例とは?

    プーチン、オバマ、マーク・ザッカーバーグのディープフェイクビデオの有名な例があります。インターネット上では、たくさんの例やディープフェイクの事例を見つけることができます。

  • ディープフェイクは何に使えるのですか?

    ディープフェイク技術は、フェイクビデオの作成、個人情報の盗難、リベンジポルノ、誤報の拡散、政治的不安、操作などの犯罪行為に使用される可能性があります。