もう見抜けない…「ディープフェイク」は偽動画で歴史を改ざんするかも

artificial-intelligence

ディープフェイクは偽の証拠を生み出す
ディープフェイクは偽の証拠を生み出す / Credit:depositphotos
reference: fastcompany

AIによって動画を合成する技術「ディープフェイク」が登場して以来、様々な動画が簡単に改変されてきました。

最近、日本でも国民的女優の偽動画を作成したとして男性2人が逮捕されています。

さらにテクノロジーなどに焦点を当てたビジネス誌『Fast Company』の筆者であるベンジ・エドワーズ氏は、10月3日にディープフェイクが世界的に大きなトラブルを引き起こすと指摘しました。

彼によると、将来ディープフェイクによる偽動画がネット上に溢れ、過去の記録さえ改ざんされかねないというのです。

動画を本物のように改変する「ディープフェイク」とは?

ディープフェイク(英: deepfake)とはAI技術の「深層学習(英: deep learning)」と「偽物(英: fake)」を組み合わせた言葉です。

これはAIによる学習機能と人物画像合成技術を利用しています。既存の映像を他の映像に結合させることができるため、顔だけを別人物に変更したり、ある人物の架空の映像を作成したりできるのです。

また同時に合成した音声を挿入することで、偽物と判断しづらい動画を作成できるでしょう。

例えば下記のビデオをご覧ください。有名な映画『ホームアローン』の主役マコーレー・カルキンの顔がディープフェイクによって、屈強な映画俳優シルベスター・スターローンの顔に改変されています。

かなり強引な合成にも関わらず、動画としては自然に見えるのではないでしょうか?もしこれが、同じような体型・年齢であれば、多くの人が騙されてしまうでしょう。

また次のビデオもご覧ください。ある男性のスピーチをディープフェイクで著名人たちが実際に話しているかのように合成しています。

もし音声付きのこの動画が公開されるなら、多くの人がそれを本人が述べたことだと信じてしまうでしょう。

将来、ディープフェイクによって記録は改ざんされ放題かも!?

ディープフェイクの恐ろしさは、現段階でもこの高度なレベルの合成が可能だという点、そして、これらがAIによって行われるという点にあります。

フェイクビデオのクオリティは今後も向上していくでしょう。しかもAIがこれを行なうため、フェイクビデオ生成は専門家でなくとも可能です。

ディープフェイクで本人に成りすますことも可能
ディープフェイクで本人に成りすますことも可能 / Credit:depositphotos

もちろん、現在動画がディープフェイクであるかどうか検出できます。しかし、ディープフェイクを作成するAIは絶えず学習するため、現在の検出方法が将来通じるとは限りません。いたちごっこになってしまう可能性があります。

これまで映像は「信頼性の高い証拠」としての役割を担ってきました。しかしその信頼性は崩れ去ろうとしています。

将来、携帯アプリで簡単にディープフェイクが作れるようになるでしょう。見分けづらい架空の情報と改ざんされた記録がネット上に溢れるのです。

また「政治家の発言」はビデオとして保存され、歴史の一部となってきました。そして既に亡くなった人の発言をディープフェイクで改ざん・捏造するなら、その真偽を確かめことは難しいでしょう。少なくとも一部の人々は騙されてしまうはずです。

これはつまり「歴史の改ざん」なのです。

ディープフェイクの荒波に対処するには?

エドワーズ氏は、ディープフェイクによる記録改ざん対策もいくつか提案しています。

ディープフェイクを見抜き、防止する
ディープフェイクを見抜き、防止する / Credit:depositphotos

1つはディープフェイクツールへのアクセス制限です。現在でも既に米国とヨーロッパの政治家はディープフェイクツールを違法にしようと呼びかけています。

しかし全面的な禁止は難しいかもしれません。現在の様々な芸術は同じようなAI利用によって爆発的に促進されているからです。

エドワーズ氏は、この点を「印刷機が偽の歴史について書いた本を印刷できるとして、印刷機自体を非合法化することと同じ」だと指摘しています。

また、現在行われているAdobe、Twitter、The New York Times、BBCなどの共同の取り組み「Content Authenticity Initiative(以下、略称:CAI)」が効果的かもしれません。

CAIとはデータの作成者と出所を確認するためのデジタルメディアに添付できる暗号化されたタグシステムのことです。

これにより、コンテンツが特定のソースによって作成されたことを証明でき、作成者が信頼できる場合はコンテンツが本物である可能性も高くなるのです。

さて、これまでの情報をすべて考慮すると、対策がいくつかあるにも関わらず歴史的記録の将来は危ういと感じるかもしれません。

エドワーズ氏は「先には荒波がある」としつつも、「その時代を生き残るために私たち全員が歴史の価値を認識し、理解することが大切だ」と述べています。

創造性を刺激するためにディープフェイクが生まれましたが、今後は歴史を守るために、私たちの知恵や技術力を用いる必要がありそうです。

みなさんのおかげでナゾロジーの記事が「Googleニュース」で読めるようになりました!
Google ニュースを使えば、ナゾロジーの記事はもちろん国内外のニュースをまとめて見られて便利です。
ボタンからダウンロード後は、ぜひフォローよろしくおねがいします。
Google Play で手に入れよう App Store からダウンロード
あわせて読みたい

SHARE

TAG