偽物を見分けるAIでフェイク映像被害を予防
偽物を見分けるAIでフェイク映像被害を予防 / Credit:photoAC
artificial-intelligence

もうフェイク映像には騙されない!偽物を見分けるプログラムが実用化

2023.09.20 Wednesday

AIの進化は目覚ましく、日常的にさまざまな場所で活用されています。

最近はディープラーニングという、大量のデータから機械が特徴を見出す技術が発展し、機械が人間のように認知や区別ができるようになってきました

ディープラーニングを活用し、まるで人間と話しているように自然に会話ができたり、お題に合ったイラストを描いたりできるソフトウェアも誕生しています。

以前はAIを使いこなすのは大学での研究が主でしたが、技術の発展により実用化が進み、知識が無い人もAI利用するようになっています。

新しい技術の発展が、より便利なサービスを生み出し、今までよりも新しく暮らしやすい世の中になっていくかもしれません。

しかし、AIの技術発展は人間にとってプラスになるだけではありません。

AIから作られた人工的な画像や映像を使って、人を騙そうとする人も出てきています。

騙されないためには本物か偽物か見分ける眼力が必要ですが、人間がわずかな特徴を見出し偽物かどうか判断することは極めて難しいでしょう。

そこで、国立情報学研究所(NII)は本物なのか、AIが作ったものなのか見分けるためのプログラムを開発しています。

この技術は2023年に国内で初めて実用化されることになりました。

AI が生成したフェイク顔映像を自動判定するプログラム「SYNTHETIQ VISION」をタレントの Deepfake 映像検知に採用(PDF) https://www.nii.ac.jp/news/upload/nii_newsrelease_20230113.pdf シンセティック・メディア AIによるメディア制作の新潮流(PDF) https://www.nri.com/-/media/Corporate/jp/Files/PDF/knowledge/publication/chitekishisan/2021/07/cs20210702.pdf?la=ja-JP&hash=15E4CE4D3CBF2862FEAD9456D6977C6E156F2F20 人間が深層学習のAIを理解できないのには、理由がある https://globe.asahi.com/article/12872410 著名人のデジタルツインをキャスティングするサービス「デジタルツインレーベル」を、芸能事務所および著名人向けに開始 「分身」となる公式3DCGモデルを制作・管理し、デジタル空間でのタレント活動を促進へ https://www.cyberagent.co.jp/news/detail/id=26503

AI普及のメリットと弊害

AIがあれば自然な文章や映像を作ることができる
AIがあれば自然な文章や映像を作ることができる / Credit:photoAC

まるで人間と話しているように自然な文章でやり取りができるChatGPTや、指示通りの画像や映像を作り出すソフトウェアなど、AIはさまざまな分野で活用されるようになりました。

その中で、リアルな音声付きの映像を作り出す動画合成技術のことを「シンセティック・メディア」と呼び、ニュースの読み上げなどで活用されています。

シンセティック・メディアを使えば、合成される人を直接撮影することなく、その人がまるで話しているような映像を作り出すことが可能です。

機械を使用すれば、誤操作や読み間違えなどが無いうえに24時間対応可能で、多言語化も容易にできます。

人間のような動きや話し方を再現しながら人間よりも高度な対応ができ、ニュースだけではなくさまざまな場面で活用されていくでしょう。

シンセティック・メディアは便利で将来性が高い技術ではありますが、「ディープフェイク」による悪用につながる懸念点があります。

ディープフェイクを使用した犯罪や嫌がらせ

ディープフェイクによる合成映像
ディープフェイクによる合成映像 / Credit:いらすとや

AIによる作り出した、フェイク動画や画像を「ディープフェイク」と呼びます。

以前、SNSでファッショナブルな白いダウンコートを着たローマ教皇の画像が話題となりました。

とてもローマ教皇が着ているものとは思えず、そのギャップに人々は興味をひいたのです。

しかし、このローマ教皇の画像はディープフェイクによる偽物だったのです。

かなりリアルな画像であったことから騙される人が続出しました。

また、ウクライナのゼレンスキー大統領がロシアに降伏すると宣言する動画が投稿されたこともありました。

すぐにウクライナ側が気が付き削除対応と偽動画であることの表明が行われ、大事には至りませんでした。

しかし、このような使われ方をすれば、ディープフェイクにより政治的に大きな曲面に影響するほどの事件が起こることも懸念されます。

実際にロンドン大学では、今後起こるAIによる脅威のNo.1は「ディープフェイク」だと発表しています(UCL)。

ディープフェイクは、有名人のフェイク動画を使って誰かを騙したり、その有名人の評判を落としたりすることも可能なのです。

次ページフェイク顔映像を自動判別するプログラム「SYNTHETIQ VISION」

<

1

2

>

人気記事ランキング

  • TODAY
  • WEEK
  • MONTH

Amazonお買い得品ランキング

AI・人工知能のニュースartificial-intelligence news

もっと見る

役立つ科学情報

注目の科学ニュースpick up !!