iPhoneの「写真を勝手にスキャンして児童ポルノを通報するソフト」は思ったよりもガバガバかもしれない
iPhoneの「写真を勝手にスキャンして児童ポルノを通報するソフト」は思ったよりもガバガバかもしれない / Credit:GitHub
artificial-intelligence

iPhone内の画像から勝手に児童ポルノを通報するAIに「欠陥」がみつかる (3/3)

2021.08.24 Tuesday

前ページ監視ソフトは犬の写真と抽象画を同じと認識していた

<

1

2

3

>

Appleは既に児童ポルノ以外のデータもスキャンしていた

Appleは既に児童ポルノ以外のデータもスキャンしていた
Appleは既に児童ポルノ以外のデータもスキャンしていた / Credit:Canva . ナゾロジー編集部

今回の調査により、私たちの端末に導入されるNeuralHashに対する不安が増すことになりました。

Appleは実際に警察に通報を行う前に、人間の目によるダブルチェックを行うとしていますが、それでも専門家たちは、エラーが原因で誤認逮捕が起こり得ると考えているそうです。

なによりNeuralHashによる監視は、警察に通報するかどうかの裁量権が民間の企業に委ねられていることを意味します。

自分にとって児童ポルノでもなんでもない画像がAppleによって児童ポルノだと認定されれば、アカウントが凍結され、警察の介入が行われることになります。

またセキュリティの専門家は、NeuralHashの学習対象を児童ポルノから別のものに変更することで、特定の情報をAppleが収集できるようになると考えています。

そして、その不安は現実のものになっていました。

8月23日、Apple情報専門のニュースサイト『9to5mac』によると、Appleは2019年からiCloud Mailをスキャンしていると判明。

そしてこれまで行われたスキャンには、児童ポルノではない、他のデータを対象にしたスキャンも含まれていたとのこと。

記者たちが「他のデータ」とは何かと尋ねたものの、残念ながら返答は得られなかったようです。

Appleはこれまで、送信者と受信者しかデータを知ることのできない「エンド・ツー・エンド(端から端)」の通信を重視して運営を行ってきました。

AppleはNeuralHashが導入されたとしても、通信中は暗号状態が守られているため「エンド・ツー・エンド(端から端)」は守られていると述べています。

また一部の人々はNeuralHashが導入されることでiPhoneに入り込むデータに不快感を感じるかもしれません。

NeuralHashが導入されると、比較用として用いられる、数十万点に及ぶ児童ポルノ画像のハッシュデータもまた、私たちのiPhoneに入り込むのです。

データは暗号化されており、個人が閲覧することはできませんが、潜在的な児童ポルノのデータを大量にiPhoneに入れることになるのは事実です。

犯罪の検出と個人情報の保護のジレンマは近い将来、日本でも避けて通れない問題になるでしょう。

児童ポルノの規制は必要です。

しかし、その手段が1企業に支配されていいのかどうかは、また別の議論となるのではないでしょうか。

<

1

2

3

>

人気記事ランキング

  • TODAY
  • WEEK
  • MONTH

Amazonお買い得品ランキング

AI・人工知能のニュースartificial-intelligence news

もっと見る

役立つ科学情報

注目の科学ニュースpick up !!