iPhoneの「写真を勝手にスキャンして児童ポルノを通報するソフト」は思ったよりもガバガバかもしれない
iPhoneの「写真を勝手にスキャンして児童ポルノを通報するソフト」は思ったよりもガバガバかもしれない / Credit:GitHub
artificial-intelligence

iPhone内の画像から勝手に児童ポルノを通報するAIに「欠陥」がみつかる

2021.08.24 Tuesday

Working Collision? #1 https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1 Apple already scans iCloud Mail for CSAM, but not iCloud Photos https://9to5mac.com/2021/08/23/apple-scans-icloud-mail-for-csam/ Apple’s Plan to “Think Different” About Encryption Opens a Backdoor to Your Private Life https://www.eff.org/effector/33/5

Apple社の児童ポルノ検出技術に欠陥が発見されました。

現在Appleは、アメリカにおいて、個人の持つiPhoneやiCloudを勝手にスキャンして、児童ポルノを通報する「NeuralHash」というAIソフトの導入を進めています。

しかし8月18日にコード共有ウェブサイトGitHubのユーザーがシェアした情報によると、肝心のAIソフト(NeuralHash)が「犬と抽象画」を同じ画像と認識していると発見したとのこと。

iPhoneは膨大な数が世に出回っているため、わずかな誤検出率でも、誤認逮捕を引き起こす可能性があります。

しかし、いったいどうしてNeuralHashは犬の写真と抽象画を「同一」と判断してしまったのでしょうか?

監視ソフトは個人のデータから児童ポルノ画像を勝手にスキャンして通報する

監視ソフトは個人のデータから児童ポルノ画像を勝手にスキャンして通報する
監視ソフトは個人のデータから児童ポルノ画像を勝手にスキャンして通報する / Credit:Canva . ナゾロジー編集部

Appleは今年の後半にアメリカで、個人のiPhoneに常駐するタイプの、児童ポルノ検出ソフト「NeuralHash」を導入します。

NeuralHashは数十万にも及ぶ児童ポルノ画像をAIに見せることで学習を行わせ、同じパターンの画像が個人のiCloudにあるかを勝手にスキャンし通報する仕組みをもっています。

またNeuralHashはiPhoneが送受信する画像を監視し、送られてきた児童ポルノ画像をiCloudに入れた場合も、通報が行われることになっているそう。

iPhoneの持ち主が子どもの場合はさらに監視が強くなり、子どもが送受信した画像が児童ポルノだと判断された場合、警告が行われ、さらに子どもが警告を無視すれば両親にも通知されます。

同時に、証拠を押さえるために画像が子どものiPhoneに強制的に保存され、子ども本人が削除不可能になります。

Appleは、このような強力な監視体制を構築するのは全て、児童ポルノを規制するためであると述べています。

そこで今回、コード共有ウェブサイトGitHubのユーザーたちは一足早く、オンラインで公開されているNeuralHashの性能をチェックすることにしました。

次ページ監視ソフトは犬の写真と抽象画を同じと認識していた

<

1

2

3

>

AI・人工知能のニュースartificial-intelligence news

もっと見る

役立つ科学情報

注目の科学ニュースpick up !!