今年の後半からiPhone内の画像データが勝手にスキャンされ児童ポルノが通報されるようになるとAppleが発表
今年の後半からiPhone内の画像データが勝手にスキャンされ児童ポルノが通報されるようになるとAppleが発表 / Credit:Canva . ナゾロジー編集部
artificial-intelligence

AppleがiPhone内の画像から勝手に児童ポルノを通報すると発表!今年中に米国で開始

2021.08.06 Friday

Apple will scan photos stored on iPhones and iCloud for child abuse imagery https://www.theverge.com/2021/8/5/22611305/apple-scan-photos-iphones-icloud-child-abuse-imagery-neuralmatch Apple reportedly plans to begin scanning iPhones in the US for child abuse images (updated) https://www.engadget.com/apple-scan-iphones-child-abuse-neuralmatch-185009882.html Apple to scan US iPhones for images of child sex abuse https://www.scmp.com/news/world/united-states-canada/article/3144020/apple-scan-us-iphones-images-child-sex-abuse?module=perpetual_scroll&pgtype=article&campaign=3144020

個人の持つiPhoneに対してスキャンがはじまります。

今週の木曜日にAppleは、米国内の個人のiPhoneに記録されている全ての画像データに対して、常に監視を行うシステムを導入すると発表しました。

目的は児童虐待画像(児童ポルノ)の拡散を防止するためとのこと。

システムは今年の後半に導入され、違法画像が検知された場合、データが抜き取られ、警察に通報されます。

さらに、システムによる監視は画像だけでなく、言葉にも及びます。

児童ポルノに「関連する言葉」を検索しようとするとするだけで「Siri」や「Search」といった私たちに馴染み深いソフトたちが警告を行うようになるそう。

もちろん新しく導入される監視システムは児童保護団体から歓迎されていますが、セキュリティー研究者たちは、プライバシー監視の始まりだと懸念を示しています。

どのような仕組みで違法画像を検知しているのでしょうか?

システムがダウンロードされると勝手に画像データをスキャンしはじめる

システムがダウンロードされると勝手に画像データをスキャンしはじめる
システムがダウンロードされると勝手に画像データをスキャンしはじめる / Credit:Canva . ナゾロジー編集部

今年の後半からAppleが導入しようとしているシステムは「neural Hash」と呼ばれる検出アプリです。

「neural Hash」は、児童ポルノとされた既存の20万枚の画像パターンをAIに学習させたアプリであり、iPhoneにダウンロードされると、似たようなパターンを持つ映像が個人のiPhone内部にあるかをスキャンしはじめます。

そしてパターン一致率が高い画像データが発見された場合、データがiPhoneから抜き取られて他者の手に渡り、警察に通報されます。

つまりAppleは膨大な量にのぼると考えられる被疑者に対して、通報するかしないかの裁量権を持つことになります。

また「neural Hash」は既にiPhoneにあるデータだけでなく、新たに送受信されるデータに対しても監視を行います。

例えば他人から子どもに送られてきた映像を、AIが児童ポルノだと判断した場合、写真は「ぼやける」だけでなく、子どもに対して警告が発せられ、「両親に通知する」とメッセージが表示されます。

また子ども自身が性的に露骨な写真を撮影したり、他者に送信しようとした場合も、同様の措置がとられます。

また監視対象は画像だけでなく言葉にも及ぶそう。

子どもや親が「児童ポルノ」にかかわる単語を検索した場合でもシステムが反応し、即座に警告を行うようになるからです。

これらの新たな監視システムに対して、一部の児童保護団体は歓迎の意向を示しています。

しかしセキュリティーの専門家たちは、大きな懸念を表明しています。

例えばジョンホプキンス大学のグリーン教授は、この種のツールは児童ポルノを見つけるために役立つとする一方で、AIの判断の元となっている「データベース」が、私たち一般の利用者が知ることができない点に問題があると述べました。

AIにターゲットを教えるデータベースを意図的に操作することで、個人のiPhoneから取り出したい画像を児童ポルノから別のものに簡単に変更することができるかもしれないからです。

次ページスマホの中の情報が自分のものではなくなる

<

1

2

>

AI・人工知能のニュースartificial-intelligence news

もっと見る

役立つ科学情報

注目の科学ニュースpick up !!