Appleは既に児童ポルノ以外のデータもスキャンしていた
今回の調査により、私たちの端末に導入されるNeuralHashに対する不安が増すことになりました。
Appleは実際に警察に通報を行う前に、人間の目によるダブルチェックを行うとしていますが、それでも専門家たちは、エラーが原因で誤認逮捕が起こり得ると考えているそうです。
なによりNeuralHashによる監視は、警察に通報するかどうかの裁量権が民間の企業に委ねられていることを意味します。
自分にとって児童ポルノでもなんでもない画像がAppleによって児童ポルノだと認定されれば、アカウントが凍結され、警察の介入が行われることになります。
またセキュリティの専門家は、NeuralHashの学習対象を児童ポルノから別のものに変更することで、特定の情報をAppleが収集できるようになると考えています。
そして、その不安は現実のものになっていました。
8月23日、Apple情報専門のニュースサイト『9to5mac』によると、Appleは2019年からiCloud Mailをスキャンしていると判明。
そしてこれまで行われたスキャンには、児童ポルノではない、他のデータを対象にしたスキャンも含まれていたとのこと。
記者たちが「他のデータ」とは何かと尋ねたものの、残念ながら返答は得られなかったようです。
Appleはこれまで、送信者と受信者しかデータを知ることのできない「エンド・ツー・エンド(端から端)」の通信を重視して運営を行ってきました。
AppleはNeuralHashが導入されたとしても、通信中は暗号状態が守られているため「エンド・ツー・エンド(端から端)」は守られていると述べています。
また一部の人々はNeuralHashが導入されることでiPhoneに入り込むデータに不快感を感じるかもしれません。
NeuralHashが導入されると、比較用として用いられる、数十万点に及ぶ児童ポルノ画像のハッシュデータもまた、私たちのiPhoneに入り込むのです。
データは暗号化されており、個人が閲覧することはできませんが、潜在的な児童ポルノのデータを大量にiPhoneに入れることになるのは事実です。
犯罪の検出と個人情報の保護のジレンマは近い将来、日本でも避けて通れない問題になるでしょう。
児童ポルノの規制は必要です。
しかし、その手段が1企業に支配されていいのかどうかは、また別の議論となるのではないでしょうか。