信頼できるレポートによると、Appleは、米国の児童虐待画像のための地域の写真を自動的にスキャンする米国のiPhoneにソフトウェアをインストールすることを計画しています。 Appleは、少なくともこのテクノロジでiCloudにアップロードされた写真のみをスキャンすることだけをスキャンします。
アップデート: Appleはこの報告の多くを確認しました 詳細な文書 。
リンゴは何をしていますか?
Appleの計画の報告は発信されました 決算時期 Johns Hopkins大学教授 マシューグリーン 、両方の一般的な信頼できる情報源。もちろん、Appleがこれがこのような場合にこれを確認するまで、これが起こらない可能性があります。 Appleは、今週初めにいくつかの米国の学者への計画を説明しました。
私はAppleが明日のCSAMスキャンのためのクライアント側のツールをリリースしている複数の人々からの独立した確認を受けました。これは本当に悪い考えです。
- マシューグリーン(@matthew_d_green) 2021年8月4日
報告書によると、Appleはシステムを使用して「ニューラルマッチ」を呼び出して、児童虐待画像のためにアメリカのiPhoneをスキャンします。
基本的に、自動化されたシステムは、違法な画像が検出されたと考えている場合、人間の査読者のチームに警告します。そこから、チームのメンバーはイメージを検討し、法律の執行を承認します。
技術的には、これは新しいクラウドベースの写真ストレージシステムではありません。ソーシャルネットワークはすでにこの種のスキャンをしています。ここに違いは、Appleがデバイスレベルでそれをしていることです。マシューグリーンによると、最初はiCloudにアップロードされた写真のみをスキャンするだけですが、ユーザーの電話でそのスキャンを実行します。 「最初は」がそこにあるキーワードです。
これは、スキャンが電話で行われ、一致がある場合にのみ返送されるので、これはシステムを侵略的にすることになっています。
ブリーフィングの中には、iCloudにアップロードされたすべての写真に「安全バウチャー」が与えられます。一定量の写真が容疑者としてマークされている場合、Appleは復号化し、子どもの虐待を含むものがあることが見つかった場合にそれらを当局に送ります。
システムはどのように児童虐待画像やその他の画像を区別しますか?報告書によると、それは米国の非営利国立国立センターによって徴収され、子供たちが悪用された200,000の性別虐待画像でテストされています。
画像はハッシュを介して数字の文字列に変換され、データベース内の写真と比較されます。
このすべてが出てきた後、Appleは何が起こっているのかについての経済的な時代にコメントすることを断った。ただし、この動きに関するメッセージングが手に出ない前に、会社がいくつかの公式声明に取り組んでいます。
これは危険な先例を設定します
私たちはおそらくこれがどれほど怖いかをあなたに伝える必要はありません。子供を虐待している人は捕まえて処罰されるべきですが、これがどれほど侵襲的な目的でどのように使われるかを見ることは簡単です。
Mac、Windows PCS、およびAndroid携帯電話のような他のプラットフォームで同様の技術が展開されますか?中国のような国々が彼らの市民の携帯電話での控え目なイメージを検出するためにそれを使用することができますか?それが広く受け入れられるならば、著作権業界はそれを数年で海賊版コンテンツのスキャンを開始するためにそれを使用することができますか?
そしてそれが宣伝されているように機能しても: 罪なき人々 クロスファイアに巻き込まれますか?
うまくいけば、これは見た目に関してはそうではありません。