Selon des rapports crédibles, Apple envisage de commencer à installer des logiciels sur des iPhones aux États-Unis qui numérisera automatiquement les photos locales pour les images d'abus d'enfants. Apple n'aurait que numériser des photos téléchargées sur iCloud avec cette technologie - au moins au moins.
Mettre à jour: Apple a confirmé une grande partie de ces déclarations dans Un document détaillé .
Que fait Apple?
Les rapports des plans d'Apple sont originaires de Les temps financiers et professeur d'université de Johns Hopkins Matthew Green , à la fois des sources généralement fiables. Bien sûr, jusqu'à ce que Apple confirme que cela soit le cas, il y a toujours une chance que cela n'arrive pas. Apple aurait démontré le plan à certains universitaires américains plus tôt cette semaine.
J'ai eu une confirmation indépendante de plusieurs personnes que Apple publie un outil côté client pour la numérisation de la CSAM demain. C'est une très mauvaise idée.
- Matthew Green (@matthew_d_green) 4 août 2021
Selon les rapports, Apple utilisera un système qu'il appelle «NeuralMatch» pour analyser les iPhones américains pour les imageries d'abus pour enfants.
Essentiellement, un système automatisé alerterait une équipe d'examinateurs humains s'il croit que des images illégales sont détectées. De là, un membre de l'équipe examinerait l'imagerie et contacterait l'application de la loi sur la loi.
Techniquement, ce n'est rien de plus de systèmes de stockage de photos et de réseaux sociaux basés sur des nuages, ce genre de numérisation. La différence ici est que Apple le fait sur le niveau de l'appareil. Selon Matthew Green, il ne fera initialement que numérisera uniquement les photos téléchargées sur iCloud, mais il effectuerait cette analyse sur le téléphone de l'utilisateur. "Initialement" est le mot clé là-bas, car il pourrait très bien être utilisé pour analyser toutes les photos localement à un moment donné.
Ceci est censé rendre le système moins invasif, car la numérisation est effectuée sur le téléphone et renvoyée uniquement s'il y a une correspondance, ce qui signifie que chaque photo que vous téléchargez n'est soumise aux yeux des étrangers.
Selon ceux lors de la briefing, chaque photo téléchargée à iCloud reçoit un "bon de sécurité", disant s'il est suspect ou non. Lorsqu'une certaine quantité d'images est marquée comme suspect, Apple les déchiffrera et les envoyer aux autorités si quelque chose impliquant une abus d'enfants est trouvé.
Comment le système va-t-il différencier entre les images d'abus d'enfants et d'autres images? Selon le rapport, il a été testé sur 200 000 images de violence sexuelle collectées par le Centre national des États-Unis à but non lucratif pour les enfants disparus et exploités.
Les images sont converties en une chaîne de nombres via le hachage puis comparé aux images de la base de données.
Après tout cela est sorti, Apple a refusé de commenter les temps financiers à propos de ce qui se passe. Cependant, nous supposons que la Société travaille sur une déclaration officielle avant que la messagerie concernant ce mouvement ne soit incontrôlée.
Cela définit un précédent dangereux
Nous n'avons probablement pas besoin de vous dire à quel point cela pourrait être effrayant. Les personnes qui abusent des enfants devraient être attrapées et punies, mais il est facile de voir comment quelque chose comme cela pourrait être utilisé à des fins beaucoup plus envasantes.
Une technologie similaire sera-t-elle déployée sur d'autres plates-formes, telles que les Mac, les PC Windows et les téléphones Android? Les pays comme la Chine pourraient-ils l'utiliser pour détecter des images subversives sur les téléphones de leurs citoyens? Si cela devient largement accepté, l'industrie du droit d'auteur pourrait-elle l'utiliser pour commencer à numériser pour un contenu piraté dans quelques années?
Et même si cela fonctionne comme annoncé: Personnes innocentes se faire prendre dans la croix?
J'espère que ce n'est pas aussi quant à ce qu'il semble.