Según informes creíbles, Apple planea comenzar a instalar software en iPhones en los Estados Unidos que analizará automáticamente fotos locales para las imágenes de abuso infantil. Según informes, Apple solo escaneará las fotos cargadas a Icloud con esta tecnología, al menos, al menos.
Actualizar: Apple ha confirmado gran parte de este informe en [dieciséis] un documento detallado .
¿Qué está haciendo Apple?
Los informes de los planes de Apple se originaron en Los tiempos financieros y profesor de la universidad de Johns Hopkins Mateo verde , ambas fuentes generalmente confiables. Por supuesto, hasta que Apple confirme que este es el caso, siempre hay una posibilidad de que esto no suceda. Según informes, Apple demostró el plan para algunos académicos de los Estados Unidos a principios de esta semana.
He tenido una confirmación independiente de varias personas que Apple está lanzando una herramienta del lado del cliente para el escaneo de CSAM mañana. Esta es una mala idea.
- Matthew Green (@matthew_d_green) 4 de agosto de 2021
Según los informes, Apple utilizará un sistema que llama "NeuralMatch" para escanear iPhones americanos para las imágenes de abuso infantil.
Esencialmente, un sistema automatizado alertaría a un equipo de revisores humanos si cree que se detecta imágenes ilegales. Desde allí, un miembro del equipo revisaría las imágenes y la aplicación de la ley.
Técnicamente, esto no es nada, los sistemas de almacenamiento de fotos de nueva nube y las redes sociales ya realizan este tipo de escaneo. La diferencia aquí es que Apple lo está haciendo en el nivel del dispositivo. Según Matthew Green, inicialmente solo escaneará las fotos cargadas a Icloud, pero estará realizando esa exploración en el teléfono del usuario. "Inicialmente" es la palabra clave allí, ya que muy bien podría usarse para escanear todas las fotos localmente en algún momento.
Se supone que esto debe hacer que el sistema sea menos invasivo, ya que el escaneo se realiza en el teléfono y se devuelve solo si hay una coincidencia, es decir, no todas las fotos, su carga está sujeta a los ojos de extraños.
Según aquellos en la sesión informativa, cada foto subida a iCloud se le da un "cupón de seguridad", diciendo si es sospechoso o no. Cuando una cierta cantidad de imágenes está marcada como sospechosa, Apple los descifrará y los enviará a las autoridades si se encuentra algo relacionado con el abuso infantil.
¿Cómo se diferenciará el sistema entre las imágenes de abuso infantil y otras imágenes? Según el informe, se ha probado en 200,000 imágenes de abuso sexual recopiladas por el Centro Nacional Sin fines de lucro de los EE. UU. Para niños desaparecidos y explotados.
Las imágenes se convierten en una cadena de números a través de hashing y luego en comparación con las imágenes en la base de datos.
Después de todo esto, Apple se negó a comentar a los tiempos financieros sobre lo que está sucediendo. Sin embargo, suponemos que la compañía está trabajando en alguna declaración oficial antes de que la mensajería con respecto a este movimiento se salga de las manos.
Esto establece un precedente peligroso.
Probablemente no necesitamos decirte lo aterrador que esto podría ser. Las personas que abusan de los niños deben ser atrapadas y castigadas, pero es fácil ver cómo se podría usar algo así como esto con fines mucho más invasivos.
¿Se implementará tecnología similar en otras plataformas, como Macs, PC con Windows y teléfonos Android? ¿Podrían los países como China usarlo para detectar imágenes subversivas en los teléfonos de sus ciudadanos? Si se acepta ampliamente, ¿la industria de los derechos de autor lo use para comenzar a escanear el contenido pirateado en unos pocos años?
E incluso si funciona como se anuncia: lo hará gente inocente ¿Ser atrapado en el fuego cruzado?
Con suerte, esto no es tan concerniente como se ve.