Secondo i report credibili, Apple prevede di avviare l'installazione di software sugli iPhone negli Stati Uniti che eseguiranno automaticamente la scansione delle foto locali per le immagini degli abusi dei minori. Apple riferirà solo di eseguire la scansione delle foto caricate su ICloud con questa tecnologia, all'inizio, almeno.
Aggiornare: Apple ha confermato gran parte di questa segnalazione in Un documento dettagliato .
Cosa sta facendo Apple?
I rapporti dei piani di Apple sono stati originati I tempi finanziari E Johns Hopkins University Professor Matthew Green. , entrambe le fonti generalmente affidabili. Naturalmente, fino a quando Apple conferma che questo è il caso, c'è sempre una possibilità che questo non accada. Secondo quanto riferito, Apple ha dimostrato il piano a alcuni accademici degli Stati Uniti all'inizio di questa settimana.
Ho avuto conferma indipendente da più persone che Apple sta rilasciando uno strumento lato client per la scansione del csam domani. Questa è davvero cattiva idea.
- Matthew Green (@mathew_d_green) 4 agosto 2021
Secondo i report, Apple utilizzerà un sistema che chiama "neuralmatch" per scansionare iPhone americani per immagini di abuso per bambini.
Essenzialmente, un sistema automatizzato avrebbe avvisato un team di revisori umani se ritiene che venga rilevato immagini illegali. Da lì, un membro del team avrebbe esaminato le immagini e contattare le forze dell'ordine.
Tecnicamente, questo non è qualcosa di nuovo i sistemi di archiviazione di foto a base di nuvoloso e i social network già fanno questo tipo di scansione. La differenza qui è che Apple lo sta facendo sul livello del dispositivo. Secondo Matthew Green, inizialmente si esegue la scansione delle foto caricate su ICloud, ma eseguirà quella scansione sul telefono dell'utente. "Inizialmente" è la parola chiave lì, poiché molto bene potrebbe essere utilizzata per eseguire la scansione di tutte le foto localmente ad un certo punto.
Questo dovrebbe rendere il sistema meno invasivo, poiché la scansione viene eseguita sul telefono e inviata solo se c'è una partita, il che significa che non tutte le foto che carichi è soggetta agli occhi degli estranei.
Secondo quelli del briefing, ogni foto caricata su ICloud viene data un "Voucher di sicurezza", dicendo se è sospetto o meno. Quando una certa quantità di immagini è contrassegnata come sospetto, Apple li declittiglierà e li invierà alle autorità se si trova qualcosa di comportamento dei minori.
In che modo il sistema si differenzia tra immagini degli abusi dei minori e altre immagini? Secondo il rapporto, è stato testato su 200.000 immagini di abuso sessuale raccolte dal Centro nazionale senza scopo di lucro degli Stati Uniti per bambini mancanti e sfruttati.
Le immagini vengono convertite in una stringa di numeri attraverso l'hashing e poi confrontati con le immagini nel database.
Dopo tutto questo è uscito, Apple ha rifiutato di commentare i tempi finanziari su ciò che sta accadendo. Tuttavia, presuppiamo che la società stia lavorando su qualche affermazione ufficiale prima che la messaggistica per quanto riguarda questa mossa si sfugga.
Questo imposta un pericoloso precedente
Probabilmente non abbiamo bisogno di dirti quanto potrebbe essere spaventoso. Le persone che abusano dei bambini dovrebbero essere catturate e punite, ma è facile vedere come potrebbe essere usato qualcosa del genere per scopi molto più invasivi.
La tecnologia simile sarà rotolata su altre piattaforme, come Mac, PC di Windows e telefoni Android? I paesi come la Cina lo usano per rilevare immagini sovversive sui telefoni dei loro cittadini? Se diventa ampiamente accettato, l'industria del copyright potrebbe usarlo per iniziare la scansione per il contenuto pirata in pochi anni?
E, anche se funziona come pubblicizzato: lo farà persone innocenti Get Caught nel Crossfire?
Speriamo, questo non è così su quanto riguarda.