I henhold til troverdige rapporter planlegger Apple å begynne å installere programvare på iPhones i USA som automatisk skanner lokale bilder for barnemisbruk. Apple vil angivelig bare skanne bilder lastet opp til iCloud med denne teknologien - i begynnelsen, i det minste.
[1. 3] Oppdater: Apple har bekreftet mye av denne rapporteringen i Et detaljert dokument .Hva gjør Apple?
Rapportene om Apples planer stammer fra Financial Times. og Johns Hopkins Universitetsprofessor Matthew Green. , begge generelt pålitelige kilder. Selvfølgelig, til Apple bekrefter dette for å være tilfelle, er det alltid en sjanse for at dette ikke skjer. Apple demonstrerte tilsynelatende planen til noen amerikanske akademikere tidligere denne uken.
Jeg har hatt uavhengig bekreftelse fra flere personer som Apple løser et klient-sideverktøy for CSAM-skanning i morgen. Dette er en veldig dårlig idé.
- Matthew Green (@matthew_d_green) 4. august 2021
Ifølge rapportene vil Apple bruke et system det kaller "NeuralMatch" for å skanne amerikanske iPhones for barnemisbruk.
I hovedsak ville et automatisert system varsle et team av menneskelige korrekturlesere hvis det tror ulovlig bilde er detektert. Derfra ville et medlem av teamet vurdere bildene og kontakt rettshåndhevelsen.
Teknisk sett er dette ikke noe nytt-skybaserte fotoragringssystemer og sosiale nettverk, gjør allerede denne typen skanning. Forskjellen her er at Apple gjør det på enhetsnivået. Ifølge Matthew Green vil det i utgangspunktet bare skanne bilder lastet opp til iCloud, men det ville være å utføre den skanningen på brukerens telefon. "I utgangspunktet" er nøkkelordet der, som det er veldig bra, kan brukes til å skanne alle bildene lokalt på et tidspunkt.
Dette skal gjøre systemet mindre invasivt, da skanningen er gjort på telefonen og sendes bare tilbake hvis det bare er en kamp, noe som betyr at ikke hvert bilde du laster opp, er utsatt for fremmede.
Ifølge de som er i briefing, får hvert bilde lastet opp til iCloud en "sikkerhetskupong", som sier om det er mistenkt eller ikke. Når en viss mengde bilder er merket som mistenkte, vil Apple dekryptere dem og sende dem til myndigheter hvis noe som involverer barnemishandling, er funnet.
Hvordan vil systemet skille mellom barn misbruk bilder og andre bilder? Ifølge rapporten har den blitt testet på 200.000 sexmisbruksbilder samlet av det amerikanske non-profit National Center for å savne og utnytte barn.
Bilder konverteres til en rekke tall gjennom hashing og deretter sammenlignes med bildene i databasen.
Etter alt dette kom ut, nektet Apple å kommentere økonomiske tider om hva som skjer. Men vi antar at selskapet jobber med litt offisiell uttalelse før meldingen om dette trekket kommer ut av hånden.
Dette setter en farlig presedens
Vi trenger sannsynligvis ikke å fortelle deg hvor skummelt dette kan være. Folk som misbruker barn, bør bli fanget og straffet, men det er lett å se hvordan noe som dette kan brukes til langt mer invasive formål.
Vil lignende teknologi rullet ut på andre plattformer, som Macs, Windows-PCer og Android-telefoner? Kan land som Kina bruke den til å oppdage subversive bilder på sine borgere? Hvis det blir allment akseptert, kan opphavsretten bruke den til å begynne å skanne for piratkopiert innhold om noen år?
Og selv om det fungerer som annonsert: vil uskyldige mennesker bli fanget i krysset?
Forhåpentligvis er dette ikke så angående som det ser ut.