Det har vært mye snakk om Apples CSAM (Child Sexual Misbruk Material) Skanner . Nå er skanneren tilbake i nyhetene igjen, da det ser ut som det ser ut som det ser ut hackere kan være et skritt nærmere å lure CSAM-skanneren og skape falske positive.
Problemet med Apples CSAM-skanner
EN Reddit bruker gjorde litt omvendt engineering for å forstå Apples Neuralhash algoritme for på-enheten CSAM-deteksjon. Ved å gjøre det oppdaget de en mulig kollisjon i hashen som kunne skape falske positive. EN kollisjon er et potensielt sammenstøt som oppstår når to deler av dataene har samme hashverdi, sjekksum, fingeravtrykk eller kryptografisk fordøyelse.
En koder kalt Cory Cornelius produserte en Kollisjon i algoritmen , som betyr at de fant to bilder som skaper samme hash. Dette kan brukes til å skape falske positiver, som ville flagge bilder til Apple som inneholdende barnemishandling selv om de er helt uskadelige.
Selv om det sikkert ikke ville være lett, er det mulighet for at en hacker kan generere et bilde som setter av CSAM-varslene, selv om det ikke er et CSAM-bilde.
Men det er en forskjell mellom å si "ja det er nesten sikkert å skje, i teorien" og å se det skje i det virkelige livet. Apple gikk ut av deres måte å holde Hash-funksjonen hemmelig - fordi de kjente risikoen.
- Matthew Green (@matthew_d_green) 18. august, 2021
Apple har lag laget for å sikre at den falske positive ikke forårsaker et problem. For eksempel, når et bilde er flagget, må det vurderes av en faktisk person før den sendes til rettshåndhevelse. Før det kommer til det tidspunktet, må hackeren få tilgang til NCMEC Hash-databasen, lage 30 kollidere bilder, og deretter få dem alle på målets telefon.
Når det er sagt, er det bare et annet problem som kommer opp med Apples CSAM-skanner. Det har allerede vært enorm opposisjon, og det faktum at kodere var i stand til å reversere ingeniør, det er allerede veldig angående. I stedet for en kollisjon som tar måneder for å dukke opp, ble en oppdaget innen timer med koden som går offentlig. Det handler om.
Vil Apple gjøre noe?
Bare tiden vil fortelle hvordan Apple adresserer denne situasjonen. Selskapet kan backtrack på sin plan for å bruke neuralhash-algoritmen. I det minste må selskapet adressere situasjonen, som tillit til Apples fotograngeringsplan er allerede lav.