Au fost multe discuții despre Scanerul Apple CSAM (Materialul de abuz sexual pentru copii) . Acum, scanerul se întoarce din nou în știri, așa cum se pare că Hackeri ar putea fi un pas mai aproape de a înșela scanerul CSAM și de a crea fals pozitive.
Problema cu scanerul CSAM al Apple
A Reddit Utilizator. a făcut o inginerie inversă pentru a înțelege Neuralhashul Apple algoritm. pentru detectarea CSAM pe dispozitiv. În acest fel, au descoperit o posibilă coliziune în hash care ar putea crea fals pozitive. A coliziune Este o ciocnire potențială care apare atunci când două date de date au aceeași valoare hash, controlul, amprenta digitală sau digest criptografică.
Un coder numit Cory Cornelius a produs a Coliziune în algoritm , ceea ce înseamnă că au găsit două imagini care creează același hash. Acest lucru ar putea fi folosit pentru a crea pozitive false, care ar împiedica imaginile la Apple ca și abuzul de copii, chiar dacă sunt în întregime inofensivi.
În timp ce cu siguranță nu ar fi ușor, există posibilitatea ca un hacker să poată genera o imagine care stabilește alertele CSAM, chiar dacă nu este o imagine CSAM.
Dar există o diferență între a spune: "Da, aproape că se întâmplă, în teorie" și văzând că se întâmplă în viața reală. Apple a ieșit din calea lor pentru a păstra secretul funcției hash - pentru că știau riscurile.
- Matthew Green (@Matthew_d_Green) 18 august 2021
Apple are straturi concepute pentru a vă asigura că fals pozitiv nu provoacă o problemă. De exemplu, atunci când o imagine este marcată, aceasta trebuie revizuită de o persoană reală înainte de a fi trimisă la aplicarea legii. Înainte de a ajunge chiar la acel punct, hackerul ar trebui să aibă acces la baza de date Hash NCMEC, creează 30 de imagini de coliziune, apoi obțineți toate pe telefonul țintă.
Asta a spus, este doar o altă problemă care vine cu scanerul CSAM al Apple. Au existat deja o opoziție extraordinară și faptul că coderii au reușit să inverseze inginerul pe care îl este deja în privința. În loc de o coliziune luând luni de zile, unul a fost descoperit în câteva ore de la codul care merge public. Asta e cu privire la.
Va face Apple ceva?
Numai timpul va spune cum Apple adresează această situație. Compania ar putea să se retragă pe planul său de a utiliza algoritmul neuralhash. Cel puțin, compania trebuie să abordeze situația, ca încredere în Planul de scanare foto de la Apple este deja scăzută.