Enligt trovärdiga rapporter, Apple planerar att börja installera programvara på iPhone i USA som automatiskt skanna lokala foton för barnmisshandel bilder. Apple kommer enligt uppgift bara skanna bilder uppladdade till iCloud med denna teknik-först, åtminstone.
Uppdatering: Apple har bekräftat mycket av denna rapportering i ett detaljerat dokument .
Vad är Apple gör?
Rapporterna från Apples planer härstammar från The Financial Times och Johns Hopkins University Professor Matthew Green , Båda allmänt tillförlitliga källor. Naturligtvis tills Apple bekräftar att så är fallet, det finns alltid en chans att detta inte händer. Apple enligt uppgift visade planen att vissa amerikanska akademiker tidigare i veckan.
Jag har haft oberoende bekräftelse från flera personer att Apple släpper en klientsidan verktyg för CSAM skanning i morgon. Detta är en riktigt dålig idé.
- Matthew Green (@matthew_d_green) 4 aug 2021
Enligt rapporter kommer Apple att använda ett system man kallar ”neuralMatch” till skanna amerikanska iPhones för barnmisshandel bilder.
I huvudsak skulle ett automatiserat system varnar ett team av mänskliga granskare om den anser olaglig bilder upptäcks. Därifrån skulle en medlem av laget granska bilder och kontakt brottsbekämpning.
Tekniskt sett är detta inte något nytt-molnbaserade foto lagringssystem och sociala nätverk redan gör denna typ av scanning. Skillnaden här är att Apple gör det på enhetsnivå. Enligt Matthew Green, kommer det till en början bara skanna bilder uppladdade till iCloud, men det skulle vara att utföra att skanna på användarens telefon. ”Initialt” är nyckelordet där, eftersom det mycket väl skulle kunna användas för att skanna alla bilder lokalt vid något tillfälle.
Detta är tänkt att göra systemet mindre invasiva, som skannings görs på telefonen och skickas tillbaka endast om det finns en match, vilket innebär att inte varje foto som du upload är föremål för ögonen på främlingar.
Enligt de vid genomgången är varje bild laddas upp till icloud ges en ”säkerhets voucher” säger om det är misstänkt eller inte. När en viss mängd bilder är markerade som misstänkt, kommer Apple dekryptera dem och skicka dem till myndigheterna om något som involverar barnmisshandel hittas.
Hur kommer systemet skilja mellan barnpornografi och andra bilder? Enligt rapporten har det testats på 200.000 sexuella övergrepp bilder som samlats in av den amerikanska ideella National Center for Missing and Exploited Children.
Bilderna omvandlas till en sträng av siffror genom hash och jämförs sedan med bilderna i databasen.
Efter allt detta kom ut, sjönk Apple kommenterade Financial Times om vad som händer. Men antar vi företaget arbetar på någon officiell uttalande inför meddelanden om detta drag spårar ur.
Detta Ställer ett farligt prejudikat
Vi behöver antagligen inte berätta hur skrämmande det kan vara. Personer som missbrukar barn bör fångas och straffas, men det är lätt att se hur något sådant skulle kunna användas för betydligt mer invasiva ändamål.
Kommer liknande teknik rullas ut på andra plattformar, såsom Mac, Windows-datorer och Android-telefoner? Kan länder som Kina använda den för att upptäcka subversiva bilder på sina medborgares telefoner? Om det blir allmänt accepterat, kan upphovsrättsindustrin använder den för att börja skanna för piratkopierat material om några år?
Och även om det fungerar som annonseras: Will oskyldiga människor fastna i korselden?
Förhoppningsvis är detta inte så gäller som det ser ut.