Volgens geloofwaardige rapporten, Apple plannen om te beginnen met het installeren van software op iPhones in de Verenigde Staten die automatisch scan lokale foto's voor kindermishandeling beelden. Apple zal naar verluidt alleen scan foto's geüpload naar iCloud met deze technologie-in eerste instantie, op zijn minst.
Update: Apple heeft een groot deel van deze rapportage in bevestigde een gedetailleerd document .
Wat is Apple bezig zijn?
De verslagen van de plannen van Apple afkomstig uit The Financial Times en Johns Hopkins University Professor Matthew Green , Zowel in het algemeen betrouwbare bronnen. Natuurlijk, totdat Apple bevestigt dit het geval te zijn, er is altijd een kans dat dit niet gebeurt. Apple naar verluidt aangetoond dat het plan om een aantal Amerikaanse wetenschappers eerder deze week.
Ik heb onafhankelijke bevestiging van meerdere mensen die Apple is het vrijgeven van een client-side hulpmiddel voor CSAM het scannen van morgen gehad. Dit is een heel slecht idee.
- Matthew Green (@matthew_d_green) 4 augustus 2021
Volgens de rapporten, zal Apple een systeem dat “neuralMatch” roept scan Amerikaanse iPhones voor kindermishandeling beeldmateriaal gebruikt wordt.
In wezen zou een geautomatiseerd systeem een team van de menselijke beoordelaars te waarschuwen als zij van mening is illegaal beeldmateriaal wordt gedetecteerd. Van daaruit zou een lid van het team de beelden en contact rechtshandhaving te herzien.
Technisch gezien is dit niet iets nieuws-cloud-gebaseerde foto opslagsystemen en sociale netwerken al dit soort scanning te doen. Het verschil hier is dat Apple doet het op het apparaat niveau. Volgens Matthew Green, het zal in eerste instantie alleen foto's scannen geüpload naar iCloud, maar het zou optreden dat de scan op de telefoon van de gebruiker. “In het begin” is het sleutelwoord daar, omdat het heel goed zou kunnen worden gebruikt om alle foto's lokaal te scannen op een bepaald punt.
Dit wordt verondersteld om het systeem minder invasieve maken, aangezien het aftasten wordt gedaan op de telefoon en alleen terug als er een match gestuurd, wat betekent dat niet elke foto die u upload is onderworpen aan de ogen van vreemden.
Volgens die bij de briefing, wordt elke foto geüpload naar iCloud gegeven een “safety voucher,” zeggen of het verdachte of niet. Wanneer een bepaalde hoeveelheid foto's zijn gemarkeerd als verdacht, zal Apple deze te decoderen en stuur ze aan de autoriteiten als er iets met betrekking tot kindermisbruik is gevonden.
Hoe zal het systeem onderscheid maken tussen kinderporno en andere afbeeldingen? Volgens het rapport, is het getest op 200.000 beelden van seksueel misbruik door de Amerikaanse non-profit National Center verzameld voor Vermiste en Uitgebuite Kinderen.
De beelden worden omgezet in een reeks cijfers door middel van hashing en vervolgens vergeleken met de foto's in de database.
Na dit alles kwam, Apple weigerde commentaar te Financial Times over wat er gebeurt. Echter, we veronderstellen het bedrijf werkt aan een aantal officiële verklaring voor het berichtenverkeer met betrekking tot deze beweging uit de hand loopt.
Dit een gevaarlijk precedent
We waarschijnlijk niet nodig om u te vertellen hoe eng dit zou kunnen zijn. Mensen die kinderen misbruiken moeten worden opgepakt en gestraft, maar het is makkelijk om te zien hoe zoiets kon worden gebruikt voor veel meer invasieve doeleinden.
Zal soortgelijke technologie worden uitgerold op andere platformen, zoals Macs, Windows-pc's en Android-telefoons? Kunnen landen als China gebruiken om subversieve beelden op telefoons van hun burgers op te sporen? Als het op grote schaal wordt aanvaard, kan het gebruik copyright industrie is om te beginnen met het zoeken bent naar illegale content in een paar jaar?
En zelfs als het werkt zoals geadverteerd: Will onschuldige mensen verstrikt raken in het kruisvuur?
Hopelijk is dit niet wat aangaat als het lijkt.