Laut glaubwürdigen Berichten plant Apple, die Installation von Software auf iPhones in den Vereinigten Staaten installieren zu können Apple wird Berichten zufolge nur Fotos scannen, um mit dieser Technologie zu iCloud hochgeladen zu werden - zumindest zumindest.
Aktualisieren: [fünfzehn] Apple hat viel von dieser Berichterstattung bestätigt ein detailliertes Dokument .
Was macht Apple?
Die Berichte von Apples Plänen stammen aus Die finanziellen Zeiten und Johns Hopkins University Professor Matthew Green. , beide allgemein zuverlässigen Quellen. Natürlich, bis Apple dies bestätigt, dass dies der Fall ist, gibt es immer eine Chance, dass dies nicht passiert. Der Apple hat angeblich den Plan für einige US-amerikanische Akademien früher in dieser Woche gezeigt.
Ich hatte unabhängige Bestätigung von mehreren Personen, die Apple ein clientseitiges Werkzeug für den CSAM-Scannen von morgen freisetzt. Dies ist eine wirklich schlechte Idee.
- Matthew Green (@matthew_d_green) 4. August 2021
Nach Angaben der Berichte nutzt Apple ein System, das es "neuralmatch" nennt, um amerikanische iPhones für Kindermissbrauchsbilder zu scannen.
Im Wesentlichen würde ein automatisiertes System ein Team von menschlichen Gutachtern aufmerksam machen, wenn sie glaubt, dass illegale Bilder erkannt wird. Von dort würde ein Mitglied des Teams die Übersetzung des Bilderny- und Kontaktgesetzes überprüfen.
Technisch ist dies nicht alles, was neue Cloud-basierte Fotorespeichersysteme und soziale Netzwerke, bereits diese Art von Scanning durchführen. Der Unterschied hier ist, dass Apple es auf dem Geräteebene tut. Laut Matthew Green scannen sie zunächst nur Fotos, die in iCloud hochgeladen wurden, aber er scannen Sie diesen Scan auf dem Telefon des Benutzers. "Zunächst" ist das Schlüsselwort dort, da es sehr gut verwendet werden kann, um alle Fotos an einem bestimmten Zeitpunkt lokal zu scannen.
Dies soll das System weniger invasiv machen, da das Scannen am Telefon erfolgt und nur zurückgeschickt wird, wenn ein Match zurückgeschickt wird, bedeutet, dass nicht jedes Foto, das Sie hochladen, den Augen der Fremden unterliegen.
Nach denjenigen beim Briefing erfolgt jedes in iCloud hochgeladene Foto einen "Sicherheitsgutschein", der sagt, ob es verdächtig ist oder nicht. Wenn ein bestimmter Betrag an Bildern als Verdächtiger markiert ist, entschlüsselt Apple sie und schickt sie an Behörden, wenn etwas mit Kindesmissbrauch gefunden wird.
Wie unterscheidet sich das System zwischen Kindermissbrauchsbildern und anderen Bildern? Nach dem Bericht wurde es auf 200.000 Sexualmissbrauchsbildern getestet, die vom US Non-Profit National Center für vermisste und genutzte Kinder gesammelt wurden.
Bilder werden durch Hashing in eine Zahlenfolge konvertiert und dann mit den Bildern in der Datenbank verglichen.
Nachdem das alles herauskam, lehnte Apple ab, zu finanziellen Zeitpunkten zu kommentieren, was passiert. Wir weisen jedoch an, dass das Unternehmen an einer offiziellen Erklärung arbeitet, bevor das Messaging in Bezug auf diesen Umzug aus der Hand kommt.
Dies setzt einen gefährlichen Präzedenzfall
Wir müssen Ihnen wahrscheinlich nicht sagen, wie gruselig sein könnte. Menschen, die Kinder missbrauchen, sollten gefangen und bestraft werden, aber es ist leicht zu sehen, wie so etwas wie dieser für weitaus mehr invasive Zwecke verwendet werden könnte.
Wird eine ähnliche Technologie auf anderen Plattformen ausgerollt, wie Macs, Windows-PCs und Android-Telefone? Könnten Länder wie China es verwenden, um subversive Bilder auf ihren Bürgertelefonen zu erkennen? Wenn es weithin akzeptiert wird, könnte die Copyright-Industrie in einigen Jahren mit dem Scannen nach dem Raubinhalt beginnen?
Und auch wenn es wie angekündigt funktioniert: Will unschuldige Menschen in den Kreuzfeuer erwischt werden?
Hoffentlich ist das nicht so betreffend, wie es aussieht.