Σύμφωνα με αξιόπιστες εκθέσεις, τα σχέδια της Apple για να ξεκινήσει η εγκατάσταση του λογισμικού για το iPhone στις Ηνωμένες Πολιτείες που θα αυτόματα σάρωση φωτογραφίες της παιδικής κακοποίησης εικόνες. Η Apple θα με πληροφορίες, μόνο φωτογραφίες σάρωση ανεβάσει στο iCloud με αυτή την τεχνολογία, σε πρώτη φάση, τουλάχιστον.
Εκσυγχρονίζω: Η Apple επιβεβαίωσε ένα μεγάλο μέρος αυτής της αναφοράς σε ένα λεπτομερές έγγραφο .
Τι είναι η Apple να κάνει;
Οι εκθέσεις των σχεδίων της Apple προέρχεται από Οι Financial Times και Johns Hopkins University Καθηγητής Matthew Πράσινη , Δύο γενικά αξιόπιστες πηγές. Φυσικά, έως ότου η Apple επιβεβαιώνει ότι αυτή είναι η περίπτωση, υπάρχει πάντα μια πιθανότητα αυτό δεν θα συμβεί. Η Apple απέδειξε με πληροφορίες, το σχέδιο για ορισμένους ακαδημαϊκούς των ΗΠΑ νωρίτερα αυτή την εβδομάδα.
Είχα ανεξάρτητη επιβεβαίωση από πολλά άτομα ότι η Apple θα κυκλοφορήσει ένα client-side εργαλείο για CSAM σάρωση αύριο. Αυτή είναι μια πολύ κακή ιδέα.
- Matthew Green (@matthew_d_green) 4, Αυγούστου, 2021
Σύμφωνα με τα δημοσιεύματα, η Apple θα χρησιμοποιήσει ένα σύστημα που αποκαλεί «neuralMatch» για σάρωση αμερικανική iPhones για την κακοποίηση των παιδιών εικόνες.
Ουσιαστικά, ένα αυτοματοποιημένο σύστημα θα προειδοποιεί μια ομάδα της ανθρώπινης αναθεωρητές και αν πιστεύει ότι η παράνομη εικόνες ανιχνεύεται. Από εκεί, ένα μέλος της ομάδας θα επανεξετάσει την επιβολή του νόμου εικόνες και στοιχεία επικοινωνίας.
Από τεχνική άποψη, αυτό δεν είναι κάτι νέο, cloud-based συστήματα αποθήκευσης φωτογραφιών και των κοινωνικών δικτύων κάνουν ήδη αυτό το είδος της σάρωσης. Η διαφορά εδώ είναι ότι η Apple έχει κάνει στο επίπεδο της συσκευής. Σύμφωνα με τον Matthew Green, θα αρχικά μόνο φωτογραφίες σάρωση ανεβάσει στο iCloud, αλλά θα πρέπει να εκτελεί αυτή την σάρωση στο τηλέφωνο του χρήστη. «Αρχικά» είναι η λέξη κλειδί εκεί, όπως πολύ καλά θα μπορούσε να χρησιμοποιηθεί για να ανιχνεύσει όλες τις φωτογραφίες τοπικά σε κάποιο σημείο.
Αυτό υποτίθεται ότι θα κάνει το σύστημα λιγότερο επεμβατική, όπως η σάρωση γίνεται στο τηλέφωνο και να σταλεί πίσω μόνο αν υπάρχει ένας αγώνας, δεν σημαίνει ότι κάθε φωτογραφία που αποστολή υπόκειται στα μάτια των ξένων.
Σύμφωνα με αυτά που κατά την ενημέρωση, κάθε φωτογραφία ανεβάσει στο iCloud δίνεται ένα «κουπόνι ασφάλειας,» λέει αν είναι ύποπτος ή όχι. Όταν ένα ορισμένο ποσό των εικόνων σημειώνονται ως ύποπτος, η Apple θα τα αποκρυπτογραφήσει και να τα στείλετε σε αρχές, αν βρεθεί κάτι που αφορούν την κακοποίηση των παιδιών.
Πώς θα το σύστημα διαφοροποίηση μεταξύ των εικόνων παιδικής κακοποίησης και άλλες εικόνες; Σύμφωνα με την έκθεση, που έχει δοκιμαστεί σε 200.000 εικόνες σεξουαλικής κακοποίησης που συλλέγονται από τις ΗΠΑ μη κερδοσκοπικού Εθνικού Κέντρου για τα Εξαφανισμένα και Κακοποιημένα Παιδιά.
Οι εικόνες μετατρέπονται σε μια σειρά αριθμών μέσω κατακερματισμού και, στη συνέχεια, σε σύγκριση με τις εικόνες της βάσης δεδομένων.
Μετά από όλα αυτά βγήκαν, η Apple αρνήθηκε να σχολιάσει να Financial Times για το τι συμβαίνει. Ωστόσο, υποθέτουμε ότι η εταιρεία εργάζεται πάνω σε κάποια επίσημη δήλωση πριν από την αποστολή μηνυμάτων που αφορούν αυτή η κίνηση παίρνει από το χέρι.
Αυτό δημιουργεί ένα επικίνδυνο προηγούμενο
Εμείς μάλλον δεν χρειάζεται να σας πω πόσο τρομακτικό αυτό θα μπορούσε να είναι. Οι άνθρωποι που κακοποιούν τα παιδιά θα πρέπει να συλλαμβάνονται και να τιμωρούνται, αλλά είναι εύκολο να δούμε πώς θα μπορούσε να χρησιμοποιηθεί για κάτι σαν αυτό για πολύ περισσότερο επεμβατική σκοπούς.
Θα παρόμοια τεχνολογία να ξεδιπλώσει σε άλλες πλατφόρμες, όπως το Mac, τα Windows PCs, και Android τηλέφωνα; Θα μπορούσε χώρες όπως η Κίνα να χρησιμοποιήσει την ανίχνευση ανατρεπτική εικόνων για τα κινητά των πολιτών τους; Αν αυτό γίνει ευρέως αποδεκτό, θα μπορούσε η χρήση της βιομηχανίας των πνευματικών δικαιωμάτων να ξεκινήσει η σάρωση για πειρατικού περιεχομένου σε λίγα χρόνια;
Και, ακόμα κι αν λειτουργεί όπως διαφημίζεται: Will αθώοι άνθρωποι να πιαστούν στα διασταυρούμενα πυρά;
Ας ελπίσουμε ότι αυτό δεν είναι τόσο σχετικά όσο φαίνεται.