Według wiarygodnych raportów Apple planuje rozpocząć instalację oprogramowania na iPhones w Stanach Zjednoczonych, które automatycznie skanują lokalne zdjęcia do wyobrażeń związanych z nadużywaniem dzieci. Apple zrobi podobno ze skanowaniem zdjęć przesłanych do ICloud z tą technologią - na początku przynajmniej.
Aktualizacja: Apple potwierdził wiele z tego raportowania Szczegółowy dokument. .
Co robi jabłko?
Raporty planów Apple pochodzą z Czasy finansowe a Johns Hopkins University profesor Matthew Green. , Oba ogólnie wiarygodne źródła. Oczywiście, aż jabłko potwierdzi, że tak jest, zawsze jest to szansa, że tak się nie dzieje. Apple podobno wykazał plan na niektórych amerykańskich naukowców w tym tygodniu.
Miałem niezależne potwierdzenie od wielu osób, że Apple uwalnia narzędzie po stronie klienta do skanowania CSAM jutro. To naprawdę zły pomysł.
- Matthew Green (@matthew_d_green) 4 sierpnia 2021
Według raportów Apple użyje systemu wywołuje "neuralmatch" do skanowania amerykańskich iPhone'ów na wyobrażenia o dzieci.
Zasadniczo zautomatyzowany system ostrzegałby zespół ludzkich recenzentów, jeśli uważa, że wykryto nielegalne obrazy. Stamtąd członek zespołu dokonałby przeglądu wyobrażania sobie wyobrania się do egzekwowania prawa.
Technicznie, nie jest to nic innego, oparte na chmurach systemów pamięci masowej i sieci społecznościowych wykonują tego rodzaju skanowania. Różnica tutaj jest to, że Apple robi to na poziomie urządzenia. Według Matthew Green, początkowo skanuje zdjęcia przesłane do ICLOUD, ale wystąpiłoby to skanowanie na telefonie użytkownika. "Początkowo" jest tam kluczowe słowo, ponieważ bardzo dobrze może zostać wykorzystane do skanowania wszystkich zdjęć lokalnie w pewnym momencie.
To ma sprawić, że system mniej inwazyjny, ponieważ skanowanie odbywa się w telefonie i odesłania tylko wtedy, gdy jest mecz, co oznacza, że każde zdjęcie, które przesyłasz, podlega oczy obcych.
Według osób na odprawie każde zdjęcie przesłane do ICLOUD otrzymuje "kupon bezpieczeństwa", mówiąc, czy jest podejrzany, czy nie. Gdy pewna ilość zdjęć jest zaznaczona jako podejrzana, Apple odszyfruje je i wysłać do władz, jeśli zostanie znaleziona coś z wykorzystywaniem dziecka.
Jak system różni się między obrazami nadużywania dzieci i innych obrazów? Zgodnie z raportem został przetestowany na 200 000 obrazów nadużyć seksualnych zebranych przez US Non-profit National Center for Brakujące i wykorzystywane dzieci.
Obrazy są konwertowane na ciąg liczb przez mieszanie, a następnie w porównaniu do zdjęć w bazie danych.
Po tym wszystkim wyszedł, Apple odmówił skomentowania czasów finansowych o tym, co się dzieje. Przypuszczamy jednak, że firma pracuje nad jakimś oficjalnym oświadczeniem przed wiadomościami dotyczącymi tego ruchu wychodzi z ręki.
Ustawia to niebezpieczny precedens
Prawdopodobnie nie musimy ci mówić, jak straszny może być. Ludzie, którzy nadużywają dzieci, powinny zostać złapane i ukarane, ale łatwo jest zobaczyć, jak coś takiego może być użyte do znacznie więcej inwazyjnych celów.
Czy podobna technologia zostanie wycofana na innych platformach, takich jak Macs, Windows PCS i telefony z Androidem? Czy kraje takie jak Chiny wykorzystują go do wykrywania wywrotowych obrazów na telefony ich obywateli? Jeśli staje się powszechnie akceptowany, czy przemysł praw autorskich może go wykorzystać, aby rozpocząć skanowanie treści pirackich za kilka lat?
I, nawet jeśli działa jako reklamowane: Will niewinni ludzie złapany w Crossfire?
Mam nadzieję, że nie jest to tak samo jak wygląda.