За достовірними даними, плани компанії Apple, щоб почати установку програмного забезпечення на айфонах в Сполучених Штатах, які будуть автоматично сканувати локальні фотографії для зйомки жорстокого поводження з дітьми. Apple, за повідомленнями тільки фотографії сканувань завантажені на ICloud з цією технологією, в першому, по крайней мере.
Оновлення: Apple, підтвердив більшу частину цієї звітності в докладний документ .
Що таке Apple, роблячи?
Доповіді про плани компанії Apple виникли з The Financial Times і Університету Джона Хопкінса професор Метью Грін , Як правило, надійні джерела. Звичайно, поки Apple не підтверджує, що це так, завжди є ймовірність, що це не відбудеться. Apple, як повідомляється, показав план в деяких американських вчених на початку цього тижня.
Я мав незалежне підтвердження від декількох людей, що компанія Apple випускає на сторону клієнта інструмент для майбутнього CSAM сканування. Це дійсно погана ідея.
- Matthew Green (@matThew_d_green) 4 серпня 2021
Згідно з повідомленнями, Apple буде використовувати систему він називає «neuralMatch» для сканування американських айфонів для зйомки жорстокого поводження з дітьми.
По суті, це автоматизована система попередить команду людських рецензентів, якщо він вважає, що виявлена нелегальна образність. Звідти, член команди буде розглядати образність і контакт правоохоронних органів.
Технічно, це не щось нове, хмарні системи зберігання фото і соціальні мережі вже роблять цей вид сканування. Різниця тут у тому, що Apple, робить це на рівні пристрою. За словами Метью Гріна, він спочатку тільки фотографії сканувань завантажені на ICloud, але буде виконувати цю перевірку на телефоні користувача. «Спочатку» є ключовим словом там, як це цілком може бути використаний для сканування всіх фотографій локально в якийсь момент.
Передбачається, що це робить систему менш інвазивних, оскільки сканування здійснюється по телефону і відправили назад, тільки якщо є збіг, тобто в повному обсязі фото ви завантажуєте підлягає сторонніх очей.
За словами тих, на брифінгу, кожна фотографія завантажується в ICloud дається «ваучер безпеки», кажучи, чи є підозрюваний чи ні. Коли певна кількість фотографій, позначаються як підозрювані, Apple буде розшифровувати їх і відправити їх в органи, якщо що-небудь за участю жорстокого поводження з дітьми знайдено.
Як система буде розрізняти між жорстоким поводженням з дітьми зображень і інших зображень? Згідно з повідомленням, він був протестований на 200,000 зловживання секс зображень, зібраних в США некомерційний Національного центру у справах зниклих та експлуатованих дітей.
Зображення перетворюються в рядок чисел через хешування, а потім в порівнянні з картинками в базі даних.
Після того, як все це вийшло, Apple відмовилася від коментарів до Financial Times про те, що відбувається. Проте, ми вважаємо, що компанія працює на якомусь офіційній заяві перед повідомленнями про цей хід виходить з-під контролю.
Це створює небезпечний прецедент
Ми, ймовірно, не потрібно, щоб сказати вам, як страшно це може бути. Люди, які зловживають діти повинні бути спіймані і покарані, але це легко побачити, як щось подібне можна було б використовувати для більш агресивних цілей.
Чи буде подібна технологія буде розгорнута на інших платформах, таких як Mac, Windows ПК і телефонів Android? Можуть такі країни, як Китай використовувати його для виявлення диверсійно зображень на телефонах своїх громадян? Якщо він стає широко прийнятий, може використання авторського права промисловості це, щоб почати сканування для піратського контенту протягом декількох років?
І, навіть якщо він працює як рекламується: Воля невинні люди потрапити під перехресний вогонь?
Будемо сподіватися, що це не так щодо, як вона виглядає.