Sudah banyak bicara tentang Pemindai CSAM (Bahan Pelecehan Seksual Anak Apple) . Sekarang, pemindai kembali ke berita lagi, karena tampaknya itu peretas Bisa jadi selangkah lebih dekat untuk menipu pemindai CSAM dan menciptakan positif palsu.
Masalah dengan Apple's CSAM Scanner
A Reddit Users. melakukan beberapa rekayasa balik untuk memahami neuralhash Apple algoritma untuk deteksi CSAM pada perangkat. Dengan melakukan itu, mereka menemukan kemungkinan tabrakan di hash yang dapat menciptakan positif palsu. A tabrakan Adalah clash potensial yang terjadi ketika dua potong data memiliki nilai hash yang sama, checksum, sidik jari, atau pencernaan kriptografi.
Seorang coder bernama Cory Cornelius menghasilkan a tabrakan dalam algoritma , yang berarti mereka menemukan dua gambar yang membuat hash yang sama. Ini dapat digunakan untuk menciptakan positif palsu, yang akan menandai gambar ke Apple seperti yang mengandung pelecehan anak bahkan jika mereka sepenuhnya tidak berbahaya.
Meskipun tentu saja tidak akan mudah, ada kemungkinan bahwa seorang hacker dapat menghasilkan gambar yang memicu peringatan CSAM meskipun itu bukan gambar CSAM.
Tetapi ada perbedaan antara mengatakan "ya itu hampir pasti terjadi, secara teori" dan melihat itu terjadi dalam kehidupan nyata. Apple pergi keluar dari jalan mereka untuk menjaga rahasia fungsi hash - karena mereka tahu risikonya.
- Matthew Green (@matthew_d_green) 18 Agustus 2021
Apple memang memiliki lapisan yang dirancang untuk memastikan positif palsu tidak menimbulkan masalah. Misalnya, ketika suatu gambar ditandai, itu harus ditinjau oleh orang yang sebenarnya sebelum dikirim ke penegak hukum. Sebelumnya sampai pada titik itu, peretas perlu mendapatkan akses ke basis data hash NCMEC, membuat 30 gambar bertabrakan, dan kemudian mendapatkan semuanya ke telepon target.
Yang mengatakan, itu hanya masalah lain yang muncul dengan pemindai CSAM Apple. Sudah ada oposisi yang luar biasa, dan fakta bahwa coders mampu membalikkan insinyur itu sudah sangat menyangkut. Alih-alih tabrakan yang memakan waktu berbulan-bulan untuk muncul, seseorang ditemukan dalam beberapa jam dari kode go public. Itu tentang.
Akankah Apple melakukan sesuatu?
Hanya waktu yang akan memberi tahu bagaimana Apple membahas situasi ini. Perusahaan mungkin mundur dalam rencananya untuk menggunakan algoritma neuralhash. Paling tidak, perusahaan perlu mengatasi situasi, sebagai kepercayaan pada Paket pemindaian foto Apple sudah rendah.