Hakkında çok fazla konuşma oldu. Apple'ın CSAM (Çocuk Cinsel Kötüye Kullanımı Malzemesi) Tarayıcı . Şimdi, tarayıcı, göründüğü gibi tekrar haberlere geri döndü. bilgisayar korsanları CSAM tarayıcısını kandırmak ve yanlış pozitifler oluşturmak için bir adım daha yakın olabilir.
Apple'ın CSAM tarayıcı ile ilgili sorun
A Reddit kullanıcısı Apple'ın nevralahını anlamak için bazı ters mühendislik yaptım algoritma Cihazdaki CSAM algılama için. Bunu yaparken, yanlış pozitifler yaratabilecek olan karnında olası bir çarpışma keşfettiler. A çarpışma İki veri parçası aynı karma değeri, sağlama toplamı, parmak izi veya şifreleme sindirimine sahip olduğunda oluşan potansiyel bir çatışmadır.
Cory Cornelius adında bir kodlayıcı üretti algoritmada çarpışma , bu, aynı karma oluşturan iki görüntü buldukları anlamına gelir. Bu, tamamen zarar görmüş olsalar bile, çocuk istismarı içeren elma olarak elma yapacak yanlış pozitifler oluşturmak için kullanılabilir.
Kesinlikle kolay olmazsa, bir hackerin bir CSAM görüntüsü olmasa bile, CSAM uyarılarını belirleyen bir görüntü oluşturabileceği olasılığı vardır.
Ancak "Evet, teoride neredeyse kesin" ve gerçek hayatta gerçekleştiğini görmek arasında bir fark var. Apple, karma fonksiyonunu gizli tutmak için kendi yolumdan çıktı - çünkü riskleri biliyorlardı.
- Matthew Green (@matthew_d_green) 18 Ağustos 2021
Apple, yanlış pozitifin bir soruna neden olmadığından emin olmak için tasarlanmış katmanları var. Örneğin, bir görüntü işaretlendiğinde, kanun yaptırımına gönderilmeden önce gerçek bir kişi tarafından gözden geçirilmelidir. Bu noktaya bile gelmeden önce, bilgisayar korsanının NCMEC karma veritabanına erişmesi gerekir, 30 çarpışan görüntü oluşturun ve ardından hepsini hedefin telefonuna alın.
Bununla birlikte, Apple'ın CSAM tarayıcısından oluşan başka bir konu. Zaten çok muazzam bir muhalefet var ve kodlayıcıların mühendisini tersine çevirebileceği gerçeği zaten çokla ilgili. Açılmak için aylar alan bir çarpışma yerine, halka çıkan kodun saatleriyle keşfedildi. Bu konuda.
Apple bir şey yapacak mı?
Apple'ın bu durumu nasıl ele aldığını söyleyecek. Şirket, nevralhash algoritmasını kullanma planını geri çekebilir. En azından, şirketin durumu, güven olarak ele alması gerekiyor. Apple'ın fotoğraf tarama planı zaten düşük.