มีการพูดคุยมากมายเกี่ยวกับ สแกนเนอร์ CSAM (วัสดุการทารุณกรรมทางเพศเด็ก) ของ Apple . ตอนนี้สแกนเนอร์กลับมาในข่าวอีกครั้งเนื่องจากปรากฏว่า แฮกเกอร์ อาจเข้าใกล้หนึ่งขั้นตอนในการหลอกสแกนเนอร์ CSAM และสร้างผลบวกที่ผิดพลาด
ปัญหาเกี่ยวกับเครื่องสแกน CSAM ของ Apple
NS ผู้ใช้ reddit มีวิศวกรรมย้อนกลับเพื่อทำความเข้าใจประสาทของ Apple อัลกอริทึม สำหรับการตรวจจับ CSAM บนอุปกรณ์ ในการทำเช่นนั้นพวกเขาค้นพบการชนที่เป็นไปได้ในแฮชที่สามารถสร้างผลบวกที่ผิดพลาด NS การปะทะกัน เป็นปะทะที่มีศักยภาพที่เกิดขึ้นเมื่อข้อมูลสองชิ้นมีค่าแฮชเดียวกัน, การตรวจสอบ, ลายนิ้วมือ, หรือการเข้ารหัสลับ
ผู้เขียนโค้ดชื่อ Cory Cornelius ผลิต การปะทะกันในอัลกอริทึม ซึ่งหมายความว่าพวกเขาพบสองภาพที่สร้างแฮชเดียวกัน สิ่งนี้สามารถใช้เพื่อสร้างผลบวกที่ผิดพลาดซึ่งจะตั้งค่าสถานะภาพไปยังแอปเปิ้ลเป็นที่มีการละเมิดเด็กแม้ว่าพวกเขาจะไม่มีอันตรายอย่างสิ้นเชิง
ในขณะที่มันจะไม่ง่ายไม่มีความเป็นไปได้ที่แฮ็กเกอร์สามารถสร้างภาพที่กำหนดการแจ้งเตือน CSAM แม้ว่ามันจะไม่ใช่ภาพ CSAM
แต่มีความแตกต่างระหว่างการพูดว่า "ใช่ที่เกือบจะแน่นอนที่จะเกิดขึ้นในทฤษฎี" และเห็นว่ามันเกิดขึ้นในชีวิตจริง แอปเปิ้ลออกไปให้พ้นทางเพื่อรักษาความลับของฟังก์ชั่นแฮช - เพราะพวกเขารู้ถึงความเสี่ยง
- Matthew Green (@matthew_d_green) 18 สิงหาคม 2021
Apple มีเลเยอร์ที่ออกแบบมาเพื่อให้แน่ใจว่าค่าบวกที่ผิดพลาดไม่ได้ทำให้เกิดปัญหา ตัวอย่างเช่นเมื่อรูปภาพถูกตั้งค่าสถานะจะต้องได้รับการตรวจสอบโดยบุคคลจริงก่อนที่จะถูกส่งไปยังการบังคับใช้กฎหมาย ก่อนที่มันจะไปถึงจุดนั้นแฮ็กเกอร์จะต้องเข้าถึงฐานข้อมูลแฮชของ NCMEC สร้างภาพการชนกัน 30 ภาพจากนั้นรับทั้งหมดไปยังโทรศัพท์ของเป้าหมาย
ที่กล่าวว่าเป็นเพียงปัญหาอื่นที่เกิดขึ้นกับสแกนเนอร์ CSAM ของ Apple มีการคัดค้านอย่างมากแล้วและความจริงที่ว่า Coders สามารถย้อนกลับวิศวกรได้มีอยู่แล้วมาก แทนที่จะมีการปะทะกันใช้เวลาหลายเดือนในการปรากฏขึ้นหนึ่งถูกค้นพบภายในไม่กี่ชั่วโมงของรหัสที่เป็นสาธารณะ นั่นคือสิ่งที่เกี่ยวข้อง
Apple จะทำอะไรไหม
เวลาเท่านั้นที่จะบอกว่า Apple จัดการกับสถานการณ์นี้อย่างไร บริษัท อาจย้อนรอยบนแผนการที่จะใช้อัลกอริทึม neureshash อย่างน้อยที่สุด บริษัท จำเป็นต้องแก้ไขสถานการณ์ตามความมั่นใจ แผนการสแกนภาพถ่ายของ Apple ต่ำแล้ว