[삼]
많은 이야기가있었습니다
애플의 CSAM (아동 성적 학대 재료) 스캐너
...에 이제 스캐너가 다시 뉴스에 다시 시작됩니다.
해커
CSAM 스캐너를 속이고 잘못된 긍정을 만드는 데 한 걸음 더 가깝습니다.
Apple의 CSAM 스캐너 문제
[삼] NS Reddit 사용자 일부 리버스 엔지니어링이 Apple의 Neuralhash를 이해했습니다 연산 온 장치 CSAM 탐지. 그렇게함으로써 허위 긍정을 만들 수있는 해시에서 가능한 충돌을 발견했습니다. NS 충돌 두 부분의 데이터가 동일한 해시 값, 체크섬, 지문 또는 암호화 다이제스트를 갖는 경우 발생하는 잠재적 인 충돌입니다. [삼] Cory Cornelius라는 코더가 A를 제작했습니다 알고리즘의 충돌 이는 동일한 해시를 만드는 두 가지 이미지를 발견했습니다. 이것은 잘못된 긍정을 만드는 데 사용될 수 있으며, 이는 애플이 완전히 무해하더라도 아동 학대를 포함하는 것으로 깃발 될 것입니다. [삼] 확실히 쉽지는 않지만 해커가 CSAM 이미지가 아닌 경우에도 CSAM 경고를 설정하는 이미지를 생성 할 수있는 가능성이 있습니다.[삼] [삼] Apple은 거짓 긍정적 인이 문제를 일으키지 않는지 확인하도록 설계된 레이어가 있습니다. 예를 들어 이미지가 플래그가 지정되면 법 집행 기관으로 보내기 전에 실제 사람이 검토해야합니다. 해커가 NCMEC 해시 데이터베이스에 액세스하고 30 개의 충돌하는 이미지를 만들고 대상의 휴대 전화로 모두 가져와야합니다. [삼] 그렇다고 말하면, 애플의 CSAM 스캐너로 나타나는 또 다른 문제 일뿐입니다. 이미 엄청난 반대가 있었고 코더가 이미 엔지니어를 되돌릴 수 있었던 사실은 이미 매우 관련이 있습니다. 팝업하는 데 몇 달이 걸리는 충돌 대신에 코드가 공개되는 코드의 시간 내에 발견되었습니다. 그게 관련이 있습니다.그러나 "그래, 그건 거의 일어나는 것은 거의 확실한 이론적으로"이론적으로 일어나는 것 "이라는 차이가 있습니다. 애플은 위험을 알고 있기 때문에 해시 함수 비밀을 유지하기 위해 자신의 길에서 벗어났습니다.
[삼] - Matthew Green (@matthew_d_green) 2021 년 8 월 18 일