היו הרבה שיחה Apple של CSAM (ילד התעללות מינית חומר) סורק . עכשיו, הסורק חוזר בחדשות שוב, כפי שהוא נראה כי האקרים יכול להיות צעד אחד קרוב יותר כדי להפעיל את סורק CSAM ויצירת חיוביות שווא.
הבעיה עם סורק CSAM של אפל
א משתמש Reddit. האם איזו הנדסה לאחור כדי להבין את Neuralhash של אפל אַלגוֹרִיתְם עבור איתור CSAM על התקן. בעשותו כן, הם גילו התנגשות אפשרית בחשיש שיכול ליצור תוצאות חיוביות שווא. א הִתנַגְשׁוּת הוא התנגשות פוטנציאלית המתרחשת כאשר שתי חתיכות של נתונים יש את אותו ערך חשיש, בדיקת, טביעת אצבע, או digestry cryptographic.
קודר בשם קורי קורנליוס הוציא התנגשות באלגוריתם , כלומר, הם מצאו שתי תמונות שיוצרות אותו חשיש. זה יכול לשמש כדי ליצור תוצאות חיוביות שווא, אשר היה דגל תמונות אפל כמכילה התעללות בילדים גם אם הם לגמרי לא מזיקים.
אמנם זה בהחלט לא יהיה קל, יש את האפשרות כי האקר יכול ליצור תמונה המספקת את התראות CSAM למרות שזה לא תמונה של CSAM.
אבל יש הבדל בין אומר "כן זה כמעט בטוח לקרות, בתיאוריה" ולראות את זה לקרות בחיים האמיתיים. אפל יצא מדרכו כדי לשמור על סוד פונקציה חשיש - כי הם ידעו את הסיכונים.
- מתיו גרין (@matthew_d_green) 18 באוגוסט, 2021
אפל האם יש שכבות שנועדו לוודא את החיובי שווא אינו גורם לבעיה. לדוגמה, כאשר התמונה מסומנת, היא חייבת להיבדק על ידי אדם בפועל לפני שהוא נשלח לאכיפת החוק. לפני שהוא אפילו מגיע לנקודה זו, האקר היה צריך לקבל גישה למסד הנתונים Ncmec hash, ליצור 30 תמונות מתנגשות, ולאחר מכן לקבל את כולם על הטלפון של המטרה.
עם זאת, זה רק בעיה נוספת שעולה עם סורק CSAM של אפל. כבר כבר התנגדות עצומה, והעובדה כי קודרים היו מסוגלים להפוך את המהנדס שהוא כבר מאוד לגבי. במקום התנגשות שנעשתה חודשים כדי לצוץ, אחד התגלה בתוך שעות של הקוד הולך לציבור. זה בנוגע.
האם אפל תעשה משהו?
רק הזמן יגיד כיצד תפוח כתובות מצב זה. החברה עשויה לחזור על התוכנית שלה להשתמש באלגוריתם neuralhash. לכל הפחות, החברה צריכה לטפל במצב, כמו אמון ב תוכנית הסריקה של אפל כבר נמוך.