היו הרבה דבר על השנוי במחלוקת של אפל סורק CSAM במכשיר . נראה כי החברה שמעה חלק מהנושאים, כפי שהוא החליט לעכב את ההשחקן עד שהוא יכול לעשות יותר שיפורים.
Apple של CSAM סריקה טכנולוגיה
אפל הראשון הודיעה על שלה הילד התעללות מינית סריקה בחודש שעבר , והוא נפגש עם כמה התנגדות . סריקת תמונות כאשר הם נטענים לענן אינו חדש, אבל אפל אמרה שהיא מתכוונת סריקה חשיש תמונות על המכשיר של המשתמש, אשר כמה אנשים הרגישו היה פלישה לפרטיות.
בהצהרה על Apple.com , החברה חשפה את החלטתה לעכב את טכנולוגיית הסריקה עד שהוא יכול לעשות יותר שיפורים:
בעבר הודענו על תוכניות לתכונות שנועדו לסייע בהגנה על ילדים מפני טורפים המשתמשים בכלי תקשורת לגיוס ולנצל אותם ולסייע במגביל את התפשטות של חומר התעללות מינית. בהתבסס על משוב מלקוחות, קבוצות תמיכה, חוקרים ואחרים, החלטנו לקחת זמן נוסף בחודשים הקרובים כדי לאסוף קלט ולעשות שיפורים לפני שחרור אלה תכונות בטיחות הילד החשוב ביותר.
Apple אומר שלה CSAM סריקה טק הוא למעשה טוב יותר עבור משתמשים מאשר סריקה ברגע שהם נטען לענן. הנה איך החברה מתארת את התהליך:
לפני שמאוחסנת תמונה בתצלומים של Icloud, מתבצעת תהליך התאמה של התקן עבור תמונה זו נגד Hashes CSAM ידוע. תהליך ההתאמה הזה מופעל על ידי טכנולוגיה קריפטוגרפית הנקראת צומת סט פרטית, הקובעת אם יש התאמה מבלי לחשוף את התוצאה. המכשיר יוצר שובר בטיחות קריפטוגרפי המקודד את תוצאת ההתאמה יחד עם נתונים מוצפנים נוספים על התמונה. שובר זה נטען תמונות של Icloud יחד עם התמונה.
התוכנית היתה לגלגל את תכונת הסריקה במסגרת IOS 15, אבל זה עוד חלק של מערכת ההפעלה כי לא יהיה מוכן להשיק. החברה כבר הודיעה כי iCloud ממסר פרטי ו Sharplay לא יהיה מוכן להשיק IOS 15 . סורק CSAM שלה עכשיו מצטרף לרשימת החלקים המאוחרים של מערכת ההפעלה הניידת.
קָשׁוּר: אפל עיכוב התכונה 'מניות' ב- iPhone, iPad ו- Mac