אפל מוסיפה תכונות הגנה חדשות שיסרקו את הגלריה שלכם

אפל הציגה אתמול תכונות חדשות לבטיחות ילדים שיגיעו לפלטפורמות שלה יחד עם עדכוני התוכנה בהמשך השנה. החברה מסרה כי התכונות יהיו זמינות בארה"ב בלבד ויורחבו לאזורים אחרים בהמשך.

בטיחות הודעות

ראשית, אפליקציית ההודעות במכשירי iPhone, iPad ו- Mac תקבל תכונה חדשה לבטיחות הודעות שתזהיר ילדים ואת הוריהם בעת קבלה או שליחה של תמונות בעלות אופי מיני ברור. אפל מסרה כי אפליקציית ההודעות תשתמש באלגוריתם מיוחד במכשיר כדי לנתח קבצים מצורפים לתמונה, ואם נקבע שתמונה היא בעלת אופי מיני, התמונה תטושטש אוטומטית והילד יקבל אזהרה.

iphone communication safety feature

כאשר ילד מנסה להציג תמונה המסומנת כרגישה באפליקציית ההודעות, האפליקציה תתריע שהתמונה עלולה להכיל חלקי גוף פרטיים, והתמונה עלולה לפגוע. בהתאם לגיל הילד, תהיה גם אפשרות להורים לקבל הודעה אם ילדם ממשיך לצפות בתמונה הרגישה או אם הילד בוחר לשלוח תמונה מינית לאיש קשר אחר לאחר האזהרה.

אפל מסרה כי תכונת בטיחות ההודעות החדשה תגיע בהמשך השנה לחשבונות שהוגדרו כמשפחות ב- iCloud בעדכונים ל- iOS 15, iPadOS 15 ו- macOS Monterey . אפל הבטיחה כי שיחות iMessage יישארו מוגנות באמצעות הצפנה מקצה לקצה, מה שהופך את התקשורת הפרטית לבלתי קריאה על ידי אפל.

סריקת תמונות לאיתור תוכן המכיל התעללות מינית בילדים (CSAM)

שנית, החל מהשנה עם iOS 15 ו- iPadOS 15, אפל תוכל לזהות תמונות של התעללות מינית בילדים (CSAM) המאוחסנות בתמונות iCloud, תכונה זו תאפשר לאפל לדווח על מקרים אלה למרכז הלאומי לילדים נעדרים ומנוצלים (NCMEC) , ארגון ללא מטרות רווח הפועל בשיתוף פעולה עם רשויות אכיפת החוק האמריקאיות.

אפל אמרה כי שיטת זיהוי ה- CSAM הידועה שלה נוצרה מתוך מחשבה על פרטיות המשתמשים. במקום לסרוק תמונות בענן, אפל אמרה כי המערכת תבצע התאמה במכשיר מול מסד הנתונים של קבצי תמונות CSAM ידועים המסופקים על ידי NCMEC וארגוני בטיחות ילדים אחרים. אפל מסרה כי היא תהפוך את מסד הנתונים הזה למערך לא קריא המאוחסן בצורה מאובטחת במכשירי המשתמשים.

טכנולוגיית הגיבוב, הנקראת NeuralHash, מנתחת תמונה וממירה אותה למספר ייחודי לתמונה זו, על פי אפל.

"המטרה העיקרית של הגיבוב היא להבטיח שתמונות זהות ודומות מבחינה ויזואלית יביאו לאותו גיבוב, בעוד שתמונות שונות זו מזו יביאו לגיבובים שונים", אמרה אפל . "לדוגמא, תמונה שנחתכה מעט, שונתה או הוסבה מצבע לשחור ולבן מטופלת בצורה זהה למקור שלה, ויש לה אותו גיבוב."

apple csam flow chart

לפני שתמונה מאוחסנת בתמונות iCloud, אפל אמרה שתהליך התאמה במכשיר מבוצע עבור אותה תמונה כנגד הסט הבלתי-קריא של חשיפות CSAM ידועות. אם יש התאמה, המכשיר יוצר שובר מוצפן . שובר זה מועלה לתמונות iCloud יחד עם התמונה, וברגע שחורג מסף ההתאמות שטרם נחשף, אפל מסוגלת לפרש את תוכן השוברים להתאמות CSAM. לאחר מכן,אפל בודקת ידנית כל דוח כדי לאשר שיש התאמה, משביתה את חשבון iCloud של המשתמש ושולחת דוח ל- NCMEC. אפל אינה משתפת מה הסף המדויק שלה, אך מבטיחה "רמת דיוק גבוהה במיוחד" שחשבונות לא מסומנים בצורה לא נכונה.

אפל אמרה כי שיטת זיהוי ה- CSAM הידועה שלה מספקת "הטבות פרטיות משמעותיות" על פני טכניקות קיימות:

• מערכת זו היא דרך יעילה לזהות CSAM ידוע המאוחסן בחשבונות תמונות iCloud תוך הגנה על פרטיות המשתמש.
• כחלק מהתהליך, משתמשים גם אינם יכולים לדעת דבר על סט תמונות ה- CSAM המוכרות המשמשות להתאמה. זה מגן על תוכן מסד הנתונים מפני שימוש זדוני.
• המערכת מדויקת מאוד, עם שיעור שגיאות נמוך במיוחד של פחות מאחד לכל טריליון חשבונות בשנה.
• המערכת שומרת על פרטיות באופן משמעותי,הרבה יותר מאשר סריקה מבוססת ענן, מכיוון שהיא מדווחת רק על משתמשים שיש להם אוסף של CSAM ידוע המאוחסן בתמונות iCloud.

"ההגנה המורחבת של אפל לילדים היא הגנה שמשנה את כללי המשחק. עם כל כך הרבה אנשים שמשתמשים במוצרי אפל, לאמצעי הבטיחות החדשים האלה יש פוטנציאל מציל חיים לילדים שמפתים אותם ברשת ותמונות מחרידות שלהם מופצות בחומרים של התעללות מינית בילדים", אמר ג'ון קלארק, נשיא ומנכ"ל המרכז הלאומי לילדים נעדרים ומנוצלים. "במרכז הלאומי לילדים נעדרים ומנוצלים אנו יודעים כי ניתן להילחם בפשע הזה רק אם אנו נחרצים במסירותנו להגן על ילדים. אנו יכולים לעשות זאת רק מכיוון ששותפים טכנולוגיים, כמו אפל, מתגברים ומגלים את מסירותם. המציאות היא שפרטיות והגנה על ילדים יכולים להתקיים במקביל. אנו מפרגנים לאפל ומצפים לעבוד יחד כדי להפוך את העולם הזה למקום בטוח יותר לילדים ".

הוראת CSAM מורחבת בחיפוש ובסירי

בנוסף, אפל אמרה כי היא תרחיב את ההנחיות ותוסיף אותם לסירי ולחיפוש בכל המכשירים על ידי מתן משאבים נוספים שיעזרו לילדים ולהורים להישאר בטוחים באינטרנט ולקבל עזרה במצבים לא בטוחים. לדוגמה, משתמשים ששואלים את סירי כיצד הם יכולים לדווח על CSAM או ניצול ילדים יופנו למשאבים לאן וכיצד להגיש דו"ח.

iphone csam siri

העדכונים לסירי ולחיפוש יגיעו מאוחר יותר השנה בעדכון ל- iOS 15, iPadOS 15, watchOS 8 ו- macOS Monterey, כך על פי אפל.

עוד חדשות מעניינות