نشرت أبل وثيقة أكثر تفصيلا حول ميزات سلامة الأطفال التي أعلنت عنها لأول مرة الأسبوع الماضي، بما في ذلك مبادئ التصميم ومتطلبات الأمان والخصوصية واعتبارات نموذج التهديد.

كانت خطة أبل للكشف عن صور مواد الاعتداء الجنسي على الأطفال (CSAM) المخزنة في iCloud Photos مثيرة للجدل بشكل خاص وأثارت مخاوف بعض الباحثين الأمنيين ومؤسسة Electronic Frontier Foundation غير الربحية وآخرين حول احتمال إساءة استخدام الميزة من قبل الحكومات باعتباره شكل من أشكال المراقبة الجماعية.

CSAM ميزة سلامة الأطفال من أبل

وتهدف الوثيقة التي شاركتها أبل إلى معالجة هذه المخاوف وتتوقع تعيين حد مبدئي للمطابقة لـ 30 صورة CSAM معروفة قبل وضع علامة على حساب iCloud للمراجعة اليدوية بواسطة الشركة.

وقالت شركة أبل إن قاعدة البيانات الموجودة على الجهاز لصور CSAM المعروفة تحتوي فقط على الإدخالات التي تم إرسالها بشكل مستقل من قبل منظمتين أو أكثر من منظمات سلامة الأطفال العاملة في ولايات قضائية مستقلة ولا تخضع لسيطرة الحكومة نفسها.

كما تم تصميم الميزة بحيث لا يحتاج المستخدم إلى الوثوق بشركة أبل أو أي كيان آخر أو حتى أي مجموعة من الكيانات المتواطئة المحتملة من نفس الولاية القضائية السيادية (أي تحت سيطرة نفس الحكومة) ليكون واثقًا من أن الميزة تعمل كما هي معلن عنه.

في مذكرة حصل عليها مارك جورمان من بلومبيرج، قالت أبل أن لديها مراجع حسابات مستقلًا يراجع النظام أيضًا. أشارت المذكرة إلى أن موظفي التجزئة في أبل ربما يتلقون أسئلة من العملاء حول ميزات سلامة الأطفال وربطهم بالأسئلة الشائعة التي شاركتها Apple في وقت سابق من هذا الأسبوع كمورد يمكن للموظفين استخدامه لمعالجة الأسئلة وتوفير المزيد من الوضوح والشفافية للعملاء.

وهناك العديد من الإنتقادات حول ميزات سلامة الأطفال التي كشفت عنها أبل حيث يرى مناصري الخصوصية أنها قد تفتح الباب على مصراعيه لإنتهاك خصوصية المستخدمين والمراقبة بإعتبارها باب خلفي يمكن استغلاله من قبل الحكومات أو حتى الهاكرز.

أخيرا، أوضحت الشركة الأمريكية أن ميزات سلامة الأطفال الجديدة سوف تأتي إلى الآيفون والآيباد وأجهزة الماك مع تحديثات النظام في وقت لاحق من هذا العام 2021، وأشارت إلى إن الميزات ستكون متاحة في الولايات المتحدة فقط عند الإطلاق، وعلى الرغم من الانتقادات، لم تقم أبل بأي تغييرات على هذا الإطار الزمني لطرح الميزة للمستخدمين.