بعد اعتراضات قوية لميزة فحص صور الآيفون لحماية الأطفال  CSAMلأنها تنتهك الخصوصية، قالت شركة أبل أنها قررت تأجيل موعد إطلاق ميزتها الجديدة لفحص صور المستخدمين بحثًا عن صور استغلال الأطفال.

وقالت أبل في بيان لها "أعلنا الشهر الماضي عن خطط لميزات تهدف إلى المساعدة في حماية الأطفال من المحتالين الذين يستخدمون أدوات الاتصال لتجنيدهم واستغلالهم والحد من انتشار مواد الاعتداء الجنسي على الأطفال واستنادًا إلى التعليقات الواردة من العملاء ومجموعات المناصرة والباحثين وغيرهم، قررنا تخصيص وقت إضافي خلال الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إطلاق ميزات سلامة الأطفال".

أبل عرب هاردوير

وكانت أبل قد أثارت الجدل على الفور بعد إعلانها عن ميزة لفحص أجهزة المستخدمين بحثًا عن مواد غير قانونية تتعلق بالاعتداء الجنسي على الأطفال وأشار النقاد إلى أن الميزة يمكنها فحص الصور المخزنة في حساب iCloud ومقارنتها بقاعدة بيانات صور "CSAM" المعروفة، وهذا ما يتعارض مع وعد أبل بحماية الخصوصية لكافة مستخدميها.

وبالنسبة لميزة أبل الجديدة، لا يقوم النظام بمسح صور المستخدم ضوئيًا، ولكنه يبحث بدلاً من ذلك عن "بصمات" رقمية معروفة تتطابق مع قاعدة بيانات CSAM، إذا اكتشف النظام صورًا كافية على حساب المستخدم، سيتم وضع علامة عليها من أجل المراجعة البشرية حيث يقوم شخص بمراجعة الصور والتأكد منها قبل تمرير المعلومات إلى سلطات إنفاذ القانون إذا لزم الأمر.

كان من المفترض أن يبدأ تشغيل نظام الكشف عن CSAM من أبل للعملاء هذا العام 2021، لكن بعد اعلانها عن التأجيل، ليس واضحا متى ستقوم الشركة بإطلاق الميزة الجديدة.

أخيرا، على الرغم من المخاوف بشأن خطة أبل، إلا أنها في الواقع ممارسة معتادة بين شركات التكنولوجيا حيث يمتلك فيسبوك وجوجل ودربوكس والعديد من الشركات الأخرى، أنظمة يمكنها اكتشاف صور CSAM التي تم تحميلها تلقائيًا إلى الخدمات الخاصة بها.