LC100
القائمة
ترند
ترند
ثغرة في ميزة أبل الجديدة المصممة لحماية الأطفال من الإعتداءات الجنسية

ثغرة في ميزة أبل الجديدة المصممة لحماية الأطفال من الإعتداءات الجنسية

منذ 10 أشهر - بتاريخ 2021-08-18

اخر تحديث - بتاريخ 2021-08-19

 أعلنت شركة أبل عن نظامها الجديد CSAM في وقت سابق من هذا الشهر والذي يعمل على فحص صور مستخدمي الآيفون للبحث عن اعتداءات على الأطفال.

ومنذ الإعلان عن الميزة، تلقت CSAM الكثير من ردود الفعل العكسية ليس فقط مع الباحثين الأمنيين ولكن حتى موظفي أبل أنفسهم أعربوا عن قلقهم من الخصوصية والآن، اكتشف مطور مستقل ثغرة خطيرة في ميزة CSAM.

ونشر المطور Asuhariet Ygvar رمزًا لإصدار بايثون المعاد بناؤه من تقنية NeuralHash على Github والمثير للدهشة أن المطور يدعي أنه استخرج الكود من نظام التشغيل iOS 14.3 على الرغم من أن أبل تدعي أن ميزة CSAM ستكون متاحة في الإصدارات القادمة من نظام تشغيل الآيفون.

كما شارك أيضا دليلاً مفصلاً على Github حول كيفية استخراج ملفات NeuralMatch من نظامي macOS أو iOS بعد أن كشف عن نظام التشفير العكسي على موقع ريديت.

أبل عرب هاردوير

وقال  Asuhariet "تُظهر الاختبارات المبكرة أنه يمكنه تحمل تغيير حجم الصورة وضغطها، ولكن ليس القص أو التدوير، آمل أن يساعدنا هذا في فهم خوارزمية NeuralHash بشكل أفضل ومعرفة مشكلاتها المحتملة قبل تمكينها على جميع أجهزة الآيفون".

بمجرد أن أصبح الرمز متاحًا على Github، بدأ المطورون حول العالم في العثور على عيوب فيه. ولكن قبل أن نشرح ما هو الخلل، عليك أن تعرف كيف يكتشف نظام الآيفون محتوى CSAM؟

يعمل نظام تشغيل الآيفون على تجزئة الصور ثم تتم مطابقة هذه التجزئة بعد ذلك مع تجزئة الصورة في قاعدة بيانات المركز الوطني للأطفال المفقودين والمستغلين (NCMEC) وإذا تطابقت التجزئات يعني أن هناك صور اعتداء على الأطفال.

إذا تم التعرف على أكثر من 30 تطابق، يقوم النظام بإرسال تنبيهات لأبل وبعد ذلك يقوم المراجع البشري بفحص الصور التي يعتقد أنها لإعتداءات على الأطفال وتقول أبل إنه إذا وجدت شخصا مذنبا، فقد تتخذ إجراءً عبر ابلاغ السلطات.

اكتشف المطورون أن نظام أبل قد يولد نفس مجموعة التجزئة لصورتين مختلفتين تماما، وهو ما سيكون بمثابة فشل كبير في التشفير الأساسي لنظام أبل الجديد. إذا تمكن شخص بطريقة ما من الوصول إلى قاعدة بيانات صور NCMEC، فيمكن إجراء هندسة عكسية للنظام لإنشاء نفس التجزئة لصورة غير CSAM، سيتطلب هذا 30 صورة متضاربة لإنشاء محفز إيجابي خاطئ، وعلى الأرجح لن يحدث، لكنه لا يزال يتطلب تدخلًا بشريًا.

أخيرا، كانت ميزات سلامة الأطفال من أبل موضع نقاش وإنتقادات منذ إعلانها حيث يقول البعض إنه من الجيد أن تتحقق الشركة من إساءة معاملة الأطفال في الصور بينما يقول البعض إنها انتهاك لخصوصيتهم.

أضف تعليق (0)
ذات صلة