كشف تقرير جديد صادر عن صحيفة Financial Times، أن شركة آبل الأمريكية تخطط لفحص الصور المخزنة على أجهزة آيفون الخاصة بعملائها وحتى iCloud بحثاً عن صور مخالفة للقانون تتضمن صور إساءة معاملة الأطفال واستغلالهم.

النظام الجديد يحمل اسم NeuralMatch، ويهدف إلى المساعدة في تطبيق القانون وحماية الأطفال من الاستغلال والانتهاكات، ومساعدة المحققين على تنفيذ عملهم في تلك القضايا بشكل أفضل.

وبالنسبة لآلية عمل نظام NeuralMatc، فإنه سوف ينبه بشكل استباقي فريق من المراجعين البشريين لدى آبل إذا اعتقد أنه تم الكشف عن صور غير قانونية، وفي حالة إثبات وجود صور خارجة عن القانون سيتم إبلاغ السلطات عن صاحب الهاتف.

ويوضح المصدر أن نظام NeuralMatc تم تدريبه باستخدام 200000 صورة من المركز الوطني للأطفال المفقودين والمستغلين، وسوف يتم طرحه في الولايات المتحدة أولاً.

آيفون 11 برو ماكس

وتقول صحيفة Financial Times، أنه سيتم منح كل صورة يتم تحميلها على iCloud في الولايات المتحدة الأمريكية رمز أمان يوضح ما إذ كانت مشبوهة أم لا، وفي حالة تجاوز عدد الصور المشبوهة حد معين، ستقوم آبل بفك تشفير كافة الصور المشبوهة لفحصها وإبلاغ السلطات عنها.

إلى هنا تبدو هذه الخطوة جيدة من قبل آبل، التي كان لديها ماضي من رفض مساعدة الحكومات في الوصول إلى أجهزة آيفون الخاصة بالمشتبه بهم في جرائم عدة، ولكن على الجانب الآخر قد تكون هذه الخطوة انتهاك صريح لخصوصية المستخدمين، وربما يخطئ النظام في تقييم الصور ويتسبب الأمر في مشكلات لأشخاص لا ذنب لهم.

حتى الآن تبدو الأمور غير واضحة، وننتظر أن نرى من آبل بيان رسمي بالأمر، وتوضيح عن إمكانية تطبيق هذه الأداة الجديدة خارج الولايات المتحدة الأمريكية أم أنها ستكون مقصرة على أمريكا فقط؟