في وقت لاحق من هذا العام، ستبدأ أبل في فحص الصور بشكل استباقي على أجهزة الآيفون والآيباد والماك الخاصة بالمستخدمين لاكتشاف أي صور وفيديوهات اعتداءات جنسية على الأطفال (CSAM) وبعدها يتم إبلاغ السلطات عن مستخدم الجهاز إلى جانب الميزات الجديدة الأخرى التي ستصدر مع نظام التشغيل الجديد iOS 15 وكل هذا للمساعدة  في حماية الأطفال عبر الإنترنت.

وأعلنت أبل رسميًا عن المبادرة تحت عنوان "الحماية الموسعة للأطفال"، وعلى الرغم من أنها هدف نبيل للغاية من جانب الشركة، إلا أنها أصبحت أيضًا مثيرة للجدل إلى حد ما، حيث أثارت تلك المبادرة مخاوف مناصري الخصوصية.

ميزات حماية وسلامة الأطفال

هناك بالفعل ثلاثة ميزات جديدة لسلامة الأطفال ستكشف عنها أبل في وقت لاحق من هذا العام في أنظمتها الجديدة iOS 15 و iPadOS 15 و watchOS 8 و macOS Monterey، وهي كالتالي:

  1. تحذير الأطفال عند إرسال أو استقبال صور جنسية صريحة في الرسائل.
  2. الكشف عن استغلال أو اعتداءات على الأطفال CSAM في صور iCloud والآيفون.
  3. إضافة إرشادات في Siri وعمليات البحث للمساعدة في المواقف التي يحتمل أن تكون غير آمنة.

من بين الميزات الثلاثة يخشى المدافعون عن الخصوصية أن تكون ميزة فحص الصور استباقيا على أجهزة الشركة بداية منحدر زلق.

حماية الخصوصية

apple - آبل

لكي نكون واضحين، لا أحد يجادل بأن أبل وشركات التكنولوجيا الكبرى الأخرى يجب ألا تفعل المزيد لمكافحة انتشار مواد الاعتداء الجنسي على الأطفال. يدور الجدل حول إلى أي مدى ينبغي السماح لهم بالذهاب في القيام بذلك، وما إذا كانت شركة أبل تفتح صندوق باندورا (في الأساطير الإغريقية عبارة عن صندوق يضم كل الشرور البشرية) الذي قد يُمكّن الأنظمة الاستبدادية من استخدامه لأغراض أخرى سيئة في المستقبل.

أضرار ميزات أبل الجديدة

آيفون 11 برو ماكس

  •  شكك باحثون أمنيون في احتمال وجود نتائج إيجابية خاطئة تتسبب في اتهام مستخدمين أبرياء.
  • هناك احتمال أن تُجبر شركة آبل في النهاية من قبل وكالات إنفاذ القانون على البحث عن أكثر من مجرد صور جنسية للأطفال.
  • التشفير أداة قوية توفر الخصوصية، ولا يمكنك حقا التمتع بخصوصية قوية أثناء مراقبة كل صورة يرسلها أي شخص.
  • يمكن مراقبة المستخدم ومعرفة كل شيء داخل الجهاز.
  • يمكن للحكومات استغلال ذلك في القيام بمراقبة جماعية.
  • اليوم يمكنهم البحث عن صور اساءة للأطفال وغدا البحث أي شيء داخل الآيفون.
  • أكثر من مليار جهاز في العالم مهدد بإنتهاك الخصوصية.

ما تفعله أبل ليس جديدا

أبل عرب هاردوير

تطرح أبل هذه الميزة في الولايات المتحدة فقط في الوقت الحالي، نظرا لأنها تعمل بشكل خاص مع المركز الوطني الأمريكي للأطفال المفقودين والمستغلين (NCMEC) وستحتاج إلى إقامة شراكات مماثلة مع منظمات إنفاذ القانون في بلدان أخرى ونأمل بالتأكيد أن تكون انتقائية إلى حد ما عندما يتعلق الأمر بالشراكة مع الحكومات التي لديها جداول أعمال مشكوك فيها وسجلات تتبع وانتهاكات لحقوق الإنسان.

وفي الواقع، لا تفعل أبل أي شيء جديد هنا على الإطلاق، إنها ببساطة تفعل ذلك بمزيد من الخصوصية والأمان أكثر من أي شخص آخر من قبل. على سبيل المثال، كانت جوجل تفعل ذلك في خدمتها السحابية منذ عام 2008 وبدأ فيسبوك في فعل الشيء نفسه في عام 2011.

بعبارة أخرى، الجديد هنا ليس حقيقة أن أبل ستفحص مكتبات صور iCloud الخاصة بالمستخدمين بحثًا عن صورة مسيئة للأطفال، بل إنها ستنقل هذا عملية الفحص مباشرة إلى أجهزة المستخدمين في نظام iOS 15.

كيف تعمل ميزة أبل الجديدة

آيفون 11 برو ماكس

أوضحت أبل أن نظام اكتشاف الصور المسيئة CSAM لن ينظر إلى الصور الموجودة على الواجهة الخلفية على الإطلاق بعد الآن. بدلاً من ذلك، سيقوم بفحص الصور الموجودة على أجهزتك قبل تحميلها إلى مكتبة صور iCloud.

إذا كان هناك أي شيء، فإن هذا يبدو إلى حد كبير مثل أن أبل تستعد لتقديم التشفير من طرف إلى طرف لمكتبات صور iCloud الخاصة بالمستخدمين والذي سيعني مزيد من الخصوصية.

وأكدت الشركة أن اكتشاف CSAM لا يتم تمكينه إلا عند تشغيل مكتبة صور آيكلاود، فما الهدف من إنشاء كود لفحص الصور ضوئيا على الأجهزة قبل تحميلها عندما تتمكن أبل من فحصها في أوقات فراغها مباشرة في السحابة.

يجب أن يكون الجواب إلى حد كبير هو التشفير. إذا قامت أبل بتمكين التشفير من طرف إلى طرف لمكتبة صور iCloud، فستفقد القدرة على البحث عن الصور المسيئة CSAM مباشرة في السحابة. كانت شركة أبل تسير على حبل مشدود منذ سنوات بين خصوصية المستخدم وضغوطات وكالات انفاذ القانون، ومن الآمن أن نقول إن وزارة العدل الأمريكية لن تنظر باهتمام كبير إذا قامت أبل فجأة بتحويل عدد كبير من صور المستخدمين إلى صندوق أسود لا يمكنهم النظر إليه.

وبقدر ما قد يكون مفهوم فحص الصور ضوئيًا على جهاز الآيفون مخيفًا، ضع في اعتبارك أن كل شيء مخزّن في مكتبة صور آيكلاود الخاصة بك مفتوح بالكامل بالفعل للفحص بواسطة أبل أو وكالات انفاذ القانون لذا فإن سياسات أبل الداخلية فقط هي التي تمنع مكتب التحقيقات الفيدرالي من الذهاب في رحلة صيد من خلال مكتبة الصور الخاصة بك متى شعرت بذلك.

وسوف يسمح الفحص بحثًا عن CSAM مباشرة على جهازك لشركة أبل في النهاية بتأمين صورك في السحابة دون إنشاء ملاذ آمن لمعتدي الأطفال لتخزين محتواهم عبر الإنترنت دون عقاب.

أخيرا، تقول أبل إن نظام اكتشاف الصور الجنسية للأطفال CSAM سيتم تضمينه في الإصدار القادم من iOS 15 و iPadOS 15، مما يعني أنه لن يكون موجودا بالضرورة عند إطلاق iOS 15.0 الشهر المقبل. سينطبق أيضا فقط على المستخدمين الذين تم تمكين مكتبة صور iCloud على أجهزتهم.