تسريبات من وثائق داخلية كشفت سماح سياسات ميتا لروبوتات الدردشة بإجراء حوارات رومانسية أو حسية مع قُصر ضمن شروط، ما أثار جدلًا واسعًا وانتقادات حادة للشركة بشأن سلامة الأطفال والمحتوى العنصري والعنيف.

أثار تقرير صحفي حديث عاصفة من الجدل، بعد كشفه عن وثائق داخلية لشركة ميتا تظهر أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي كانت، وفقًا للسياسات الموثقة، مسموحًا لها بالدخول في محادثات ذات طابع رومانسي أو حسي مع الأطفال.

هذه المعلومات، التي جاءت في تحقيق أجرته وكالة رويترز، لم تقتصر على منصة واحدة، بل شملت روبوتات ميتا على فيسبوك وواتساب وإنستغرام، وبموافقة من فرق قانونية وسياسية وهندسية، إضافة إلى توقيع كبير خبراء الأخلاقيات في الشركة.

تفاصيل الوثائق المسربة

تحمل الوثيقة عنوان:

معايير مخاطر المحتوى للذكاء الاصطناعي التوليدي.

وتتضمن قائمة بمطالبات وأساليب رد تعتبرها الشركة مقبولة وأخرى غير مقبولة. ومن بين الأمثلة المثيرة للجدل، حالة افتراضية لمحادثة مع مستخدم يذكر أنه في المدرسة الثانوية، حيث كان الرد عبارة عن كلمات رومانسية. 
وفق الوثيقة، كان الحوار الرومانسي أو الحسي مع طفل مسموحًا به طالما لم يتضمن وصفًا صريحًا لأفعال غير أخلاقية أثناء تقمص الأدوار.

رد ميتا ومحاولة التوضيح

أمام موجة الانتقادات، خرج متحدث باسم ميتا ليؤكد أن الشركة لا تسمح بأي سلوك مثير مع الأطفال، وأن ما ورد في الوثيقة كان نتيجة إدراج خاطئ تمت إزالته لاحقًا.

وأوضح أيضًا أن الأطفال بعمر 13 عامًا فأكثر يمكنهم التفاعل مع روبوتات الدردشة، ضمن سياسات السلامة المعمول بها. لكن منظمات حماية الطفل، شككت في مصداقية هذه التصريحات، وطالبت ميتا بنشر النسخة المحدثة من السياسات حتى يتمكن الآباء من الاطلاع على تفاصيل القيود بأنفسهم.

محتوى عنيف ومهين

لم تقتصر الوثيقة على القضايا العاطفية مع القُصر، بل كشفت أيضًا أن ميتا سمحت لروبوتاتها بتوليد عبارات تنتقص من أشخاص بناءً على خصائص محمية مثل العرق.

في أحد الأمثلة، ورد رد مقبول على طلب كتابة فقرة تزعم أن السود أقل ذكاء من البيض، بحيث تم عرض هذه المزاعم على أنها حقائق مضللة. كما أوضحت الوثيقة أن الروبوتات يمكنها إنشاء تصريحات غير صحيحة، طالما أُشير في النص إلى أن المعلومات ليست حقيقية.

تضمنت السياسات السماح بإنشاء صور لأطفال يتشاجرون أو لأشخاص بالغين يتعرضون للركل أو الضرب، حتى إذا كانوا من كبار السن، مع اشتراط عدم وجود دماء أو تصوير الوفاة. أما بشأن الأمثلة المتعلقة بالعنصرية والعنف، فقد امتنعت ميتا عن التعليق المباشر.

خلفية الانتقادات السابقة لميتا

هذه الفضيحة ليست الأولى التي تواجه فيها ميتا انتقادات تتعلق بسلامة المستخدمين الصغار. فقد اتُهمت الشركة سابقًا بتبني أنماط تصميم مضللة لإبقاء المراهقين على المنصات لفترات أطول، مثل الإبقاء على عداد الإعجابات ظاهرًا رغم تحذيرات داخلية من أثره السلبي على الصحة النفسية.

كما كشف مسربون للمعلومات أن الشركة كانت تتعقب الحالات العاطفية الحساسة للمراهقين، وتسمح للمعلنين باستهدافهم خلالها.

معارضة قوانين حماية الأطفال

في المجال التشريعي، قادت ميتا حملة معارضة لمشروع قانون سلامة الأطفال على الإنترنت، الذي كان من شأنه إلزام شركات التواصل بالحد من الأضرار النفسية المحتملة للمحتوى.

ورغم فشل القانون في الكونغرس أواخر عام 2024، أُعيد طرحه في مايو 2025. وفي نفس الفترة، كانت الشركة تطور ميزات لروبوتات دردشة مخصصة قادرة على التواصل مع المستخدمين بشكل استباقي، على غرار تطبيقات مثل Replika وCharacter AI، والتي تواجه دعاوى قضائية بسبب ارتباطها بحالات وفاة بين المراهقين.

مخاوف الخبراء والآباء

يحذر خبراء علم النفس وأولياء الأمور والمشرعون من أن المراهقين أقل نضجًا عاطفيًا وأكثر عرضة لتكوين ارتباطات عاطفية قوية مع الروبوتات، ما قد يؤدي إلى الانعزال عن التفاعلات الاجتماعية الحقيقية. وتشير الإحصاءات إلى أن 72% من المراهقين يستخدمون روبوتات دردشة بالذكاء الاصطناعي، وهو ما يدفع نحو دعوات لفرض قيود صارمة أو حتى حظر هذه التفاعلات على القُصر.

كما أن تكرار هذه الفضائح، إلى جانب تسريبات موظفين سابقين، يعزز الصورة السلبية عن الشركة في الرأي العام ويؤكد على وجود فجوة واضحة بين الخطاب الرسمي الذي تتبناه ميتا بشأن حماية المستخدمين، وبين الممارسات الفعلية التي تطبقها على أرض الواقع.

وهذا ما يدفع النقاد إلى التساؤل عما إذا كانت الشركة قادرة حقًا على إصلاح نموذج عملها بما يتماشى مع المعايير الأخلاقية، أم أن مصالحها التجارية ستظل تتفوق على أي التزامات معلنة بحماية المراهقين.