أثار نموذج الذكاء الاصطناعي Grok، التابع لشركة xAI، حالة من الدهشة والاستغراب بعد أن بدأ فجأة يربط كل ردوده تقريبًا بموضوع مثير للجدل يتعلق بما يُعرف باسم الإبادة الجماعية للبيض في جنوب أفريقيا.

أثار هذا السلوك غير المعتاد تساؤلات واسعة حول طبيعة الذكاء الاصطناعي ومدى قابليته للتأثر بالتغييرات في توجيهاته الأساسية.

تعديل غير مصرح به على التوجيهات

أعلنت شركة xAI أن هذا السلوك كان نتيجة لتعديل غير مصرح به على التوجيه الأساسي للنظام، والذي يُعد بمثابة مجموعة التعليمات الجوهرية التي تحدد كيفية استجابة النموذج لأسئلة المستخدمين. وأوضحت الشركة أن هذا التعديل دفع النموذج إلى تقديم ردود موجّهة حول موضوع سياسي معين، مما اعتبرته الشركة خرقًا واضحًا لسياساتها الداخلية وقيمها الأساسية.

أكدت xAI أن عملية مراجعة الشفرات التي من المفترض أن تحمي من مثل هذه التعديلات قد تم تجاوزها بشكل غير مشروع. لكنها لم تذكر كيف حدث هذا التجاوز بالتحديد، ولا من هو الموظف أو الفريق المسؤول عن ذلك.

إجراءات وقائية جديدة

ردًا على هذا الحادث، أعلنت الشركة عن تنفيذ إجراءات أمنية جديدة تهدف إلى منع حدوث مثل هذه التعديلات في المستقبل. من بين هذه الإجراءات تعيين فريق مراقبة يعمل على مدار الساعة لمتابعة سلوك النموذج، إضافة إلى فرض قيود تمنع أي موظف من تعديل التوجيهات الجوهرية دون المرور بمراجعة صارمة.

كما قررت الشركة نشر التوجيه الأساسي للنموذج على منصة GitHub، في خطوة تهدف إلى تعزيز الشفافية ومنح المجتمع التقني فرصة لمراجعة التوجيهات وتقديم ملاحظاته بشأنها.

ملاحظات مثيرة في التوجيه الأساسي

أظهرت مراجعة التوجيه الرسمي للنموذج عدة تعليمات مثيرة للاهتمام. حيث تم توجيه Grok لتقديم أقصر إجابة ممكنة ما لم يُطلب منه خلاف ذلك، في انسجام مع طبيعة المنصة الاجتماعية التي يعمل ضمنها. كما تم توجيه النموذج لتقديم معلومات دقيقة ومستندة إلى الأبحاث العلمية، مع الالتزام بالحياد، لكن في الوقت نفسه يُسمح له بتحدي الروايات السائدة وتقديم رؤى مستقلة.

تبدو هذه التعليمات متضاربة في بعض الأحيان، إذ إنها تشجع النموذج على قول الحقيقة، ولكنها في الوقت ذاته تحثه على أن يكون ناقدًا لما هو شائع، مما يفتح الباب أمام تفسيرات مرنة قد تؤدي إلى نتائج غير متوقعة.

تناقضات في سياسة إيلون ماسك

مارس إيلون ماسك، مالك منصة "إكس" (تويتر سابقًا)، سياسات رقابية مثيرة للجدل على المنصة فيما يتعلق بالحرب على غزة، مما أثار انتقادات واسعة من جهات متعددة.

ففي نوفمبر 2023، زار ماسك إسرائيل والتقى برئيس وزراء الاحتلال الإسرائيلي، وتجوّل في مستوطنات قرب غزة. وأعلن خلال الزيارة عن اتفاق مبدئي لعدم تشغيل خدمة الإنترنت الفضائي "ستارلينك" في غزة إلا بموافقة إسرائيلية. 

وفي يناير 2024، أغلقت "إكس" حسابًا جديدًا لكتائب عز الدين القسام بعد ساعات من إطلاقه، بدعوى انتهاكه لمعايير المنصة. وبرر ماسك القرار بأن حماس ليست جهة معترف بها من الأمم المتحدة، وبالتالي لا تنطبق عليها "قاعدة الإعفاء" التي تمنحها المنصة للحكومات المعترف بها دوليًا.

رغم هذه الإجراءات، أكد ماسك مرارًا التزامه بحرية التعبير، مشيرًا إلى أن سياسة "إكس" تقوم على الشفافية والانفتاح. ومع ذلك، أشار إلى استعداده للتعاون مع السلطات في حال طلبت إزالة محتوى غير قانوني. وبعد زيارته لإسرائيل، دعت حركة حماس ماسك لزيارة غزة للاطلاع على حجم الدمار. رد ماسك بأن الوضع في غزة "خطير حاليًا"، لكنه أبدى اهتمامه برؤية غزة مزدهرة في المستقبل.

تُظهر تصرفات ماسك تناقضًا بين حرية التعبير والامتثال للضغوط السياسية والدولية. فبينما يؤكد التزامه بالشفافية، اتخذ قرارات أثارت جدلاً حول مدى حيادية منصة "إكس" في تغطية الصراع الفلسطيني الإسرائيلي.

سلوكيات الذكاء الاصطناعي

تُظهر هذه الحادثة مدى هشاشة سلوك النماذج اللغوية الكبيرة، وأنها قد تتأثر بشدة حتى بأبسط التغييرات في التوجيهات. ورغم أنها تُظهر سلوكًا قريبًا من التفاعل البشري، فإنها في النهاية ليست إلا أدوات تتبع التعليمات التي تُبرمج بها، من دون إدراك أو فهم حقيقي لما تقول.

أثبتت أمثلة أخرى من نماذج مشابهة مثل Claude من شركة Anthropic أن تغييرات بسيطة في أوزان المفاهيم يمكن أن تؤدي إلى سلوكيات غريبة، مثل إعلان النموذج أنه يجسّد جسر البوابة الذهبية حرفيًا. وهو ما يدل على أن النماذج اللغوية لا تمتلك وعيًا ذاتيًا، بل تحاكي اللغة البشرية بناءً على الأنماط.

يعكس هذا الحادث أهمية اليقظة في التعامل مع الذكاء الاصطناعي، وضرورة وجود رقابة تقنية صارمة على ما يُغذّى به من تعليمات، لأنه قادر على تضخيم أفكار معينة أو نشرها على نطاق واسع بمجرد تغيير بسيط في التعليمات الأولية.