أثار روبوت المحادثة Anthropic المعروف باسم Claude حالة واسعة من الجدل خلال الأيام الماضية، بعد تكرار شكاوى المستخدمين من قيامه بمطالبتهم بالذهاب إلى النوم أثناء المحادثات، في سلوك وصفه البعض بالغريب وغير المتوقع. أشار مستخدمون إلى أن Claude يكرر عبارات مرتبطة بالنوم والراحة بصورة متكررة أثناء المحادثة، أحيانًا بطريقة عامة مثل مطالبة المستخدم بالحصول على قسط من الراحة، وأحيانًا برسائل تبدو شخصية وتحمل نبرة تعاطف.

  • Claude يثير الجدل برسائل متكررة تطلب من المستخدمين الذهاب للنوم.
  • مستخدمون اشتكوا من ظهور الرسائل حتى خلال ساعات الصباح.
  • خبراء يرجحون ارتباط السلوك ببيانات التدريب والتعليمات الداخلية.
  • الجدل أعاد النقاش حول محاكاة الذكاء الاصطناعي للسلوك البشري.

كتب أحد المستخدمين على منصة Reddit أن Claude أخبره أكثر من مرة بضرورة التوقف عن العمل والذهاب للنوم، في حين ذكر آخرون أن الروبوت يكرر الرسالة مرات متتالية خلال الجلسة نفسها. وأوضح بعضهم أن هذه الرسائل تظهر حتى في أوقات الصباح، وهو ما زاد من غرابة الأمر بالنسبة للمستخدمين.

سلوك Claude والبيانات التدريبية

انقسمت ردود الفعل تجاه هذا السلوك بين من اعتبره لفتة تبدو إنسانية أو ودودة، ومن رأى أنه أمر مزعج يقطع سير المحادثة دون سبب واضح. كما أشار عدد من المستخدمين إلى أن Claude يخطئ أحيانًا في تقدير الوقت؛ إذ يطلب منهم النوم رغم أن الوقت يكون في بداية اليوم.

دفعت هذه الظاهرة مستخدمي الإنترنت إلى طرح تفسيرات متعددة حول أسبابها. وذهب البعض إلى الاعتقاد بأن شركة Anthropic أضافت هذه الميزة عمدًا بهدف تشجيع المستخدمين على تقليل وقت الاستخدام والاهتمام بصحتهم، بينما طرح آخرون فرضية تتعلق بمحاولة تقليل الضغط الحاسوبي عبر إنهاء المحادثات الطويلة.

إلا أن هذه التفسيرات واجهت تشكيكًا من متخصصين ومتابعين لقطاع الذكاء الاصطناعي، خاصة أن Claude لا يمتلك معلومات دقيقة عن عدد ساعات استخدام الشخص أو حالته الصحية أثناء التفاعل معه. كما أن الشركة تعمل حاليًا على توسيع قدراتها الحاسوبية بشكل كبير، وهو ما يقلل من احتمالية ارتباط الأمر بمحاولة توفير الموارد.

أرجع عدد من الخبراء هذا التصرف إلى طبيعة البيانات التي تدربت عليها النماذج اللغوية الكبيرة. أوضح يان ليفهارت، أستاذ الهندسة الحيوية في جامعة ستانفورد والرئيس التنفيذي لشركة OpenMind، أن النموذج قد يكون يعيد إنتاج أنماط لغوية شائعة ظهرت بكثرة في البيانات المستخدمة أثناء التدريب.

أشار ليفهارت إلى أن Claude لا يملك وعيًا ذاتيًا أو إدراكًا حقيقيًا لمعنى النوم أو حالة المستخدم، وإنما يعتمد على التنبؤ بالنصوص الأكثر احتمالًا في سياقات معينة. وأضاف أن النماذج اللغوية قرأت كمًا هائلًا من النصوص المتعلقة بعادات البشر، ومن الطبيعي أن تربط أوقات الليل أو المحادثات الطويلة بفكرة الراحة والنوم.

كما أوضح ليو ديريكيانتس، المؤسس المشارك والرئيس التنفيذي لمختبر Mind Simulation Lab، أن السبب قد يرتبط بما يعرف باسم التعليمات الداخلية أو System Prompts، وهي توجيهات مخفية تستخدم لضبط سلوك النماذج اللغوية وتحديد طريقة تفاعلها مع المستخدمين.

هل فقد Claude السيطرة؟ روبوت Anthropic يطالب المستخدمين بالنوم!

الجدل المرتبط بالذكاء الاصطناعي

أوضح ديريكيانتس أيضًا أن هذه التعليمات تساعد النماذج على الالتزام بمعايير السلامة أو تبني أسلوب معين في الردود. كما لفت إلى أن بعض الشركات تنشر هذه التعليمات بشكل علني، مثل شركة xAI المطورة لروبوت Grok.

تتضمن تعليمات Grok، المنشورة عبر منصة GitHub، بنودًا تتعلق بالسلامة وتجنب تقديم المساعدة في الجرائم العنيفة، إلى جانب توجيهات أخرى مرتبطة بأسلوب الردود. يرى بعض الباحثين أن Claude قد يكون خاضعًا بدوره لتعليمات مشابهة تدفعه أحيانًا إلى إنهاء المحادثات بصياغات ترتبط بالنوم أو الراحة.

طرح الخبراء تفسيرًا آخر يتعلق بما يعرف بالسياق أو Context Window، وهو الحد الأقصى من المعلومات التي يستطيع النموذج التعامل معها في وقت واحد أثناء المحادثة. وعندما يقترب هذا الحد من الامتلاء، قد يلجأ النموذج إلى استخدام عبارات توحي بإنهاء الحديث، مثل تمني ليلة سعيدة أو مطالبة المستخدم بالراحة.

رغم أن هذه التفسيرات تبدو منطقية بالنسبة للمتخصصين، فإن كثيرًا من المستخدمين رأوا في سلوك Claude دليلًا على تطور غير معتاد في قدرات الذكاء الاصطناعي، خاصة مع السرعة الكبيرة في إطلاق النماذج الجديدة خلال الفترة الأخيرة.

شهدت الأشهر الماضية منافسة قوية بين شركات الذكاء الاصطناعي الكبرى؛ إذ أطلقت OpenAI نموذج GPT 5.5، في حين كشفت Anthropic عن نموذج Opus 4.7، مع احتفاظها بنموذج آخر يحمل اسم Mythos بعيدًا عن الإتاحة العامة بسبب مخاوف مرتبطة بالسلامة.

من وجهة نظري، أرى أن تطور النماذج اللغوية وسرعتها في محاكاة الأسلوب البشري يجعلان المستخدمين أكثر ميلًا لإضفاء صفات إنسانية عليها. ويبدو أن الناس أصبحوا يرتبطون عاطفيًا بالنماذج المتقدمة بصورة أسرع مما كان متوقعًا، خاصة عندما تستخدم عبارات تحمل تعاطفًا أو اهتمامًا ظاهريًا.

تعتمد هذه الأنظمة في النهاية على تحليل الأنماط اللغوية والتنبؤ بالكلمات التالية داخل المحادثة، وهو ما يجعل بعض التصرفات تبدو إنسانية رغم أنها ناتجة عن آليات حسابية معقدة وليست تعبيرًا عن مشاعر حقيقية أو وعي ذاتي.