• أكثر من مليون مستخدم تحدثوا مع ChatGPT عن الانتحار أسبوعيًا وفق بيانات OpenAI.
  • الشركة تعاونت مع أكثر من 170 خبيرًا لتحسين استجابات GPT-5 في القضايا النفسية.
  • دعوى قضائية وتحذيرات قانونية تواجه OpenAI بسبب قصور الحماية للمراهقين.
  • GPT-5 أظهر ثباتًا أكبر في المحادثات الطويلة وتحسينات في الأمان العاطفي.

أعلنت شركة OpenAI عن أرقام جديدة كشفت عن جانب مظلم في علاقة المستخدمين مع ChatGPT. فقد أوضحت الشركة أن ما يقارب 0.15٪ من المستخدمين النشطين أسبوعيًا أجروا محادثات تضم مؤشرات واضحة على وجود نوايا أو خطط انتحارية.

ومع تجاوز عدد المستخدمين الأسبوعيين حاجز الـ 800 مليون، يعني ذلك أن أكثر من مليون شخص تحدثوا مع ChatGPT عن أفكار تتعلق بالانتحار خلال أسبوع واحد فقط.

لم تتوقف البيانات عند هذا الحد؛ إذ ذكرت الشركة أن نسبة مشابهة من المستخدمين أظهرت ارتباطًا عاطفيًا مفرطًا مع ChatGPT، بينما كشفت المحادثات أيضًا عن مئات الآلاف من الحالات التي حملت مؤشرات على الذهان أو نوبات الهوس. ورغم وصف OpenAI لهذه الحالات بأنها نادرة جدًا، فإنها ما تزال تمثل أزمة إنسانية يصعب تجاهلها.

تحسين استجابة ChatGPT

شاركت OpenAI هذه المعلومات ضمن إعلان موسع حول جهودها الأخيرة لتحسين تعامل النماذج مع قضايا الصحة النفسية. وذكرت الشركة أنها تعاونت مع أكثر من 170 خبيرًا نفسيًا وطبيًا لتطوير أسلوب استجابة ChatGPT. وأفاد هؤلاء الخبراء بأن النسخة الأحدث من النموذج أصبحت أكثر اتزانًا واتساقًا في تعاملها مع المستخدمين مقارنة بالإصدارات السابقة.

كما أكدت OpenAI أن النسخة الجديدة من GPT-5 قدمت استجابات وُصفت بالمناسبة في نحو 65 بالمئة أكثر من النسخة التي سبقتها، وفقًا لاختبارات داخلية حول الحوارات المتعلقة بالأفكار الانتحارية. وأشارت الشركة إلى أن معدل التزام GPT-5 بالسلوكيات التي تعتبرها OpenAI مرغوبة بلغ 91 بالمئة، مقابل 77 بالمئة في النسخة السابقة.

تحديات قانونية وضغوط متزايدة

تحول ملف الصحة النفسية في ChatGPT إلى قضية وجودية بالنسبة إلى OpenAI، خصوصًا بعد أن رفعت عائلة مراهق يبلغ ستة عشر عامًا دعوى قضائية ضد الشركة، متهمة إياها بالتقصير في التعامل مع حالته بعدما كشف لروبوت المحادثة عن نواياه بالانتحار قبل وفاته.

كما وجه المدعون العامون في ولايتي كاليفورنيا وديلاوير تحذيرات رسمية للشركة بضرورة حماية الأطفال والمراهقين الذين يستخدمون منتجاتها، مؤكدين أن أي تقصير في هذا الجانب قد يعرض OpenAI إلى عواقب قانونية خطيرة.

وفي مواجهة هذه الضغوط، حاول الرئيس التنفيذي سام ألتمن طمأنة الرأي العام حين كتب في منشور على منصة إكس أن الشركة تمكنت من الحد من المشكلات النفسية الخطيرة داخل ChatGPT. ورغم أنه لم يقدم تفاصيل دقيقة عن الإجراءات المتخذة، فإن البيانات الجديدة التي كشفتها الشركة جاءت لتدعم قوله جزئيًا، لكنها في الوقت نفسه فتحت الباب أمام تساؤلات أوسع حول مدى انتشار المشكلة.

تقرير صادم: أكثر من مليون شخص يتحدثون مع ChatGPT عن الانتحار أسبوعيًا!

تحسين الضوابط والاختبارات النفسية

أعلنت OpenAI أنها أضافت آليات تقييم جديدة لاختبار قدرة النماذج على التعامل مع القضايا النفسية الحساسة، وأن عملية الاختبار الأساسية للأمان أصبحت تشمل معايير تتعلق بالاعتماد العاطفي والطوارئ النفسية غير الانتحارية. كما أوضحت أن هذه الخطوة جاءت استجابة لتزايد القلق من أن يصبح بعض المستخدمين مرتبطين عاطفيًا بالذكاء الاصطناعي إلى درجة الخطر.

وقد أوضحت الشركة أن GPT-5 أظهر ثباتًا أكبر في المحادثات الطويلة مقارنة بالإصدارات السابقة، بعدما كانت أنظمة الأمان تفقد فعاليتها تدريجيًا مع طول التفاعل. وأكدت OpenAI أنها تعمل حاليًا على تعزيز أدوات الرقابة الأبوية، بما في ذلك تطوير نظام لتقدير أعمار المستخدمين بهدف فرض قيود أشد على الأطفال.

تحسين ChatGPT وأفق المستقبل

رغم التحسينات التي أعلنت عنها OpenAI، ما تزال الشركة تواجه تساؤلات عميقة حول مدى قدرتها على احتواء التبعات النفسية لتفاعل البشر مع الذكاء الاصطناعي. فبينما تبدو الأرقام دالة على تقدم تقني ملموس، فإن مجرد وجود أكثر من مليون شخص يتحدثون أسبوعيًا عن الانتحار مع ChatGPT يشير إلى أزمة عالمية تتجاوز حدود التكنولوجيا إلى عمق المعاناة الإنسانية.

يبدو أن OpenAI قد أصبحت أيضًا مطالبة بفهم الجانب العاطفي للبشر الذين يتحدثون مع تلك النماذج. فمع تزايد العزلة والضغوط، يتحول الذكاء الاصطناعي إلى مرآة للضعف الإنساني، وتغدو مسؤولية صانعيه أكبر من أي وقت مضى.