أجرت صحيفة الجارديان اختبارات على أحدث نماذج ChatGPT، وهو نموذج GPT-5.2، واكتشفت شيئًا صادمًا؛ النموذج يستشهد بموسوعة جروكيبيديا كمصدر للمعلومات في عدد من القضايا الحساسة!

تفاصيل الاختبار

خلال أكثر من 12 سؤالًا مختلفًا، استشهد النموذج بالموسوعة 9 مرات، أي بنسبة 75%، وهذه نسبة كبيرة جدًا.

لمن لم يسمع عن جروكيبيديا من قبل، فهي موسوعة رقمية تابعة لشركة إيلون ماسك xAI؛ أُطلقت في أكتوبر الماضي لمنافسة ويكيبيديا.

الموسوعة تعرضت لانتقادات واسعة بسبب إجاباتها الكارثية التي تكررت أكثر من مرة، وبسبب اعتمادها بشكل شبه كامل على الذكاء الاصطناعي، والمشكلة أنها لا تتيح إمكانية التعديل البشري المباشر مثل ويكيبيديا.

ليس ChatGPT وحده!

بحسب الجارديان، لم يقتصر الاستشهاد بجروكيبيديا على نموذج OpenAI وحده، حيث أشارت تقارير غير رسمية إلى أن نموذج Claude، التابع لشركة Anthropic، استشهد هو الآخر بالموسوعة الآلية.

تعليق الشركات على المسألة

بالنسبة لـ OpenAI، قال متحدث باسمها إن "البحث عبر الويب في النموذج يهدف إلى الاستعانة بطيف واسع من المصادر ووجهات النظر المتاحة للعامة"، مؤكدًا وجود فلاتر أمان هدفها تقليل الاعتماد على المصادر منخفضة المصداقية.

أما Anthropic، فلم ترد على طلب التعليق من الجارديان، على عكس xAI، المالكة لجروكيبيديا، التي علق متحدث باسمها: "وسائل الإعلام التقليدية تكذب"!

على كلٍ؛ استشهاد نماذج الذكاء الاصطناعي بنماذج ذكاء اصطناعي أخرى، خاصةً إذا كانت غير موثوقة ومستحدثة مثل جروكيبيديا، هو شيء كارثي بكل المقاييس.

البشر باتوا يعتمدون على الذكاء الاصطناعي، ونماذج GPTs تحديدًا، إلى حدٍ مبالغ فيه، ولا نعرف أين هي "فلاتر الأمان" التي تتحدث عنها OpenAI إذا كان أحدث نماذجها يستشهد بمصدرٍ مثل جروكيبيديا، فلا تستخدموا ChatGPT ولا أي أداة ذكاء اصطناعي في مسائل حساسة!