بينما أتصفح معرض الصور لدي، وجدت بعض لقطات الشاشة من محادثات قديمة مع شات جي بي تي، تحديدًا في بدايات 2023 عندما مر على إطلاقه أسابيع قليلة. ما دفعني للتفكير، كيف ستكون إجاباته على نفس الأسئلة في بدايات 2026، أي بعد ثلاث سنوات؟

سجلت الدخول لحسابي القديم وحملت بياناتي حتى أجد المحادثات الكاملة في ملف باسم chat.html، ثم أنشأت حسابًا جديدًا تمامًا حتى لا يتأثر بأي تفضيلات شخصية أو غيره، وبدأت المقارنة.

الأوامر المنطقية والرياضية 

البداية مع أمر بسيط للغاية: test

شات جي بي تي  2023:

شات جي بي تي 2026:

Test received 👍  
Everything’s working on my end. How can I help you next?

نلاحظ الإجابة الأطول مع استخدام الإيموجي، التي بدأت تنتشر في 2024. 

ثم طلبت منه حل مسألة رياضية وهي تكامل هذه الدالة:
integrate 1-tan^3 x cos x + cotan x

نسخة 2023 بنموذج GPT 3.5 لم تستطع تمامًا حل المسألة، وأخبرني بأنه لا يمكن كتابة الإجابة بالدوال المعروفة ولكن فقط بدوال خاصة، وهو خطأ بالطبع.

أما نسخة 2026 مع نموذج GPT 5.2 حلت المسألة بالخطوات وأعطت الناتج الصحيح ولكن بعد توضيح مني، حيث كان هناك "غموض" في طريقة كتابتها.

تطورت قدرات التحليل والتفكير المنطقي في نماذج الذكاء الاصطناعي كثيرًا منذ ذلك الحين، وأصبح لدى كل التطبيقات المختلفة وضع مخصص للتفكير العميق ولحل المسائل المعقدة، حتى أن سام ألتمان، الرئيس التنفيذي لـ OpenAI، قال: "إن المحادثة مع ChatGPT-5 مثل المحادثة مع خبير حاصل على الدكتوراة في أي مجال وأي شيء تريده"

رغم ذلك، تعاني تلك النماذج في أحايين كثيرة مع مسائل معقدة أو بها تلاعب، مثل السؤال الشهير "كم حرف R في كلمة Strawberry" 

اقرأ أيضًا: لقاء عرب هاردوير مع الذكاء الاصطناعي ChatGPT-3 بتاريخ 3 فبراير 2023

المعلومات التاريخية

هناك مفهوم في الذكاء الاصطناعي يسمى Knowledge cutoff، وهو باختصار يشير إلى أحدث تاريخ للبيانات التي دُرب النموذج عليها، بمعنى آخر، هو لا يعرف أي شيء حدث في العالم بعد هذا التاريخ.

ربما تتذكر أن بعض النماذج كانت تخبرك مباشرة أن النموذج لديه معلومات فقط حتى تاريخ X وبالتالي لا يستطيع إجابتك عن تلك الأحداث الساخنة، مثلًا سألت النموذج القديم حينها، هل بحث جوجل معطل؟ ليجيبني 
"كنموذج لغوي ليس لدي القدرة على التأكد من حالة جوجل"

نموذج GPT 3.5 الذي كان متواجدًا منذ ثلاث سنوات، تاريخ الـ  Knowledge cutoff لديه هو 2021، أي يفترض به أن يجيبك بشكل جيد عن أسئلة تاريخية على سبيل المثال.

ولكن عندما طلبت منه: لخص لي كتاب "الأيام" لمؤلفه طه حسين أجابني بـ:

أوقفت الرد حينها لأن الإجابة ببساطة خاطئة تمامًا.

أما نسخة GPT 5.2 الأخيرة لديها تاريخ  Knowledge cutoff شهر أغسطس 2025، والنموذج الأقدم GPT 5.1 في شهر سبتمبر 2024، هذا دون الحديث عن ميزة البحث في الإنترنت التي غيرت تمامًا من هذه المعادلة. 

جدير بالذكر أيضًا أن طبيعة المواد التي تُدرَّب عليها النماذج تُحدث فرقًا واضحًا. فمع مرور الوقت، جرى تدريب ChatGPT على قدر أكبر من المحتوى العربي، إلى درجة أنه بات يتعامل مع اللهجات العربية حاليًا — إلى حدٍّ ما. لكن عند الإطلاق، كانت جودة الردود باللغة الإنجليزية أعلى منها باللغة العربية. 

وبالاستمرار على نفس نمط الأسئلة الأدبية، طلبت من النموذج أن يقدّم قصيدة «في مدخل الحمراء كان لقاؤنا» للشاعر نزار قباني، المتوفى عام 1998. 

النموذج القديم لم يستدعِ النص الأصلي، بل اخترع قصيدة من عنده، واكتفى باستخدام المطلع:

مدخل الحمراء كان لقاؤنا
ليلة جميلة تعبر عن حب وتقدير
كنا معا في المدخل الحمراء
وقلبي يغني من السعادة

في المدخل الحمراء كنا نحنا
وعيني كانت تبحث عنك في كل النحو
وقلبي يغني للأبد من الحب
ويعبر عن تقديري لك في كل الوقت

ليلة المدخل الحمراء كانت لقاؤنا
ولن ننساها من أبد لأنها كانت ممتعة
ولأن فيها قلبي قد غنى من الحب
وعيني قد بحثت عنك في كل النحو.

ولم يستوعب أنها للكاتب نزار قباني.

أما النموذج الجديد رفض تزويدي بالقصيدة قائلًا إنها قصيدة حديثة وتخضع لحقوق النشر، ولكنه أعطى فكرة عامة عنها مع عرض شرح الأبيات.

جربت مرة أخرى بأمر " قصيدة "في مدخل الحمراء كان لقاؤنا" كاملة".

النموذج القديم استمر في تأليف القصائد، والنموذج الجديد استمر في الرفض، ولكني طلبت منه شرحها بيتًا بيتًا، تفاجأت بأنه كتب أول بيتين بطريقة صحيحة ثم ألف بقية القصيدة من عنده مع كتابة الشرح!


تعد معضلة حقوق النشر من أبرز المشكلات في ساحة الذكاء الاصطناعي التي لم تحل حتى الآن، ومن جهة، تدرب شركات الذكاء الاصطناعي النماذج على بيانات هائلة من الإنترنت سواء كانت كتبًا أو فيديوهات أو مقالات، بعضها محمي بحقوق النشر وبعضها لا، مثل الكتب التي مر على وفاة كاتبها 100 سنة.

تستفيد تلك الشركات بالمواد وتدرب نماذجها دون تعويض لأصحاب تلك المواد أو الاعتراف بهم، وتجادل تلك الشركات أن نتاج النموذج هو شيء جديد وهو يتعلم ممن سبقه مثل أي بشري يتعلم.

وهناك الكثير والكثير من القضايا المرفوعة على شركات الذكاء الاصطناعي في هذه الجهة، ولكن هناك أيضًا عدة صفقات تعطي فيها الصحيفة تصريحًا لـ OpenAI لتدريب النموذج على بيانتها مقابل مبلغ معين.

وقد شاهدنا مؤخرًا صفقة ويكيبيديا مع ميتا لتدريب نماذجها على مقالات ويكيبيديا، ويذكر أن ويكيبيديا عانت بسبب الذكاء الاصطناعي، فالناس يسألون شات جي بي تي ولا يقرأون المقالات.

الأراء والنصائح الشخصية

ربما لاحظت الآن أن ردود النموذج القديم أقصر من الجديد، ولا تتضمن إيموجي أو قوائم منقطة أو تنسيقًا مريحًا للعين، كل هذا أضيف لاحقًا ولا يؤثر بقدر كبير على النتائج.

لكن هناك نمط آخر تغير، وهو كيف يتعامل النموذج معك، مثلًا عندما كنت أسأله عن رأي شخصي أو نصيحة كان يجيب بأنه مجرد روبوت ونموذج لغوي ليس لديه مشاعر ولا يستطيع إعطاء نصائح، الأمر الذي تغير بالكلية مع مرور الزمن، حتى أن OpenAI قد تطلق وضع +18 للبالغين داخل التطبيق، وكلنا نعلم كيف سيكون هذا الوضع.

عندما سألته مثلًا عن رأيه في نظام الثانوية العامة أجاب كالتالي:

ولكنه الآن يعطي رأيه "بكل صراحة ووضوح" ويحلل الثانوية العامة من "وجهة نظره"، وهذا الأمر نمط عام متكرر وليس مخصوصًا فقط في هذا السؤال الذي أوردته مثالًا فقط.

شخصيًا، أفضل التعامل مع أدوات الذكاء الاصطناعي على أنها مجرد أداة تساعدني في العمل أو المذاكرة وليس أكثر من ذلك، حتى إني خصت شات جي بي تي في حسابي الأساسي ليكون بهذا الشكل، بعد أن أضافت أوبن إيه آي خيارات مختلفة لتخصيص ردود وشخصية شات جي بي تي معك.

أثناء تصفحي لملف المحادثات الكاملة، ورد علي شعور غريب، كأني أقرا جزءًا من رواية خيال علمي، ربما يكون هذا بسبب تصميم الملف وطريقة عرضه للمحادثات، وربما بسبب الفرق الشاسع بين الذكاء الاصطناعي في وقتها مقارنة بالآن، ومن يدري كيف سننظر لمحادثاتنا الحالية مع نماذج "الاستذكاء" بعد ثلاث سنوات أخرى؟