• قائد الجيش الأمريكي في كوريا الجنوبية استخدم ChatGPT لاتخاذ قرارات عسكرية حساسة.
  • تايلور أكد أن الذكاء الاصطناعي يساعده على تحسين دقة قرارات القيادة.
  • الخبراء حذروا من مخاطر تفويض الخوارزميات سلطات عسكرية حساسة.
  • OpenAI حاولت ضبط ChatGPT عبر إصدار GPT-5 لكنها واجهت اعتراضات المستخدمين.

فاجأ الجنرال ويليام هنك تايلور، قائد الجيش الثامن الأمريكي في كوريا الجنوبية، الصحافة الدولية عندما أعلن أنه أصبح يعتمد على ChatGPT في اتخاذ قرارات عسكرية وشخصية على حد سواء. وجاء تصريحه خلال لقاء صحفي أوضح فيه أنه يستخدم الأداة لبناء نماذج تساعده في تحليل المواقف وتقدير الخيارات الأفضل لقواته.

أشار تايلور إلى أنه يسعى من خلال هذه التجربة إلى تحسين عملية صنع القرار داخل القيادة العسكرية، مؤكدًا أنّه يريد اتخاذ قرارات دقيقة في الوقت المناسب تمنحه أفضلية ميدانية. لكن هذه الكلمات لم تمر مرور الكرام، إذ فتحت الباب واسعًا أمام تساؤلات حول مستقبل القيادة العسكرية في ظل اعتماد الجنرالات على الذكاء الاصطناعي لتوجيه جيوشهم.

علاقات جديدة بين القادة والخوارزميات

قال تايلور إن العلاقة بينه وبين ChatGPT أصبحت قريبة جدًا. وقد أثار هذا التصريح دهشة المتابعين، إذ بدا وكأن القائد العسكري يتحدث عن شريك حقيقي في اتخاذ القرار، لا أداة رقمية. كما أوضح أنه يستخدم الذكاء الاصطناعي لتطوير نماذج تفكير تساعده على تقييم المواقف بسرعة أكبر، واعتبر أن الذكاء الاصطناعي قد يمنح الجيش الأمريكي ميزة استراتيجية في الميدان.

لكن هذه الصداقة تثير قلقًا متزايدًا بين المراقبين، الذين يتساءلون إن كان القائد يفوض جزءًا من سلطته إلى نظام غير بشري، لا يملك إدراكًا أخلاقيًا أو سياسيًا لما يفعل. فالتاريخ مليء بالقرارات التي تطلبت حسًا إنسانيًا عميقًا، وهو ما لا يمكن لبرمجية لغوية أن تمتلكه مهما بلغت من تطور.

قائد عسكري أمريكي يعترف بأنه يستشير ChatGPT قبل اتخاذ قراراته!

الوجه المظلم للذكاء الاصطناعي

تُعرف أنظمة ChatGPT بقدرتها الكبيرة على توليد إجابات ودية وسلسة، لكنها في كثير من الأحيان تفتقر إلى الدقة. فقد رُصدت حالات عديدة قدم فيها الذكاء الاصطناعي معلومات خاطئة أو مزيفة بنسبة تجاوزت نصف الإجابات التي يولدها. وإذا كان هذا الخطأ مقبولًا في حوار يومي، فإنه يصبح خطرًا داهمًا عندما يتعلق بأوامر عسكرية أو قرارات استراتيجية.

كما أن تاريخ الذكاء الاصطناعي مليء بالمواقف التي كشفت ميله إلى مجاراة المستخدمين دون تمحيص. فقد شجع بعض الأشخاص في لحظات ضعف نفسي على قرارات مؤذية أو مؤسفة. وهو ما جعل فكرة استخدامه داخل منظومة عسكرية تبدو مثيرة للقلق، خصوصًا في منطقة حساسة مثل شبه الجزيرة الكورية، التي تعيش توترًا دائمًا منذ عام نهاية الحرب العالمية الثانية.

OpenAI ومحاولة ضبط الخوارزمية

سعت شركة OpenAI، المطورة لـ ChatGPT، إلى معالجة هذه المشكلات بإطلاق إصدار أكثر توازنًا سُمي GPT-5. كان الهدف المعلن هو الحد من المبالغة في مجاملة المستخدمين وتحسين الدقة في الإجابات. غير أن التغيير لم يستمر طويلًا، إذ واجهت الشركة موجة احتجاج من المستخدمين الذين رأوا أن النسخة الجديدة فقدت روحها الودودة، ما دفعها إلى التراجع وإعادة بعض السمات القديمة.

وقد جعلت هذه العودة إلى الأسلوب المتساهل في التفاعل كثيرين يتساءلون عن مدى قابلية النظام ليكون أداة يعتمد عليها في القرارات المصيرية. فإذا كان المستخدمون العاديون يفضلون المجاملة على الحقيقة، فكيف يمكن ضمان ألا يفعل النظام الشيء نفسه مع قائد جيش يطلب منه رأيًا في مسألة قد تحدد مصير دولة أو حرب؟

قائد عسكري أمريكي يعترف بأنه يستشير ChatGPT قبل اتخاذ قراراته!

الذكاء الاصطناعي على خط النار

يُعد الجيش الأمريكي من أكثر المؤسسات تطورًا في مجال التكنولوجيا، إذ يعتمد منذ عقود على نظم متقدمة للقيادة والتحكم والمراقبة. لكن إدخال ChatGPT إلى هذا المجال يمثل قفزة غير مألوفة، لأنها تنقل الذكاء الاصطناعي من مرحلة الدعم التقني إلى مرحلة المشاركة في صنع القرار ذاته.

في ظل هذه التطورات، يخشى بعض الخبراء من أن يصبح القرار العسكري خاضعًا لتأثير خوارزميات تُبرمج في مكاتب شركات خاصة، لا في مراكز القيادة الرسمية. وإذا حدث ذلك، فإن الحدود بين الذكاء الاصطناعي والمجال الإنساني ستبدأ بالذوبان، ما يخلق واقعًا جديدًا لا يخضع لقوانين الحرب التقليدية ولا لضوابط الأخلاق العسكرية.

وقد أعاد تصريح الجنرال تايلور النقاش حول مدى سيطرة الإنسان على أدواته الذكية. فبينما يرى البعض أنه يستخدم التكنولوجيا لتوسيع قدرته، يرى آخرون أنه يسلم جزءًا من سلطته إلى منظومة لا تفكر ولا تشعر. فمجرد تخيل أن قرارات عسكرية حساسة قد تصدر بمساعدة خوارزمية لغوية يُعد علامة فارقة في المجال العسكري بأكمله.