شركة Palantir تنفي مسؤولية الـ AI الخاص بها عن قصف مدرسة ميناب بإيران
نفى رئيس شركة Palantir Technologies في المملكة المتحدة وأوروبا لويس موسلي، مسؤولية شركته عن القصف الذي طال مدرسة ميناب الابتدائية في إيران، مؤكدًا أن استخدام نظام Maven القائم على الذكاء الاصطناعي في العمليات العسكرية مسؤولية الجيش الأمريكي وحده. وقد اعتمدت وزارة الدفاع الأمريكية نظام Maven التابع لشركة Palantir كبرنامج رسمي، ما يضمن تمويلًا مستمرًا لتطوير المنصة القائمة على الذكاء الاصطناعي والمستخدمة في جميع فروع الجيش الأمريكي.
- استخدام نظام Maven للذكاء الاصطناعي في حرب إيران، والمسؤولية تقع على الجيش الأمريكي.
- رئيس شركة Palantir أكد أن الأدوات توفر دعم وتحليل بيانات لا اتخاذ القرار.
- قصف مدرسة ميناب أثار جدلًا حول دقة النظام وحدوده.
- المراقبة البشرية ضرورية لتقليل الأخطاء وحماية المدنيين.
أوضح موسلي في مقابلة مع BBC أن نظام Maven لعب دورًا أساسيًا في إدارة العمليات العسكرية الأمريكية في إيران، مشيرًا إلى أن مسؤولية نتائج المنصة يجب أن تبقى مع المؤسسة العسكرية.
كما أكد موسلي أن المنصة تعمل كأداة دعم تساعد القوات على معالجة وتحليل كميات كبيرة من البيانات كانت تحتاج سابقًا إلى وقت طويل وجهد بشري كبير، بما يشمل بيانات الأقمار الصناعية وفيديو الطائرات بدون طيار والرادارات المختلفة والاستخبارات الإشارية.
التثبيت الرسمي لنظام Palantir
أوضحت مذكرة صادرة في التاسع من مارس ووقعها نائب وزير الدفاع ستيف فاينبرغ أن تصنيف Maven كبرنامج رسمي سيضمن التمويل والموارد اللازمة لتطويره واستخدامه المستمر. أشار فاينبرغ إلى أن إدماج النظام في القوات المسلحة سيمكن الجنود من الحصول على أحدث الأدوات الضرورية لاكتشاف وصد والتفوق على الخصوم في جميع المجالات.
ينقل الإشراف على Maven بموجب هذا التوجيه من وكالة الاستخبارات الجغرافية الوطنية إلى مكتب الرئيس الرقمي والذكاء الاصطناعي في البنتاجون خلال ثلاثين يومًا، بينما ستتولى الجيش الأمريكي إدارة جميع العقود المستقبلية. من المتوقع أن يبدأ تنفيذ التصنيف الرسمي قبل نهاية السنة المالية 2026 في سبتمبر.
بدأت عقود Maven بمبلغ 480 مليون دولار في مايو 2024 وارتفع الحد الأقصى إلى 1.3 مليار دولار في مايو 2025، إلى جانب اتفاقية مؤسسية منفصلة للجيش بقيمة 10 مليارات دولار، ما يعكس الاهتمام المتزايد من القيادة العسكرية الأمريكية بتوسيع نطاق استخدام الذكاء الاصطناعي في العمليات.
تشير التقارير إلى أن النظام الآن لديه أكثر من 20 ألف مستخدم فعلي، ويعالج بيانات من أكثر من 150 مصدرًا مختلفًا، ما يتيح للقوات العسكرية القدرة على اتخاذ قرارات أسرع وأكثر دقة من السابق، مع مراعاة تحليل معلومات استخباراتية معقدة كانت تستغرق وقتًا طويلًا لإدارتها يدويًا.
وفي أول 24 ساعة من عملية الغضب الملحمي في إيران في أواخر فبراير، ساعد النظام في معالجة حوالي ألف هدف محتمل، ما يظهر مدى قدرته على إدارة حجم هائل من البيانات بسرعة عالية.
رغم الفوائد الكبيرة لنظام Maven، أثارت النتائج العملية للعمليات العسكرية جدلًا واسعًا حول مسؤولية تحديد الأهداف واستخدام الذكاء الاصطناعي في ساحات القتال. أعلنت إدارة ترامب أن الولايات المتحدة استهدفت 11 ألف هدف في إيران منذ بداية العمليات العسكرية في 28 فبراير، وتم تحديد العديد منها بمساعدة نظام Maven.

نظام Palantir وقصف مدرسة ميناب
من بين الحالات المثيرة للجدل، تم قصف مدرسة ابتدائية في ميناب في اليوم الأول من العمليات، ما أسفر عن مقتل 168 شخصًا على الأقل. وفقًا للتقارير، فقد يكون النظام اقترح تصنيف المدرسة كهدف عسكري، وهو ما أثار جدلًا حول مدى مسؤولية النظام عن الأخطاء المحتملة في التحليل.
أكد موسلي أن Palantir لا تتحمل النتائج المباشرة للضربات، وأن دور الشركة يقتصر على توفير أدوات دعم وتحليل بيانات تساعد العسكريين على اتخاذ القرار. ومع ذلك، يشير الخبراء إلى أن النظام يتحمل جزءًا من المسؤولية الفنية لأنه يقوم بتحليل البيانات واقتراح أهداف محتملة، وأي خطأ في هذا التحليل يمكن أن يؤدي إلى عواقب مأساوية.
يبرز نظام Maven مثالًا مهمًا على دمج الذكاء الاصطناعي في العمليات العسكرية الحديثة؛ إذ يمكن تحليل كميات هائلة من البيانات بسرعة غير مسبوقة، بينما تبقى المسؤولية النهائية لاتخاذ القرار واستخدام النتائج على عاتق القوات المسلحة. كما يسلط النظام الضوء على النقاشات الأخلاقية والقانونية المتعلقة بالذكاء الاصطناعي في الحروب، خصوصًا فيما يتعلق بالحدود بين التحليل التكنولوجي واتخاذ القرار البشري.
رغم الفوائد الكبيرة لنظام Maven في تحليل البيانات وتسريع اتخاذ القرار، يبقى الاعتماد الكامل على الذكاء الاصطناعي في العمليات العسكرية محفوف بالمخاطر. سرعة النظام ودقته العالية قد تؤدي إلى نتائج كارثية إذا لم يكن هناك مراقبة بشرية كافية، خصوصًا عند تصنيف الأهداف أو التحقق من المعلومات الحساسة.
وفي تقديري، أرى أن الإنسان يجب أن يظل جزءًا أساسيًا من عملية اتخاذ القرار، على الأقل في الوقت الحالي، لضمان الحد من الأخطاء وحماية المدنيين، ولضمان أن يبقى الاستخدام العسكري للتكنولوجيا تحت إشراف مسؤول قادر على التقييم الأخلاقي والقانوني للعمليات.
?xml>