تُعد شراكة ميكروسوفت وOpenAI من أشهر الشراكات في عالم التقنية في الأعوام الأخيرة؛ فقد استثمرت ميكروسوفت 13 مليار دولار في الشركة الناشئة خلال هذه الشراكة. وعلى إثر ذلك؛ دمجت ميكروسوفت نماذج وتقنيات OpenAI في كافة أدواتها وبرامجها؛ ما تسبب في وقتٍ لاحق بلفت الأنظار إلى ميكروسوفت على أنها قد تحتكر نماذج الشركة الناشئة لنفسها.

رفع الاتحاد الأوروبي قضية احتكار موجهه لميكروسوفت؛ إذ علل الاتحاد ذلك الاتهام بأن تلك الشراكة يمكن أن تمنح العملاقة الأمريكية أفضلية غير عادلة في الوصول إلى أحدث التقنيات. ومن جهتها؛ رفضت ميكروسوفت هذا الاتهام وصرحت بأنها ليس لديها حق التصويت في مجلس إدارة OpenAI، كما أنها لا تمتلك أي حصة في الشركة الناشئة.

ولكن منذ أيام؛ كشف تقرير لموقع "ذا إنترسبت The Intercept"؛ عن اقتراح شركة ميكروسوفت في أكتوبر 2023، استخدام أداة توليد الصور (DALL-E) التي طورتها شركة OpenAI لمساعدة وزارة الدفاع الأمريكية في تصميم برمجيات لتنفيذ العمليات العسكرية، وفقًا لمواد عرض تقديمي اتطلع عليها موقع ذا إنترسبت.

خدمة الذكاء الاصطناعي في حضرة البنتاجون

تُقدم وزارة الدفاع الأمريكية برنامجًا لمحو الأمية في مجال الذكاء الاصطناعي؛ وهو برنامج تعليمي شامل يهدف إلى تزويد موظفي وزارة الدفاع بالمعرفة والمهارات اللازمة لفهم وتطبيق تقنيات الذكاء الاصطناعي بفعالية في مهامهم وأدوارهم. ويشارك في هذا البرنامج العديد من الجهات المُحددة لمناقشة التحديات والفرص المتعلقة بتطبيق الذكاء الاصطناعي في المجال العسكري.

وتضمن الحدث مجموعة متنوعة من العروض التقديمية من شركات التعلم الآلي، حول ما يمكنهم تقديمه لوزارة الدفاع؛ وكشف التقرير عن مشاركة ميكروسوفت وOpenAI في ذلك العرض. ويأتي هذا الكشف بعد أشهر فقط من إنهاء OpenAI لحظرها المفروض على العمل العسكري دون إعلان رسمي وفي صمتٍ تام.

وعُثِر على الملفات التي كشف عنها تقرير ذا إنترسبت من خلال موقع Alethia Labs؛ وهي شركة استشارية غير ربحية تساعد الحكومة الفيدرالية في الاستحواذ على التكنولوجيا، وتعمل شركة Alethia Labs بشكلٍ وثيق مع البنتاجون، لتُقدم المساعدة في دمج أدوات الذكاء الاصطناعي بسرعة في ترسانته.

 موقع وزارة الدفاع الأمريكية - عن برنامج محو الأمية للذكاء الاصطناعي

ميكروسوفت تستعرض أدواتها للبنتاجون

في إحدى صفحات عرض ميكروسوفت التقديمي؛ تسلط الشركة الضوء على مجموعة متنوعة من الاستخدامات الفيدرالية "الشائعة" لنماذج OpenAI، والتي تتضمن وزارة الدفاع أيضًا. وأشارت إحدى النقاط ضمن "تدريب الرؤية الحاسوبية المتقدمة" إلى أنظمة إدارة المعارك باستخدام النموذج التوليدي الشهير DALL-E.

وتُعرَّف وظيفة هذا النظام؛ على أنها مجموعة برامج القيادة والتحكم التي توفر للقادة العسكريين نظرة عامة على "سيناريو القتال"؛ ما يسمح لهم بتنسيق أشياء مثل نيران المدفعية وتحديد أهداف الضربات الجوية وحركات القوات. يُشير ذكر "تدريب الرؤية الحاسوبية" إلى أن الصور المُولدة بواسطة DALL- E يمكن أن تساعد أجهزة الكمبيوتر الخاصة بالبنتاجون على "رؤية" الظروف في ساحة المعركة بشكلٍ أفضل، ما يُقدم أفضليةً في العثور على الأهداف وتدميرها.

لا يمكن بناء نظام لإدارة المعارك بطريقة لا تساهم، ولو بشكل غير مباشر، في إلحاق الضرر بالمدنيين. (بريانا روزين – باحثة بجامعة أكسفورد)

لم توضح ملفات العرض التقديمي كيف ستستخدم أنظمة إدارة المعارك DALL-E؛ ولكن فكرة "تدريب الأنظمة" تشير إلى إمكانية استخدام DALL-E لتزويد البنتاجون بما يسمى "بيانات التدريب الاصطناعية" وهي المشاهد التي تُنشئ صور اصطناعية واقعية لأهداف عسكرية محتملة؛ إذ يمكن للبرامج العسكرية المُصممة لاكتشاف الأهداف المعادية على الأرض أن تعرض كمية هائلة من الصور المزيفة لمهابط الطائرات أو أعمدة الدبابات. والتي ينشئها DALL-E من أجل التعرف بشكلٍ أفضل على هذه الأهداف في العالم الحقيقي.

وفي بيان أرسلته ميكروسوفت إلى ذا إنترسبت؛ قالت أنه برغم عرضها على البنتاجون استخدام DALL-E لتدريب أنظمة إدارة المعارك، إلا أنها لم تبدأ في القيام بذلك. وأخبرت ميكروسوفت الجهة الكاشفه عن التقرير أن عند استخدام البنتاجون للنموذج التوليدي للصور؛ فسيخضع ذلك للسياسات الخاصة بشركتها! إذ تروج ميكروسوفت علنًا للاستخدام العسكري لأدوات الذكاء الاصطناعي الخاصة بها. ولكن؛ هل تلك الأدوات خاصة بها حقًا؟

نموذج مبدئي لاستخدام الذكاء الاصطناعي في نظام إدارة المعارك

OpenAI تتنصل من دافع ميكروسوفت

قالت ليز بورجوا ،المُتحدثة باسم OpenAI، أن الشركة لم تشارك في عرض ميكروسوفت التقديمي، وأنها لم تبع أي أدوات لوزارة الدفاع وأشارت إلى أن سياسات OpenAI تحظر استخدام أدواتها لتطوير أو استخدام أسلحة أو إصابة الآخرين أو تدمير الممتلكات. وصرحت بأنه لا يوجد أي دليل على استخدام نماذج الذكاء الاصطناعي للشركة الناشئة في أي شراكات مع وكالات الدفاع الأمريكية، سواء لاستخدام واجهة برمجة التطبيقات الخاصة بالشركة أو نموذج ChatGPT لأغراض عسكرية.

يصف بيان صحفي صادر عن القوات الجوية في مارس تمرينًا حديثًا لنظام إدارة المعارك على أنه يوفر " الفتك على سرعة نقل البيانات".

وسارعت OpenAI بعد تغيير سياستها، التي كانت تحظر التعاون مع أي جهات عسكرية، إلى التأكيد للصحافة على أن تعاونها مع الجيش ذا طبيعة دفاعية وسلمية! وأكدت نائب رئيس الشؤون العالمية في OpenAI ،آنا مكانجو، أن عمل الشركة العسكري يركز على تطبيقات مثل مبادرات الأمن السيبراني والوقاية من إقدام المحاربين القدامى على الانتحار، وصرحت بأن أدوات تعلم الآلة الرائدة في الشركة "لا تزال" ممنوعة من التسبب في الأذى والدمار.

وتعقيبًا؛ قالت هيدي خلاف، مهندسة سلامة الذكاء الاصطناعي سابقًا لدى OpenAI، أن دقة نموذج DALL-E وقدرته على معالجة البيانات بدقة، تتدهور في كل مرة يُدرَّب فيها على محتوى مُنشأ بواسطة الذكاء الاصطناعي. وأشارت إلى أن صور نموذج الصور التوليدي بعيدة تمامًا عن الدقة ولا تولد صورًا تعكس الواقع المادي حتى عن قرب؛ حتى لو ضُبطت بدقة على مدخلات نظام إدارة المعارك.

وأكملت خلاف أن DALL-E لا يمكنه توليد عدد صحيح من الأطراف أو الأصابع، فكيف يمكن الاعتماد عليه فيما يتعلق بالتواجد الميداني الواقعي؟ وقالت أن استخدام النموذج في أنظمة أخرى؛ مثل تخطيط العمليات العسكرية أو تقييمات ساحة المعركة سيؤثر في النهاية على مكان نشر الأسلحة أو تنفيذ المهام.

قد يجادل البعض أن المُساعد في صنع السلاح أو تدريب مطلق النار ليس مسؤول عن عواقب استخدامه. لكن هذا التمييز مضلل، فالمساهمة في التحضير للقتال، حتى لو كانت مجرد توفير بيانات تدريب اصطناعية، هي في جوهرها مشاركة في القتال نفسه.