موظفو OpenAI وجوجل يوقعون عريضة ضد الاستخدام العسكري للذكاء الاصطناعي
وقع موظفون حاليون وسابقون في شركتي OpenAI وGoogle عريضة مشتركة تحذر من تسليم تقنيات الذكاء الاصطناعي إلى وزارة الدفاع الأمريكية دون ضوابط واضحة. دعا الموقعون إلى منع استخدام نماذج الذكاء الاصطناعي في المراقبة واسعة النطاق أو في أسلحة قادرة على القتل من دون إشراف بشري مباشر، مؤكدين ضرورة وضع حدود تنظيمية صارمة قبل أي تعاون عسكري موسع.
- موظفو OpenAI وجوجل يوقعون عريضة ضد الاستخدام العسكري للذكاء الاصطناعي.
- أكثر من 220 موظفًا انضموا إلى المبادرة المشتركة.
- العريضة تحذر من المراقبة الواسعة والأسلحة ذاتية التشغيل.
- ضغوط حكومية باستخدام قانون الإنتاج الدفاعي تثير جدلًا قانونيًا.
تفاصيل عريضة موظفو OpenAI وجوجل
حملت العريضة عنوان «نحن لن ننقسم»، وفتحت باب التوقيع أمام الموظفين الحاليين والسابقين في الشركتين، مع إتاحة خيار عدم كشف الهوية بعد التحقق من الصفة الوظيفية. بلغ عدد الموقعين حتى يوم الجمعة أكثر من 220 موظفًا، بينهم 176 من Google و47 من OpenAI. يأتي ذلك في وقت تضم فيه Google نحو 187 ألف موظف عالميًا حتى منتصف عام 2025، بينما يقدر عدد موظفي OpenAI بالآلاف.
أشارت العريضة إلى أن وزارة الدفاع هددت باستخدام قانون الإنتاج الدفاعي للضغط على شركة Anthropic من أجل إتاحة نموذجها للذكاء الاصطناعي للاستخدام العسكري، مع احتمال تصنيفها خطرًا على سلاسل الإمداد إذا رفضت الامتثال. كما ذكرت أن البنتاجون يجري مفاوضات أيضًا مع Google وOpenAI سعيًا للحصول على موافقة مماثلة، بعد أن أبدت Anthropic تحفظات على الشروط المطروحة.
جاءت هذه التطورات عقب تقرير نشره موقع أكسيوس أفاد بأن وزير الدفاع الأمريكي بيت هيجسيث حدد مهلة لرئيس Anthropic التنفيذي داريو أمودي لمنح الجيش الأمريكي صلاحيات واسعة للوصول إلى نموذج الشركة. ونقل التقرير عن مسؤول في وزارة الدفاع قوله إن الحاجة إلى هذه التقنيات ملحة، مشيرًا إلى المستوى المتقدم الذي بلغته نماذج الذكاء الاصطناعي لدى الشركات المعنية.
وصف هيجسيث خلال زيارة إلى شركة SpaceX المملوكة لإيلون ماسك تطوير الذكاء الاصطناعي بأنه سباق تسلح في زمن حرب، داعيًا إلى تسريع نشر النماذج المتقدمة للاستخدام العسكري. وأكد أن الوزارة لن تعتمد نماذج تضع قيودًا تحول دون استخدامها في العمليات القتالية.
أعلنت Anthropic في تدوينة رسمية أنها لن تسمح باستخدام تقنياتها في مراقبة الأمريكيين على نطاق واسع أو في تشغيل أسلحة تعمل ذاتيًا من دون إشراف بشري. وأوضحت أن سياساتها الحالية تضع حدودًا واضحة على مجالات الاستخدام، بما يتماشى مع رؤيتها المتعلقة بسلامة الذكاء الاصطناعي ومسؤوليته.

الذكاء الاصطناعي والاستخدام العسكري
اعتبرت العريضة أن أسلوب الضغط المتبع يقوم على محاولة التعامل مع كل شركة على حدة، بما يخلق انقسامًا في المواقف. رأى الموقعون أيضًا أن إعلان موقف جماعي يسهم في توضيح حدود القبول داخل القطاع التقني، ويعزز التضامن في مواجهة ما وصفوه بضغوط حكومية متزايدة. كما أعربوا عن أملهم في أن تتبنى إدارات شركاتهم موقفًا موحدًا يرفض الاستخدامات المتعلقة بالمراقبة الداخلية الواسعة أو القتل الذاتي من دون إشراف بشري.
أثار التهديد باستخدام صلاحيات الطوارئ المرتبطة بالأمن القومي نقاشًا واسعًا حول حدود تدخل الدولة في قطاع التكنولوجيا. اعتبر خبراء أن اللجوء إلى قانون الإنتاج الدفاعي في سياق الذكاء الاصطناعي يمثل سابقة ذات أبعاد قانونية وتنظيمية معقدة.
أفاد دين بول، المستشار السابق في مكتب سياسات العلوم والتكنولوجيا في البيت الأبيض والزميل في مؤسسة الابتكار الأمريكي، بأن الوضع يدخل منطقة غير مسبوقة من حيث العلاقة بين الحكومة وشركات الذكاء الاصطناعي.
أشار بول إلى أن المخاطر المحتملة على Anthropic كبيرة، موضحًا أن الشركة قد تواجه سيناريوهات تصل إلى شبه تأميم أو ضغوط تؤثر على قدرتها على الاستمرار في السوق. ولفت إلى أن الرسالة التي قد تصل إلى بقية شركات التكنولوجيا تتمثل في أن التعامل مع الحكومة في مجالات حساسة قد ينطوي على مخاطر تنظيمية وتجارية مرتفعة.
تعكس هذه التطورات توترًا متصاعدًا بين متطلبات الأمن القومي الأمريكي وتساؤلات أخلاقية وتقنية حول حدود استخدام الذكاء الاصطناعي. يأتي ذلك في ظل تسارع سباق تطوير النماذج المتقدمة، وتزايد اهتمام المؤسسات العسكرية بتوظيفها في مجالات التحليل والاستخبارات والدعم اللوجستي وأنظمة الأسلحة.
أرى أن تلك العريضة تضع إدارة كل من OpenAI وGoogle أمام معادلة دقيقة تجمع بين الالتزامات التجارية والضغوط الحكومية وتوقعات الموظفين والرأي العام. كما تفتح باب النقاش داخل القطاع التقني بشأن طبيعة العلاقة المستقبلية مع المؤسسات الدفاعية، وحول الإطار التنظيمي الذي ينبغي أن يحكم استخدام تقنيات قادرة على إحداث تأثير واسع النطاق.
?xml>