شهدت منصات التواصل الاجتماعي جدلًا واسعًا بين المستخدمين بعد توقيع شركة OpenAI اتفاقًا مع وزارة الحرب الأمريكية، الأمر الذي دفع عددًا متزايدًا من مستخدمي ChatGPT إلى البحث عن بدائل أخرى. أعلنت الشركة عن الاتفاق يوم الجمعة الماضي، موضحةً أن هذه الخطوة جاءت لتوفير أدوات الذكاء الاصطناعي للجيش الأمريكي ضمن أنظمته السرية، مع الالتزام بالإرشادات والقوانين الخاصة بالاستخدام الآمن للتقنية.

  • تصاعدت مقاطعة ChatGPT بعد صفقة OpenAI مع البنتاجون.
  • ارتفعت دعوات حذف التطبيق عبر Reddit و X.
  • صعد تطبيق Claude لصدارة متجر Apple للتطبيقات المجانية.
  • أكدت OpenAI التزامها بضوابط السلامة والاستخدام المسؤول.

تصاعد مقاطعة ChatGPT

أكد الرئيس التنفيذي لشركة OpenAI، سام ألتمان، أن الاتفاق يتيح للبنتاجون استخدام أدوات الذكاء الاصطناعي الخاصة بالشركة ضمن الأنظمة المصنفة، مشيرًا إلى أن وزارة الحرب تظهر احترامًا عميقًا للسلامة وتلتزم بالضوابط اللازمة لمنع إساءة استخدام التكنولوجيا. وأوضح ألتمان أن الشركة تضع مبدأين أساسيين للسلامة، يتمثل الأول في منع المراقبة الجماعية المحلية، والثاني في ضمان مسؤولية البشر عن استخدام القوة بما يشمل الأنظمة المسلحة المستقلة.

أثار إعلان مقاطعة ChatGPT ردود فعل واسعة بين مجتمع مستخدمي التطبيق، حيث ارتفعت دعوات المقاطعة على منصات التواصل الاجتماعي ومنتديات النقاش. نشر أحد أبرز المشاركات في مجتمع r/ChatGPT على Reddit الذي يضم نحو 11 مليون عضو، دعوة صريحة لإلغاء الاشتراكات والانتقال إلى منافس OpenAI، Claude.

أشار المنشور إلى أن الشركة اختارت التمويل العسكري على المبادئ التي تأسست عليها، مع التشديد على إمكانية نقل جميع البيانات والمشاريع إلى المنصة المنافسة.

في المقابل، علق الرئيس التنفيذي لشركة Anthropic، داريو أمودي، على موقف شركته من التعاون مع وزارة الحرب الأمريكية، مؤكدًا أن Anthropic لا تستطيع الاستجابة لطلب الحكومة الأمريكية مع الاحتفاظ بضمير الشركة، محذرًا من أن الحكومة كانت على وشك تصنيف الشركة كـ «خطر» على سلسلة الإمداد، وهو تصنيف مخصص عادة للخصوم الدوليين ولم يُطبق على شركات أمريكية من قبل.

أدى موقف Anthropic إلى جذب اهتمام المستخدمين نحو منصتها، حيث صعد تطبيق Claude إلى صدارة قوائم التطبيقات المجانية على متجر Apple، متجاوزًا ترتيب ChatGPT. يعكس هذا التحول زيادة وعي المستخدمين بمسألة استخدام الذكاء الاصطناعي في التطبيقات العسكرية ومدى التزام الشركات بالمبادئ الأخلاقية في التعامل مع البيانات والتقنيات الحساسة.

تصاعد مقاطعة ChatGPT وزيادة حذف التطبيق بعد صفقة OpenAI مع البنتاجون

مقاطعة ChatGPT والمسؤولية الأخلاقية

أوضح الخبراء أن اتفاق OpenAI مع البنتاجون يأتي ضمن إطار واسع لتزويد الجيش الأمريكي بأدوات الذكاء الاصطناعي، ويشمل توفير حلول لتحليل البيانات، دعم اتخاذ القرارات الاستراتيجية، وتعزيز قدرات الأنظمة العسكرية المتقدمة. ورغم تأكيد الشركة على وجود ضمانات صارمة، إلا أن كثيرين من المستخدمين رأوا أن الصفقة قد تؤثر على سمعة الشركة ومصداقيتها لدى جمهورهم الأساسي.

تضمنت التصريحات الرسمية تأكيدًا على أن الاتفاقية تتضمن التزامات واضحة تجاه الاستخدام الآمن للتكنولوجيا، بما يشمل منع الاستخدام غير القانوني للمراقبة الجماعية أو الأنظمة المسلحة المستقلة دون إشراف بشري مباشر. أشار ألتمان أيضًا إلى أن وزارة الحرب وافقت على هذه المبادئ ودمجتها في القانون والسياسات المعتمدة، ما يعكس التزامها بالضوابط الأخلاقية والأمنية للتقنية.

أدى إعلان OpenAI إلى حراك واسع على وسائل التواصل الاجتماعي، حيث شهدت منصات مثل Reddit و X مشاركة الآلاف من التعليقات والآراء حول الصفقة، والتي دعت إلى مقاطعة ChatGPT. كما انتقل جزء كبير من المستخدمين إلى تطبيقات منافسة، في مقدمتها Claude، مستفيدين من قدرة نقل المشاريع والبيانات بسهولة، وهو ما ساهم في زيادة قاعدة مستخدمي المنصة المنافسة بشكل سريع خلال الأيام الأخيرة.

يُعد هذا التحول أحد أبرز الأمثلة على تأثير قرارات الشركات التقنية الكبرى على سلوك المستخدمين، خاصة في القضايا المتعلقة بالأخلاقيات العسكرية والتكنولوجيا. وقد أصبح مستوى الالتزام بالسلامة والمسؤولية البشرية عن استخدام القوة معيارًا أساسيًا لدى المستخدمين في تقييم الثقة بالشركات ومنتجاتها، ما يفرض تحديات مستمرة على OpenAI لضمان استمرارية قاعدة مستخدميها وسط بيئة متغيرة من المنافسة والانتقادات.

في رأيي، أعتقد أن التطورات الأخيرة أظهرت أن السوق يتأثر مباشرة بالمواقف الأخلاقية للشركات، وأن الانحياز إلى التمويل العسكري قد يؤدي إلى هجرة المستخدمين إلى منصات أكثر التزامًا بالمبادئ التي يؤمنون بها. وأتوقع أن تستمر دعوات مقاطعة ChatGPT، مع استمرار مراقبة المستخدمين الدقيقة لتطبيق التوازن بين الابتكار التكنولوجي والمسؤولية الأخلاقية.