أعلنت شركة OpenAI عن توقيع اتفاقية مع الإدارة التنفيذية للحكومة الأمريكية تتيح لأكثر من مليوني موظف فيدرالي استخدام أدوات ChatGPT المتقدمة مقابل تكلفة رمزية لا تتجاوز دولارًا واحدًا لكل وكالة حكومية لمدة عام كامل.

يأتي هذا الإعلان بعد يوم واحد فقط من توقيع إدارة الخدمات العامة الأمريكية على اتفاقية أوسع تسمح لشركات الذكاء الاصطناعي الكبرى مثل OpenAI وGoogle وAnthropic بتوفير أدواتها لموظفي الحكومة الفيدرالية.

مزايا متقدمة للموظفين الحكوميين

تتيح الاتفاقية للموظفين الحكوميين استخدام حسابات ChatGPT Enterprise، والتي توفر الوصول إلى النماذج الأكثر تقدمًا والتقنيات الحديثة بحدود استخدام عالية جدًا. صُممت هذه النسخة خصيصًا للجهات الكبرى كما أنها توفر مستويات خصوصية أعلى بكثير من النسخة المتاحة للمستهلكين العاديين.

يشمل العرض كذلك ميزات حصرية مثل Deep Research وAdvanced Voice Mode، وهي ميزات متطورة يحصل عليها الموظفون بشكل غير محدود لمدة 60 يومًا. وبعد انتهاء فترة العام التجريبي، لا تُلزم الوكالات الحكومية بتمديد الاتفاقية أو دفع أي التزامات مستقبلية.

تجربة أولية مع وزارة الدفاع

شهد الصيف الماضي تنفيذ تجربة محدودة داخل وزارة الدفاع الأمريكية، حيث استخدم عدد من موظفي الوزارة نسخة ChatGPT Enterprise ضمن برنامج تجريبي. ويبدو أن نتائج هذه التجربة كانت إيجابية بما يكفي لتوسيع نطاق التعاون ليشمل باقي الوكالات الفيدرالية.

من جهتها، وصفت شركة OpenAI هذا التعاون بأنه مساهمة في خدمة الصالح العام، مشيرة إلى أن هذا الاتفاق ينسجم مع أحد الأهداف الأساسية في خطة الذكاء الاصطناعي الخاصة بإدارة ترامب، والتي تهدف إلى تسخير أدوات الذكاء الاصطناعي لتقليل الأعمال الورقية والإدارية، وإتاحة المزيد من الوقت للموظفين للتركيز على خدمة المواطنين.

خطة ترامب للذكاء الاصطناعي

تسعى خطة ترامب الوطنية للذكاء الاصطناعي إلى توسيع مراكز البيانات المتخصصة في الذكاء الاصطناعي داخل أمريكا، وتمكين الموظفين الحكوميين من استخدام هذه التقنيات لتعزيز الكفاءة وتحسين جودة الخدمات.

ورغم أن OpenAI قدمت للوكالات الحكومية نماذج مخصصة لأغراض الأمن القومي، فإن الاتفاق الجديد لا يشير إلى أي التزام بتوفير نماذج معدلة لتفادي التحيزات الأيديولوجية، وهو ما يثير بعض التساؤلات في الأوساط السياسية.

ذكاء اصطناعي بلا توجهات سياسية؟

تواجه OpenAI تحديًا إضافيًا يتمثل في تعاطيها مع التوجه السياسي المحافظ للإدارة الأمريكية الحالية. فقد أصدرت إدارة ترامب مؤخرًا أمرًا تنفيذيًا بعنوان منع الذكاء الاصطناعي المستيقظ، ينص على ضرورة ألا تتضمن أدوات الذكاء الاصطناعي المشتراة من قبل الحكومة أي توجهات أيديولوجية، مثل الترويج لقيم التنوع والمساواة والشمول.

لطالما عبر المحافظون داخل الإدارة عن استيائهم من ما يعتبرونه تحيزًا يساريًا في ردود ChatGPT، وعبروا عن شكوكهم في قدرة الشركات التقنية على إنتاج نماذج حيادية تمامًا. وحتى الآن، لا توجد مؤشرات واضحة على ما إذا كانت OpenAI ستطور نسخًا خاصة تتماشى مع هذه المطالب، أم ستكتفي بالإصدارات العامة التي توفرها لجميع المستخدمين.

ماذا عن أمن البيانات؟

حتى هذه اللحظة، لم تُفصح شركة OpenAI أو الحكومة الأمريكية عن التفاصيل الفنية الدقيقة المتعلقة بأنظمة الحماية المعتمدة في النسخة الخاصة بالوكالات الحكومية من ChatGPT. ولا توجد توضيحات حول مكان تخزين البيانات، أو إن كانت ستُستخدم لتدريب النماذج لاحقًا، أو ما إذا كانت ستخضع لرقابة أمنية أمريكية صارمة.

مع ذلك، أكد متحدث رسمي باسم إدارة الخدمات العامة أن الحكومة تعتمد مقاربة حذرة تقوم على إعطاء الأولوية القصوى لأمن البيانات. وأوضح أن الاتفاقية تضع ضوابط دقيقة تضمن عدم تسرب المعلومات أو إساءة استخدامها، بالتوازي مع تمكين الجهات الحكومية من الاستفادة من القدرات المتقدمة للذكاء الاصطناعي لتحسين الكفاءة وتسريع الإجراءات الإدارية.

يشير هذا التصريح إلى وجود منظومة رقابة داخلية قد تشمل تدقيقات أمنية، وأنظمة تشفير عالية، وربما تشغيل النموذج على خوادم مغلقة تابعة للحكومة. لكن حتى يتوفر مزيد من الشفافية بشأن هذه الجوانب، ستظل المخاوف قائمة، خاصة بين من يرون أن استخدام أدوات الذكاء الاصطناعي في الحكومة لا يجب أن يسبق وضع إطار صارم ومعلن لأمن المعلومات.

تغيير طريقة العمل الحكومي

إذا أثبتت التجربة نجاحها، فقد تشكل هذه الخطوة بداية لتحول جذري في طريقة عمل الحكومة الأمريكية. فإدخال أدوات مثل ChatGPT في المؤسسات الفيدرالية قد يُسرع من عمليات اتخاذ القرار، ويُقلل من البيروقراطية، ويُحسن من جودة الخدمات المقدمة للمواطنين.

ومع ذلك، لا تزال هناك تساؤلات مشروعة حول الحياد السياسي، وأمان البيانات، واستدامة التعاون على المدى الطويل، خاصة مع وجود جهات سياسية متحفظة تشكك في نوايا الشركات التقنية.

تبقى التجربة الأمريكية مع ChatGPT تحت المجهر، وقد تحدد ملامح مستقبل العلاقة بين الذكاء الاصطناعي ومؤسسات الدولة في السنوات القادمة.