أسست شركة OpenAI الرائدة في مجال الذكاء الاصطناعي في يوليو 2023 فريق التوجيه الفائق؛ يهدف الفريق إلى إنشاء تقنية لتوجيه ومراقبة الذكاء الاصطناعي التي تفوق البشر ذكاءً لتتوافق مع المصالح الإنسانية. بالإضافة إلى الهدف الأساسي الذي يهدف إلى تحسين النماذج الحالية مثل ChatGPT؛ يهدف الفريق إلى فهم وتخفيف المخاطر الأخرى التي يمكن أن تنتج عن الذكاء الاصطناعي؛ مثل سوء الاستخدام، والاضطراب الاقتصادي، والتحيز، والتمييز، والعديد من المخاطر الأخرى.

في 14 مايو 2024؛ استقال قائدي الفريق إيليا سوتسكيفر ويان لايكا؛ ما أثار جدلًا واسعًا ومخاوف عن توجه الشركة نحو تطوير ذكاء اصطناعي عام دون الاهتمام بسلامة الذكاء الاصطناعي. وبعد الاستقالة حُل الفريق بالكامل! رغم أن OpenAI شاركت على مدونتها مخاوف متوقعة من الذكاء الاصطناعي الذي يفوق البشر ذكاءً، والذي قد يؤدي إلى تهميش البشرية أو حتى إنقراضها.

واليوم وفي قرار مفاجئ؛ أعلنت الشركة عن تأسيس لجنة سلامة جديدة! رُغم تصريح OpenAI بدمج رسالة الفريق في جميع أقسام الشركة؛ إذ صرح متحدث باسم OpenAI أن النظام الجديد سيعمل على دمج رسالة الفريق بشكلٍ أعمق في أقسام الشركة.

فريق السلامة الجديد في OpenAI

أعلنت شركة OpenAI اليوم عبر مدونتها عن تشكيل مجلس إدارة الشركة "لجنة للسلامة والأمن" في مجلس إدارتها. وذلك برئاسة بريت تايلور وعضوية كلًا من؛ آدم دي أنجيلو الرئيس التنفيذي لمنصة كورا، ونيكول سيليغمان نائبة الرئيس التنفيذية والمستشارة العامة السابقة في شركة سوني، بالإضافة إلى سام ألتمان الرئيس التنفيذي للشركة. جميع الأسماء المُشار إليها من ضمن أعضاء مجلس الإدارة أيضًا.

ستكون اللجنة مسؤولة عن تقديم توصيات إلى مجلس الإدارة بأكمله بخصوص القرارات الحاسمة المُتعلقة بالسلامة والأمن لمشاريع وعمليات OpenAI. وأضافت الشركة عبر مدونتها أنها بدأت مؤخرًا في تدريب نموذجها الجديد؛ وتتوقع الشركة أن تصل الأنظمة الجديدة إلى المستوى التالي نحو تحقيق الذكاء الاصطناعي العام (AGI). وعبرت الشركة عن فخرها ببناء وإصدار نماذج رائدة في الصناعة من ناحية القدرات والسلامة؛ وأضافت OpenAI أنها ترحب بمناقشة مفتوحة وشفافة حول موضوع تطوير الذكاء الاصطناعي العام (AGI) والتحديات المتعلقة بالسلامة والأمن التي تأتي معه.

وصرحت الشركة أن المهمة الأولى "للجنة السلامة والأمن" هي تقييم وتطوير وتحسين الإجراءات والاحتياطات التي تتخذها الشركة لضمان سلامة وأمن مشاريعها المتعلقة بالذكاء الاصطناعي؛ وسيستغرق هذا التقييم والتطوير تسعين يومًا. وبعد مراجعة المجلس كاملًا، ستشارك OpenAI علنًا التحديثات بشأن التوصيات المعتمدة من المجلس بطريقة تتوافق مع السلامة والأمن.

سام ألتمان الرئيس التنفيذي لشركة OpenAI

هل ستتمكن اللجنة من تقديم تقييم محايد؟

يثير تحول شركة OpenAI من مؤسسة غير ربحية إلى شركة ربحية، بقيادة سام ألتمان، قلقًا كبيرًا بشأن مستقبل الشركة وتأثيرها على البشرية. فالتضييق على فريق التوجيه الفائق، المعني بحماية البشرية من مخاطر الذكاء الاصطناعي، أدى إلى استقالات جماعية وحل الفريق؛ ما يثير تساؤلات حول مدى التزام الشركة بأولويات السلامة والأخلاقيات.

إن تشكيل لجنة جديدة، تضم ألتمان نفسه، لا يبدو كافيًا لمعالجة هذه المخاوف. فغياب الاستقلالية والشفافية في هذه اللجنة يثير الشكوك حول قدرتها على تحقيق التوازن المطلوب بين السعي وراء الأرباح وضمان سلامة واستدامة الذكاء الاصطناعي.

لذا؛ يجب على شركة OpenAI إعادة النظر في هيكلية هذه اللجنة لضمان استقلاليتها وتمثيلها المتنوع لمختلف الأطراف المعنية. كما يجب عليها تعزيز الشفافية في عمليات صنع القرار والإعلان عن التزامها الواضح بأولويات السلامة والأخلاقيات في تطوير واستخدام الذكاء الاصطناعي.