جوجل وNvidia وOpenAI يتعاونون لتحسين أمان الذكاء الاصطناعي
أنشأ العديد من عمالقة التكنولوجيا تحالف الذكاء الاصطناعي الآمن (CoSAI)، وهي منظمة تهدف لزيادة الأمن للتكنولوجيا سريعة التطوّر، وتأتي هذه المبادرة في وقت حرج حيث يستمر مشهد الذكاء الاصطناعي في التطور سريعًا.
يشمل الأعضاء المؤسسون علامات تجارية تكنولوجية كبرى مثل أمازون وشريكتها في مجال الذكاء الاصطناعي Anthropic، Cisco، جوجل، IBM، إنتل، مايكروسوفت، Nvidia، بايبال، وOpenAI.
تشارك أيضًا أسماء صناعية مثل Chainguard، وCohere، وGenLab، وWiz. سيعملون ضمن OASIS Open، وهو اتحاد للكود مفتوح المصدر ومعايير التكنولوجيا.
تهدف CoSAI إلى زيادة التدابير الأمنية الشاملة للذكاء الاصطناعي، ومُعالجة المخاطر الحالية والناشئة، كما سيُركّز التحالف على 3 أوليات:
- أمن سلسلة توريد البرمجيات لأنظمة الذكاء الاصطناعي.
- إعداد التحصينات والدفاعات لساحة الأمن السيبراني المُتغيرة، لمُعالجة تحديات الاستثمارات والتكامل في الذكاء الاصطناعي والأنظمة.
- إدارة شؤون أمن الذكاء الاصطناعي، لتطوير أفضل المُمارسات وأنظمة تقييم المخاطر لأمن الذكاء الاصطناعي..
ويُخطّط التحالف أيضًا للدخول في شراكة مع مُنظمات خارجية، مثل الشراكة بشأن الذكاء الاصطناعي ومؤسسة الأمن مفتوح المصدر.
لماذا نتحد الشركات في مجال أمن الذكاء الاصطناعي؟
يتميز التحالف بضمه للشركات التي عادةً ما تكون في مُنافسة مُباشرة في مجال الذكاء الاصطناعي، سواء كان ذلك من خلال نماذج اللغات الكبيرة أو الهاردوير. ومع ذلك، لديهم مصالح خاصة في رفع مُستوى الأمان في هذه الفئة.
يمكن أن يؤدي زيادة الأمن إلى تقليل فرص (وتخفيف الأضرار الناجمة عن) الحوادث التي قد تضر بالطلب على الذكاء الاصطناعي، مثل اختراقات البيانات أو نقاط الضعف في الأكواد البرمجية.
كلما كان الذكاء الاصطناعي أكثر جدارة بالثقة، كلما استفادت جميع الشركات في نهاية المطاف.
قد يرغب العملاء المُحتملون في الحصول على تطمينات بأن الذكاء الاصطناعي لن يُضعف دفاعاتهم بالمُقارنة بالأدوات والتطبيقات التقليدية، ويمكن أن تساعد الإجراءات الموحدة في ذلك.
يلعب الضغط الحكومي دورًا أيضًا، حيث أصدرت المملكة المتحدة والولايات المتحدة مبادئ توجيهية لأمن الذكاء الاصطناعي، وهناك جهود تنظيمية في بعض البلاد لفرض التطوير المسؤول للذكاء الاصطناعي. قد تساعد CoSAI الشركات على احترام القواعد المحلية بشكل أفضل.
?xml>