رفض الاتحاد الأوروبي رسميًا تأجيل تطبيق قانون الذكاء الاصطناعي، مؤكدًا عزمه الاستمرار في تنفيذ الجدول الزمني المحدد لهذا التشريع الرائد، رغم حملات ضغط قوية شنتها أكثر من مئة شركة تكنولوجيا حول العالم. ومن بين هذه الشركات أسماء كبرى مثل Alphabet (الشركة الأم لجوجل)، Meta، Mistral AI، وشركة تصنيع الرقائق الهولندية ASML، وجميعها حذرت من أن القانون قد يحد من قدرة أوروبا على المنافسة في سوق الذكاء الاصطناعي العالمي شديد السرعة والتغير.

وقد جاء الرد الحاسم من المفوضية الأوروبية عبر المتحدث الرسمي توماس رينييه الذي قال بوضوح إنه لا توجد نية لإيقاف أو تأجيل أو حتى منح فترة سماح لتطبيق القانون. وتعني هذه الرسالة المباشرة أن أوروبا تسير بثبات نحو وضع إطار قانوني شامل وغير مسبوق لتنظيم الذكاء الاصطناعي.

ما هو قانون الذكاء الاصطناعي الأوروبي؟

يُعد قانون الذكاء الاصطناعي الأوروبي، المعروف باسم AI Act، أول تشريع شامل من نوعه في العالم ينظم استخدام تقنيات الذكاء الاصطناعي داخل الاتحاد الأوروبي. وقد بدأ سريانه في أغسطس 2024، ويُطبق تدريجيًا حتى منتصف عام 2026. يهدف القانون إلى ضمان استخدام آمن وأخلاقي للذكاء الاصطناعي، دون الإضرار بحقوق الإنسان أو الأمن العام.

كيف يصنف القانون أنظمة الذكاء الاصطناعي؟

يعتمد القانون على مبدأ تصنيف الأنظمة بحسب مستوى المخاطر:

  • مخاطر غير مقبولة: تشمل أنظمة محظورة بالكامل مثل التلاعب السلوكي، والتقييم الاجتماعي (social scoring)، والتعرف البيومتري في الأماكن العامة.
  • مخاطر عالية: تشمل تطبيقات حساسة مثل التوظيف، الرعاية الصحية، التعليم، الأمن، وغيرها. تُفرض عليها شروط صارمة تشمل التسجيل، تقييم المخاطر، الرقابة البشرية، وضمان جودة البيانات.
  • مخاطر محدودة: مثل روبوتات المحادثة وتوليد المحتوى، وتُلزم فقط بإعلام المستخدم بأنه يتفاعل مع ذكاء اصطناعي.
  • مخاطر منخفضة أو معدومة: مثل مرشحات البريد المزعج أو أدوات الترجمة، وهذه لا تخضع لأي تنظيم خاص.

ماذا عن النماذج التوليدية العامة مثل ChatGPT؟

أضيفت فئة خاصة لأنظمة الذكاء الاصطناعي العامة (GPAI)، وتخضع لمتطلبات إضافية من الشفافية، مثل توثيق البيانات المستخدمة في التدريب. وإذا كانت هذه النماذج مفتوحة المصدر، فقد تحصل على بعض الإعفاءات، إلا إذا استُخدمت في تطبيقات عالية الخطورة.

ما هو الجدول الزمني لتطبيق القانون؟

  • بعد 6 أشهر: يُطبق حظر الأنظمة ذات المخاطر غير المقبولة
  • في غضون 12 شهرًا: تبدأ التزامات الشفافية للأنظمة محدودة المخاطر
  • بين عامين إلى ثلاثة أعوام: تُطبق جميع شروط الأنظمة عالية المخاطر بحلول منتصف 2026

لماذا يعتبر هذا القانون مهمًا؟

يشكل قانون AI Act مرجعًا عالميًا في تنظيم الذكاء الاصطناعي، مثلما كان قانون حماية البيانات (GDPR) سابقًا. فهو يحمي المستخدمين من الاستخدامات الضارة، ويضمن شفافية وموثوقية الأنظمة الذكية، مع الحفاظ على بيئة تشجع الابتكار المسؤول داخل أوروبا.

مخاوف الشركات الكبرى: تهديد أم مبالغة؟

تقول الشركات المعترضة إن القيود التي يفرضها القانون قد تعرقل الابتكار وتدفع بعض الشركات إلى نقل عملياتها خارج أوروبا. كما تخشى من أن يؤدي التنظيم المفرط إلى تقليل جاذبية السوق الأوروبية للمستثمرين والمطورين في مجال الذكاء الاصطناعي، خاصة في ظل تسابق دول مثل الصين والولايات المتحدة على الهيمنة التقنية.

لكن من وجهة نظر الاتحاد الأوروبي، فإن هذه المخاوف لا تبرر التراجع عن هدف أسمى، وهو حماية المواطنين وضمان استخدام مسؤول وآمن لهذه التقنيات المتقدمة. فالقانون يسعى إلى بناء بيئة رقمية تحترم الحقوق والحريات، وتضمن الشفافية والرقابة، وتضع الإنسان في قلب عملية الابتكار.

هل يشكل القانون الأوروبي نموذجًا عالميًا؟

في ظل غياب قوانين مماثلة في دول كبرى مثل الولايات المتحدة، ينظر الكثير من المراقبين إلى قانون الذكاء الاصطناعي الأوروبي كإطار تنظيمي طموح قد يُلهم باقي الدول لتبني تشريعات مشابهة. وتمامًا كما فعل الاتحاد الأوروبي مع اللائحة العامة لحماية البيانات (GDPR) قبل سنوات، فإنه يأمل أن يصبح معيارًا عالميًا يُحتذى به في ضبط الذكاء الاصطناعي.

يثبت الاتحاد الأوروبي من خلال إصراره على تنفيذ قانون الذكاء الاصطناعي أن التنظيم لا يجب أن يكون عائقًا أمام التقدم. بل على العكس، يمكن للتشريعات الذكية أن توفر بيئة أكثر أمانًا واستدامة، تجعل الذكاء الاصطناعي قوة لخدمة البشرية وليس تهديدًا لها. وبينما تواجه هذه الخطوة معارضة من بعض عمالقة التكنولوجيا، فإنها تحظى بتأييد واسع من المجتمع المدني والمراقبين الذين يرون فيها خطوة ضرورية نحو مستقبل رقمي مسؤول.