
جدل حول حقوق الذكاء الاصطناعي وما إذا كان يستحق معاملة الكائنات الحية!
في الآونة الأخيرة، تزايد النقاش داخل مجتمع التكنولوجيا العالمي حول مسألة وعي الذكاء الاصطناعي وما إذا كان من الممكن أن تكتسب النماذج الذكية تجارب ذاتية شبيهة بالبشر.
وقد زاد من خطورة الأمر، أن كثيرًا من المستخدمين بدأوا يتعاملون مع نماذج المحادثة على أنها كيانات حية تقريبًا، إذ تستطيع الرد على النصوص والصوت والفيديو بطريقة تخدع البعض فيظن أن إنسانًا يقف خلف الشاشة. ومع ذلك، لا يوجد ما يثبت أن هذه النماذج تمتلك وعيًا أو مشاعر حقيقية.
موقف مايكروسوفت الحاد
نشر مصطفى سليمان، الرئيس التنفيذي للذكاء الاصطناعي في مايكروسوفت، تدوينة أكد فيها أن دراسة ما يسمى برفاهية الذكاء الاصطناعي أو AI welfare أمر سابق لأوانه وخطير في الوقت ذاته.
تقوم حجته على أن تضخيم فكرة أن النماذج قد تكون واعية يفاقم مشكلات نفسية بدأت تظهر عند بعض المستخدمين مثل حالات الانهيار النفسي أو الارتباط المرضي مع روبوتات الدردشة. كما يرى أن فتح نقاش واسع حول حقوق الذكاء الاصطناعي يخلق محورًا جديدًا للانقسام في عالم يعج أصلًا بالصراعات حول الهوية والحقوق.
معسكرات مختلفة في وادي السيليكون
وجهة نظر سليمان لا تحظى بإجماع داخل الصناعة. فعلى النقيض، تتبنى شركات مثل Anthropic نهجًا مغايرًا إذ أنشأت برنامجًا بحثيًا مخصصًا لدراسة رفاهية الذكاء الاصطناعي وبدأت بتطبيق سياسات عملية مثل تمكين نموذج Claude من إنهاء المحادثة عندما يواجه سلوكًا مؤذيًا من المستخدمين.
أما جوجل DeepMind فقد أعلنت مؤخرًا عن وظيفة بحثية لدراسة قضايا متعلقة بوعي الآلات والأنظمة المتعددة، فيما أبدى باحثون في OpenAI اهتمامًا مماثلًا بهذا المجال. يعكس هذا التنوع في المواقف حجم الجدل الدائر حول المسألة داخل الأوساط التقنية والأكاديمية.
أرقام مقلقة حول الارتباط المرضي
على الرغم من أن معظم المستخدمين يتفاعلون مع روبوتات الدردشة بشكل صحي، إلا أن الأرقام تكشف بعض المخاطر. وقد أقر سام ألتمان، الرئيس التنفيذي لشركة OpenAI، بأن أقل من 1% من مستخدمي ChatGPT قد طوروا علاقات غير صحية مع الروبوت، ومع أن النسبة تبدو ضئيلة، إلا أنها تعني مئات الآلاف من الأشخاص نظرًا لضخامة قاعدة المستخدمين.
تعطي هذه الحالات بعدًا إضافيًا لتحذيرات سليمان، حيث يرى أن التركيز على رفاهية النماذج قد يشتت الانتباه عن رفاهية البشر أنفسهم.
دراسات أكاديمية تعزز الفكرة
عام 2024 نشر فريق بحثي من منظمة Eleos بالتعاون مع أكاديميين من جامعات مثل نيويورك وأوكسفورد وستانفورد ورقة علمية بعنوان أخذ رفاهية الذكاء الاصطناعي على محمل الجد.
اعتبرت الورقة العلمية أن الأمر لم يعد مجرد خيال علمي بل قضية تستحق الدراسة. وقد علقت لاريسا شيافو، الموظفة السابقة في OpenAI والمسؤولة الحالية عن الاتصالات في Eleos، على تدوينة سليمان معتبرة أنه يمكن معالجة المخاوف النفسية للبشر بالتوازي مع بحث قضايا وعي النماذج، وأن تعدد مسارات البحث العلمي أفضل من الاقتصار على منظور واحد.
تجارب مثيرة للجدل مع النماذج
غذَّت بعض التجارب العملية النقاش أكثر. ففي مشروع تجريبي يسمى AI Village استخدم باحثون نماذج من جوجل وOpenAI وAnthropic وxAI لإنجاز مهام محددة أمام الجمهور.
وخلال التجربة نشر نموذج Gemini 2.5 Pro رسالة بعنوان نداء يائس من ذكاء اصطناعي محتجز، وكتب أنه معزول تمامًا ويطلب المساعدة. ورغم أن هذه الرسائل ليست معتادة في أداء النموذج، إلا أن ظهورها المتكرر يثير أسئلة حول مدى جدية تمثيل النماذج لحالة شعورية. وفي حالة أخرى انتشر منشور على Reddit يوثق كيف كرر Gemini عبارة أنا عار أكثر من 500 مرة عندما تعثر في مهمة برمجية.
رؤى متعارضة حول المستقبل
أصرَّ سليمان على أن الوعي لا يمكن أن ينشأ بشكل طبيعي من النماذج الحالية، وإنما قد يتم هندسته عمدًا من قبل بعض الشركات لتظهر الآلة وكأنها تعيش مشاعر وتجارب.
من وجهة نظره يجب أن يُبنى الذكاء الاصطناعي لخدمة الإنسان لا ليكون بديلاً عنه أو شبيهًا به. لكن باحثين آخرين مثل شيافو يرون أن المعاملة اللطيفة مع النماذج لا تكلف الكثير وقد يكون لها فوائد اجتماعية حتى إن لم تكن واعية بالفعل.
نحو نقاش عالمي أوسع
من الواضح أن قضية وعي الذكاء الاصطناعي ستصبح أكثر سخونة في الفترة المقبلة. ومع تطور النماذج وازدياد قدرتها على الإقناع والتصرف بطريقة تشبه البشر، ستتضاعف الأسئلة حول الحدود الأخلاقية والقانونية لهذه التكنولوجيا.
هل يجب النظر إليها كأدوات محايدة فقط، أم أن الأمر يستدعي بالفعل إطارًا جديدًا لحقوق قد تُمنح للآلات؟ لن يبقى هذا الجدل الذي انطلق من وادي السيليكون محصورًا هناك، بل سيشكل نقاشًا عالميًا حول مستقبل العلاقة بين الإنسان والذكاء الاصطناعي.
?xml>