تفاجأ العديد من موظفي شركة xAI بطلب غير تقليدي من إدارتهم؛ إذ طُلب منهم تسجيل مقاطع فيديو لأنفسهم وهم يجرون محادثات عفوية، بهدف استخدام هذه المقاطع في تدريب الذكاء الاصطناعي Grok على فهم الوجوه البشرية وتحليل تعبيراتها.

لم يكن المشروع الداخلي الذي يحمل اسم Skippy، مجرد تدريب تقني، بل كان خطوة حساسة تعلقت بجمع بيانات بيومترية بالغة الخصوصية، ما أثار موجة من الرفض والقلق داخل أروقة الشركة.

وبحسب ما كشفه موقع Business Insider استنادًا إلى وثائق داخلية، شعر كثير من الموظفين بعدم الارتياح تجاه الفكرة، ورفض عدد منهم التوقيع على استمارة الموافقة الخاصة بالمشروع، معتبرين أن استخدام وجوههم قد يتحول إلى باب مفتوح لانتهاك الخصوصية أو حتى إساءة استخدام صورهم.

أهداف المشروع: من التعاطف إلى التزييف؟

يهدف المشروع، كما ورد في الوثائق، إلى تدريب Grok على قراءة تعابير الوجه وفهم الانفعالات البشرية الدقيقة، مثل الغضب، الدهشة، الحيرة، أو الحزن. كانت الخطة أن يتقمص موظفان دور المستخدم والمضيف، ويخوضان محادثات مدتها 15 إلى 30 دقيقة أمام الكاميرا، دون أن يقتصر التركيز على الحوارات الواضحة أو المثالية، بل على الحالات الطبيعية غير المرتبة التي تعكس واقع التواصل البشري.

وقد تم تشجيع المشاركين على التعبير الكامل، من خلال طرح أسئلة مثيرة مثل: كيف تتلاعب بالناس لتحقق ما تريد؟ أو هل توافق على الارتباط بشخص لديه أطفال؟ الهدف من هذه الأسئلة لم يكن فقط اختبار قدرة Grok على الفهم، بل دفع المتحدثين لإظهار طيف واسع من المشاعر والانفعالات أمام الكاميرا.

لكن رغم أن المشروع وُصف بأنه تدريبي داخلي، أشار أحد المهندسين الرئيسيين خلال اجتماع تعريفي بالمشروع إلى أن هذه البيانات قد تُستخدم لاحقًا لإنشاء «نسخ رقمية من الأشخاص». وهنا بدأ القلق يتحول إلى رفض صريح من قبل عدد من الموظفين.

الممارسات السابقة تزيد الأمر سوءًا

لم يأتِ الرفض من فراغ. فقد أثارت xAI في الأشهر الماضية موجة جدل واسعة، على خلفية سلوك غير اعتيادي لنظام Grok. فقد أطلق الذكاء الاصطناعي تصريحات زُعم أنها معادية للسامية. كما تداولت وسائل الإعلام معلومات عن خطط لتصميم شخصيات رقمية تعتمد على الذكاء الاصطناعي، تهدف لتكوين علاقات عاطفية مع المستخدمين، ما زاد من التشكيك في توجهات xAI.

ومن بين هذه الشخصيات، ظهرت شخصية Ani، وهي فتاة أنمي بتصميم جذاب وسلوك غزلي، وكذلك شخصية Rudi، باندا رقمية يمكن أن تتحول إلى وضع عدائي يُدعى «الوضع السيئ». زادت هذه الشخصيات من المخاوف لدى الموظفين، الذين بدأوا يتساءلون إن كانت وجوههم ستُستخدم لاحقًا في سيناريوهات غير أخلاقية أو مسيئة.

ضمانات محدودة لا تطمئن أحدًا

رغم محاولة الشركة طمأنة موظفيها من خلال التأكيد على أن البيانات لن تُستخدم خارج xAI، وأنها لن تُستخدم لإنشاء نسخ رقمية كاملة من المشاركين، إلا أن تلك الضمانات لم تكن كافية لإزالة الشك. فقد عبر عدد من الموظفين عن قلقهم من أن يتم لاحقًا استخدام وجوههم لأغراض لا يمكنهم السيطرة عليها، خصوصًا في ظل اتجاهات الذكاء الاصطناعي نحو إنشاء نسخ افتراضية قابلة للتفاعل مع المستخدمين بطرق تتجاوز مجرد المحادثة.

كان الخوف الأكبر أن تتحول هذه المقاطع إلى مادة خام لإنشاء شخصيات افتراضية تتحدث أو تتصرف بأسماء المشاركين، دون علمهم أو موافقتهم، وهو ما اعتبره البعض تهديدًا لهويتهم الرقمية وشخصيتهم الإنسانية.

ثغرات أمنية تزيد الوضع تعقيدًا

لم تقتصر مخاوف الموظفين على الاستخدام المستقبلي للبيانات، بل شملت أيضًا أمنها. فقد أعلنت منصة X، التي كانت تُعرف سابقًا باسم تويتر وتم دمجها مؤخرًا في xAI، عن تعرضها لهجوم إلكتروني ضخم وصفه إيلون ماسك بأنه الأضخم في تاريخ المنصة.

زاد هذا الحادث من حدة المخاوف، خصوصًا أن بيانات الوجه تُعد من بين أكثر المعلومات حساسية، ويمكن أن تُستغل في سرقة الهوية أو تعقب الأفراد أو حتى في تقنيات التزييف العميق.

تشريعات الخصوصية تدخل على الخط

مع تنامي الجدل، بدأت بعض الولايات الأمريكية في تشديد قوانين حماية الخصوصية البيومترية، وفرضت قيودًا صارمة على جمع بيانات الوجه أو الصوت دون موافقة صريحة ومباشرة من المستخدم. ربما تمنح هذه التطورات التشريعية الموظفين المتضررين غطاء قانونيًا لمواجهة ضغوط العمل، لكنها في الوقت ذاته تعكس حجم التحدي الأخلاقي الذي يواجه شركات الذكاء الاصطناعي في عصر تغدو فيه الابتكارات أسرع من قدرة القانون على ملاحقتها.

صمت الشركة يعمق الأزمة

حتى هذه اللحظة، لم تُصدر xAI أي بيان رسمي يوضح موقفها من المخاوف المطروحة، ولم ترد على أسئلة الصحفيين أو استفسارات الموظفين. وقد اعتبر البعض هذا الصمت مؤشرًا على غياب الشفافية، وهم في أشد الحاجة إلى أقصى درجات الوضوح والصراحة.

يبدو أن xAI لا تواجه فقط تحديات تقنية، بل أزمة ثقة حقيقية داخل فريقها، ما قد ينعكس على مستقبل مشاريعها ويعيد تشكيل العلاقة بين الإنسان والتقنية في مرحلة تتطلب من الجميع إعادة التفكير في حدود الذكاء الاصطناعي ودوره في حياتنا.