اتجه الكثير من المستخدمين حول العالم إلى استخدام تطبيقات الذكاء الاصطناعي في حياتهم اليومية، ليس فقط لأغراض تقنية أو تعليمية، بل أيضًا للحصول على دعم نفسي وعاطفي. ليس هذا فحسب، بل بات البعض يتعامل مع أدوات مثل ChatGPT وكأنها صديق مقرب، أو حتى معالج نفسي رقمي، يلجأ إليه عند الأزمات والمواقف الحساسة. غير أن هذا الاستخدام الحميمي قد لا يكون آمنًا من الناحية القانونية، كما حذر سام ألتمان، الرئيس التنفيذي لشركة OpenAI.

لا حماية قانونية للفضفضة الرقمية

خلال ظهوره الأخير في بودكاست This Past Weekend الذي يقدمه الكوميدي ثيو فون، ناقش ألتمان مسألة العلاقة بين الذكاء الاصطناعي والنظام القانوني، وأكد أن أحد أبرز التحديات اليوم يتمثل في غياب إطار قانوني واضح لحماية سرية المحادثات التي يجريها المستخدمون مع برامج الذكاء الاصطناعي.

كما أوضح أن الناس، خصوصًا من فئة الشباب، أصبحوا يستخدمون ChatGPT كمدرب حياة أو مستشار عاطفي، ويتحدثون إليه عن مشاكلهم الشخصية والعائلية والعاطفية، وكأنهم يخاطبون طبيبًا نفسيًا.

لكن على عكس ما يعتقده البعض، لا يوجد حاليًا أي نوع من الامتياز القانوني يحمي هذه المحادثات. في حين أن الحديث مع طبيب أو محامٍ أو معالج نفسي يخضع لحماية قانونية صارمة، تمنع استخدام محتوى تلك الجلسات في أي سياق قضائي، فإن المحادثات مع الذكاء الاصطناعي ليست محمية بنفس الطريقة.

وهذا يعني، ببساطة، أن أي حديث حساس قد تجريه مع ChatGPT يمكن، من الناحية القانونية، أن تطلبه السلطات القانونية من الشركة المنتجة ويُستخدم كدليل في المحكمة، في حال وجود أمر قضائي.

مخاطر قانونية حقيقية

أعرب ألتمان عن قلقه من هذا الوضع، واعتبره خللًا كبيرًا في النظام الحالي. وقال إن من المفترض أن يحصل المستخدم على مستوى الخصوصية نفسه الذي يحصل عليه عند التحدث مع شخص حقيقي متخصص. وأضاف أن هذه الفكرة لم تكن مطروحة أساسًا قبل عام فقط، ولكن تسارع تطور الذكاء الاصطناعي دفع المجتمعات إلى التفكير فيها بجدية اليوم.

لا يُعد هذا التحذير نظريًا فقط. فقد دخلت OpenAI بالفعل في مواجهة قانونية مع صحيفة نيويورك تايمز؛ إذ صدر أمر قضائي يطالب الشركة بحفظ محادثات مئات الملايين من المستخدمين حول العالم، باستثناء عملاء خدمة ChatGPT Enterprise التي تتمتع بسياسات خصوصية منفصلة وأكثر صرامة. وتصف الشركة هذا الأمر بأنه تجاوز قانوني قد يؤدي إلى المزيد من المطالبات بالكشف عن بيانات المستخدمين في سياقات قانونية مختلفة.

من البيانات المفتوحة إلى الخصوصية المفقودة

لا يقتصر القلق من الخصوصية على الذكاء الاصطناعي فحسب، بل يشمل أيضًا كافة الخدمات الرقمية التي تعتمد على البيانات الشخصية. ومع تزايد قدرة الأنظمة على تحليل وفهم محتوى المحادثات، يصبح من السهل جدًا استغلال هذه المعلومات في سياقات لم تكن متوقعة من قبل المستخدم.

وقد شهدت الساحة الأمريكية مثالًا حيًا على ذلك بعد قرار المحكمة العليا الأمريكية بإلغاء حق الإجهاض الذي كان مكفولًا سابقًا. حينها، بدأت كثير من النساء في التحول إلى تطبيقات صحية أكثر خصوصية، مثل Apple Health، التي توفر تشفيرًا كاملاً للبيانات، بدلًا من التطبيقات الطبية الأخرى المفتوحة التي قد تُطلب بياناتها من جهات قانونية.

غياب الوضوح القانوني يهدد ثقة المستخدمين

يتساءل كثير من المستخدمين اليوم عن مدى أمان استخدامهم لأدوات الذكاء الاصطناعي، خاصةً في ظل الغموض القانوني الذي يحيط بهذه التكنولوجيا. وأكد سام ألتمان خلال المقابلة أن من المنطقي تمامًا أن يشعر البعض بالقلق ويتردد في استخدام ChatGPT بشكل شخصي وعميق، إلى أن تتضح الصورة القانونية بشكل أفضل.

سأل ألتمان مضيف البودكاست عن علاقته بـ ChatGPT، فأجابه الأخير بأنه لا يستخدمه كثيرًا بسبب مخاوف تتعلق بالخصوصية. هنا علق ألتمان مؤيدًا وجهة النظر هذه، مشيرًا إلى أن القانون يجب أن يواكب التطور التكنولوجي بسرعة أكبر حتى يشعر الناس بالأمان عند استخدام هذه الأدوات في حياتهم اليومية.

يبدو أن مستقبل الذكاء الاصطناعي لا يعتمد فقط على قدرته التقنية، بل أيضًا على مستوى الثقة التي يضعها المستخدم فيه. ومع غياب قوانين واضحة تحمي البيانات الشخصية، تبقى هذه الثقة مهددة. وبدون حل جذري لهذه الإشكالية، قد يتراجع استخدام الذكاء الاصطناعي في مجالات حساسة، رغم قدرته الكبيرة على المساعدة.