
احراز OpenAI لإنجاز في سعيها لضمان سيطرة الإنسان على الذكاء الاصطناعي!
في يومنا الحالي أصبح من الطبيعي أن ترى الآلة تخاطب وتفكر وتتحدث بشكل طبيعي مثل الإنسان، وأصبح لديها القدرة على إنجاز العديد من المهام التي كانت تتطلب بشكل لابد منه جهودًا ذهنية ومهارات بشرية، لكنها لازالت لم تصل بعد إلى حد الذكاء البشري واحترافية البشر في أداء تلك المهام، ولذلك نجدها اليوم تعمل فقط كمساعد للإنسان، والإنسان لازال يعلمها عن العالم وعن فعل الأشياء حتى الآن، وهي ليس بإمكانها بعد الارتقاء لأن تكون على نفس مستوى الإنسان من الذكاء والوعي، ولكنها قريباً ستكون، وهنا تأتي مرحلة التهيئة لضمان حفاظ الإنسان على كلمته وسلطته فوق الآلة، حتى وإن أصبحت الآلة أعلى ذكاءًا ووعياً من الإنسان.
في يوليو الماضي أعلنت OpenAI عن جهودها البحثية عن ما يدعى بالـ "Superalignment" (بالعربية: "التجانس الفائق" أو "المحازاة الفائقة") بهدف تدريب الذكاء الاصطناعي "الفائق" لأخذ الأوامر من الإنسان، الإنسان الذي سيعتبر حين الوصول لتلك المرحلة محدود الذكاء أمام الآلة، حيث يمكن في النهاية ضمان حصول الإنسان على الاستفادة الكاملة من وراء نموذج أذكي منه هو شخصياً، وذلك بتدريب الذكاء الاصطناعي على أن يعطي الإنسان ما يفوق أوامره ويستعرض قدراته إن استنبط منه الإنسان القيام بهذا، وذلك في حالة إن أراد منه الإنسان أن يجد فكرة جديدة أو يقوم بمهمة معينة بشكل أفضل وأكثر براعة من المطلب الأساسي.
ولأننا لم نتوصل بعد إلى إنشاء نموذج يفوقنا ذكاءًا لتدريبه على هذا السيناريو؛ توصل مجموعة أفراد من فريق OpenAI بعد عدة أشهر من العمل إلى وسيلة جيدة للتهيئة إلى هذا الوضع تم شرحها بالكامل في ورقة بحثية بعنوان "Weak-to-Strong Generalization"، فكرتها ببساطة تكمن في إجابة السؤال الآتي: "هل يمكن لنماذج الذكاء الاصطناعي الصغيرة أن تدير نماذج الذكاء الاصطناعي الكبيرة؟"، وإن كانت الإجابة أن النموذج الأصغر استطاع التحكم في النموذج الأكبر وتحقيق اقصى استفادة منه؛ فهذا قد يعني أنه سيمكن للإنسان السيطرة على الذكاء الاصطناعي الشامل في المستقبل.
ليلة الخميس أعلنت OpenAI أنها - بالاستناد إلى ما توصله له - قد عملت على تدريب أنظمة الذكاء الاصطناعي الحالية المتقدمة على اخذ الأوامر مِن مَن هم أقل منها ذكاءًا من الأنظمة الأخرى، حيث قامت فعلياً بتجربة تتمثل في مراقبة نموذج بمستوى GPT-2 وهو يحاول استغلال قدرات GPT-4 بأقصى حد ممكن، وقد تمكن بالفعل النموذج البسيط والأقل مقدرة من استخدام معظم ما يمكن لـ GPT-4 القيام به إلى حد قريب من GPT-3.5، أي أنه لم يستطع بالكامل تحقيق اقصى استفادة من كل قدرات النموذج الضخم، لكنه على الأقل استطاع استغلاله في حل المسائل الصعبة التي كانت تصعب عليه، وذلك يعد إنجازاً بالفعل، لكن لازال هناك ما هو أعلى، وذلك يفتح الطريق إلى مسار جديد من الفرص والبحوثات المطلوبة في هذه المنطقة.
محاولة فهم كيف يمكن للبشر أن يتعاملوا مع نظام ذكاء اصطناعي فائق (إلى مرحلة خارقة من الذكاء بالنسبة لهم) هو أمر مهم للغاية - من الناحيتين الأمنية والمعلوماتية، وأيضاً سيكون مهماً للحفاظ على البشر وعقولهم وسط بيئة جديدة تقل اعتماديتهم فيها على أنفسهم، ويعد البدء في العمل على حل هذه المشكلة في الوقت الحالي والتوصل إلى نتائج مبكرة شيء جيد بشكل عام.
?xml>