نشر الرئيس التنفيذي لشركة Meta، مارك زوكيربرغ، مقطعًا على حسابه بانستغرام يوضح فيه القدرات الجديدة لنظام الذكاء الاصطناعي متعدد الوسائط المطور من شركة ميتا، والذي يعمل على النظارات الذكية التي تطلقها ميتا في شراكتها مع Ray Ban.

ظهرت في المقطع القدرات الجديدة التي تتمتع بهذا هذه النظارات الذكية، والقائمة على نموذج ذكاء اصطناعي آخر متعدد الوسائط، والذي يتمكن من فهم وقراءة الصور والأوامر الصوتية. تمامًا، مثل الذي أطلقته جوجل منذ أيامٍ وأطلقت عليه جيميناي.

 


 

كان زوكيربرغ مرتديًا النظارة في المقطع، ويتحدث مع المساعد الذكي الخاص بها عبر الأمر الصوتي "Hey Meta".  وأمسك زوكيربرغ بأحد القمصان وسأل النظارة حول أفضل بنطلون يمكن ارتدائه على هذا القميص. وعلى الفور قام المساعد الذكي للنظارة بالتقاط صورة للقميص، وفحصها وأعطى رأيه حول أفضل بنطلون يمكن أن يناسب ارتدائه من هذا القميص.

وعرض زوكيربرغ مقاطع أخرى أيضًا تبين قدرة النظارة على فحص الصور وتحليل محتوياتها، وحتى التعليق عليها؛ وذلك اعتمادًا على الأوامر الصوتية بشكل كامل دون الحاجة إلى أي تدخل يدوي مع النظارة.

يُذكرنا هذا النموذج الجديد بنموذج جيمناي الذي أطلقته جوجل خلال الأيام الماضية، وهو نموذج متعدد الوسائط أيضًا قادر على فهم الصور والمقاطع الصوتية؛ ولكن الجديد هنا هو الدمج بين هذا النظام وبين نظارة ذكية يمكن ارتدائها لترى ما يراه المستخدم وتتفاعل معه. وعرض زوكيربرغ أيضًا مقطعًا للنظارة وهي تترجم محتويات إحدى الصور التي ينظر عليها؛ وبالتالي، نقلت ميتا فكرة الذكاء الاصطناعي متعدد الوسائط إلى مستوى آخر من الإبداع عبر دمجه مع النظارات الذكية؛ فهي تبدو كالعدسات الذكية التي اعتدنا رؤيتها في مسلسل الخيال العلمي Dragon Ball!

من ناحية أُخرى، يأتي هذا الإعلان بعد أيامٍ من تأسيس تحالف الذكاء الاصطناعي، الذي يضُم شركة Meta و IBM وعددًا من الشركاتِ الأُخرى في مُحاولة لجعل أنظمة الذكاء الاصطناعي مفتوحة المصدر، وذلك ليسمحوا للمُطورين بالعمل عليها دون قيود، ليكون السؤال الآن، هل يندرج هذا النموذج الجديد تحت مُصطلح "مفتوح المصدر"، أم لا؟