في واحدة من الخطوات الجيدة والمُبشّرة من جانبها، التي نقلها Tony Mongkolsmai، قامت Intel أخيرًا بتحويل مكتبة NPU Acceleration الخاصة بها إلى مكتبة مفتوحة المصدر، مما يسمح بضبط تطبيقات المطورين للعمل بشكل أفضل مع محركات الذكاء الاصطناعي من Intel. الجدير بالذكر هنا أن Tony أجرى هذا الاختبار على جهاز لاب توب MSI Prestige 16 AI Evo، واستطاع تشغيل نماذج TinyLlama وGemma-2b-it LLM دون أدنى مشكلة.

ستساعد هذه الخطوة المطورين على الاستفادة من معالجات Core Ultra الجديدة من معمارية Meteor Lake، وما فيها من المعالجات العصبية. حيث أن مكتبة تسريع المعالجة العصبية أو NPU acceleration library المعتمدة على لغة Python هذه ستعمل على تبسيط ورفع كفاءة التعامل مع تطبيقات الذكاء الاصطناعي من خلال توفير بيئات عمل متناسبة مع التطبيقات الشائعة مثل TensorFlow وPyTorch.

حسناً، هذه بلا شك خطوة ممتازة من Intel، حيث سيكون من المُثير للاهتمام أن نرى حجم التطبيقات والتطوير الذي سيطال هذه المكاتب والمحرّكات، وبالتالي المستخدمين والمطوّرين على حدٍ سواء.