
هل يقودنا الذكاء الاصطناعي لحرب سيبرانية لا يمكن السيطرة عليها؟
منذ أن ظهر الذكاء الاصطناعي على الساحة الرقمية، أحدث ضجة واسعة وفتح آفاقًا غير مسبوقة للتطوير والابتكار. ولكنه، عزيزي القارئ، سلاح ذو حدين، فكما قادنا نحو ثورة إبداعية غير مسبوقة، فهو أيضاً يقودنا نحو حرب رقمية شرسة تقودها أكبر الدول، مثل روسيا والصين وإسرائيل. فمن الواضح أن الحروب لم تعد تقتصر على الأسلحة العسكرية، وأن الحرب بدلاً من أن تبدأ بإطلاق رصاصة، فسوف تبدأ بضغطة زر.
فهل نحن فعلاً على أعتاب حرب سيبرانية لا يمكن احتواؤها؟! دعنا نناقش ذلك معًا.
كيف أصبح الذكاء الاصطناعي أداة في الحروب السيبرانية؟
لطالما اعتمد المخترقون على مهاراتهم البرمجية لاختراق الأنظمة. وكانت مهمة ليست بالهينة، ولم يعتقد أحد منهم أنه سيأتي اليوم الذي يمكنه تنفيذ عمليات قرصنة إلكترونية ذكية دون الحاجة إلى تدخل بشري مباشر أو بأقل قدر ممكن. بل أزيدك عزيزي القارئ، أن الذكاء الاصطناعي يمكنه فعلها بصورة أفضل وأسرع، فهو يعتمد على خوارزميات تحلل أنظمة الأمن السيبراني والثغرات الأمنية في وقت قياسي وتكتشف نقاط الضعف.
اقرأ أيضًا: الوجه المخيف للذكاء الاصطناعي | عالم الجريمة أكثر ازدهارًا
ويمكنه أيضاً ممارسة التصيد الاحتيالي (Phishing) باحترافية، حيث ينشئ رسائل مزيفة يصعب تمييزها عن الحقيقية، ويمكنه تطوير الفيروسات ذاتية التعلم، وبرمجيات الاختراق التي تعمل دون تدخل بشري.
أمثلة على هجمات سيبرانية مدعومة بالذكاء الاصطناعي
في السنوات الأخيرة، تفاجأ العالم باستغلال الذكاء الاصطناعي في تنفيذ اختراقات غير مسبوقة. بعضها كانت تقف خلفه بعض الدول، والبعض الآخر نفذته مجموعات قرصنة محترفة. سوف أستعرض معك بعض هذه الأمثلة:
أداة DeepLocker الخبيثة
تخيل أن يختبئ عدوك بين متعلقاتك الشخصية، ينتظر أن يسمع ويتعرف على صوتك حتى ينفذ هجومه. سيناريو مرعب، أليس كذلك؟! هذا تمامًا ما يفعله DeepLocker. فهو عبارة عن فيروس كمبيوتر مدعوم بالذكاء الاصطناعي، طورته شركة IBM لأغراض بحثية، لكن المفزع أن بعض تقنياته سُرّبت لاحقًا، ليقع استخدامها في أيدي قراصنة محترفين.
يستخدم DeepLocker خوارزميات التعلم العميق للاختباء داخل برامج شرعية مثل تطبيقات الفيديو وملفات PDF، ولا ينشط إلا عندما يتعرف على وجه أو صوت أو عنوان IP محدد للضحية مثل مسؤول أمني أو سياسي. وبمجرد التعرف على الهدف، ينفذ هجماته مثل سرقة البيانات أو تشفير الملفات.
هجمات إسرائيل (2021) باستخدام برنامج Pegasus
وهنا، أنت لست بمأمن من عدوك إن كنت تعتقد أنك داخل حصن الآيفون الذي لا يُخترق. Pegasus، هو برنامج تجسس مدعوم بالذكاء الاصطناعي طورته شركة NSO Group، يستغل ثغرات في الآيفون والأندرويد عبر رسائل أو روابط خبيثة. ويمكنه تنشيط الكاميرا والميكروفون عن بعد، وتحديد أفضل وقت لسرقة البيانات الشخصية. استهدف Pegasus العديد من الصحفيين والنشطاء، وحتى رؤساء دول مثل الرئيس الفرنسي إيمانويل ماكرون. بالإضافة إلى ذلك، اخترق Pegasus أكثر من 50,000 رقم هاتف حول العالم.

هجوم روسيا على الانتخابات الأمريكية (2016)
صراع المنافسة الأبدي بين روسيا وأمريكا، لم يخلُ أيضاً من استغلال الذكاء الاصطناعي. حيث استخدمت روسيا روبوتات (Bots) ذكية لنشر أخبار مزيفة. جرى توظيف الشبكات العصبية لإنشاء آلاف الحسابات المزيفة التي تحاكي سلوك المستخدمين الحقيقيين، ثم بثّ منشورات مُصمَّمة بعناية لتوقع ردود فعل الجمهور من خلال تحليل المشاعر (Sentiment Analysis). كما استُغلّت خوارزميات التوصية في منصات مثل فيسبوك وتويتر لضمان انتشار المحتوى المزيف بصورة أوسع وأكثر فاعلية.
اقرأ أيضًا: بين اليوتوبيا والديستوبيا | الذكاء الاصطناعي الصيني يتصدر الساحة!
عندما ينقلب السحر على الساحر
استخدمت مجموعة من القراصنة الصينيين والإيرانيين أدوات الذكاء الاصطناعي الأمريكية مثل GPT وجيميناي؛ من أجل تعزيز هجماتها السيبرانية ضد البنية التحتية التقنية للولايات المتحدة. وعلى الرغم من عدم استخدام هذه الأنظمة بصورة مباشرة في الهجمات؛ فهي تطرح تساؤلات ومخاوف كبيرة حول الطرق الملتوية التي يلجأ إليها القراصنة لتطويع أدوات الذكاء الاصطناعي في عملياتهم.
كانت أغلب الاستخدامات متمحورة حول كتابة الأكواد الخبيثة، وإنشاء الأدوات التي تُسهل من الهجمات السيبرانية، واكتشاف الثغرات، وتحليل المواقع المستهدفة تقنيًا بطريقة مُفصلة. وفي العادة تكون أنظمة الذكاء الاصطناعي منيعةً ضد هذه الاستخدامات. لكن يجد المخترقون طُرقًا ووسائل احتيالية لخداع الذكاء الاصطناعي بأن ما يطلبونه سلميًا وليس عدائيًا.
القرصنة في عصر الذكاء الاصطناعي
أصبحت الهجمات السيبرانية أكثر تعقيدًا وفتكًا مع دخول الذكاء الاصطناعي إلى ساحة القرصنة. لم تعد الهجمات تعتمد على أساليب تقليدية فحسب، بل أصبحت تُدار بأدوات ذكية قادرة على التعلُّم، والتحليل، والمباغتة بدقة تفوق قدرة الإنسان. فما هي أبرز الأدوات التي تستخدم الذكاء الاصطناعي في الهجمات السيبرانية؟ وكيف تعمل؟
التطور في عالم البرمجيات الخبيثة
ربما سمعت عن تطور السلالات البكتيرية عند تعرضها لجرعات غير قاتلة من المضادات الحيوية، لتصبح بكتيريا فائقة المقاومة...كارثة، أليس كذلك؟ بفضل الذكاء الاصطناعي يُمكن للبرمجيات الخبيثة أن تحظى بنفس الميزة. ذلك لأن الجيل الجديد من البرمجيات الخبيثة لا يتبع نمطًا واحدًا؛ بل يتعلّم من البيئة التي يتواجد فيها، ويغير سلوكه بما يناسب الدفاعات الرقمية.
مثلًا، يمكن لفيروس مدعوم بالذكاء الاصطناعي أن يراقب طريقة استجابة نظام الحماية، ثم يُعيد تشكيل نفسه ليبدو غير ضار أو يتجنب اكتشافه كليًا. بعض هذه البرمجيات قادرة على تحديد نوع الشبكة، وأنظمة التشغيل، وحتى الجدول الزمني للأنشطة داخل المؤسسات، لتضرب في الوقت المثالي. وهذا النوع من البرمجيات يُعرف بالبرمجيات الخبيثة القادرة على التكيف (Adaptive Malware).
الخداع أسهل مع شات جي بي تي
الذكاء الاصطناعي طور من قواعد التصيد الاحتيالي (Phishing). الآن، بإمكان الخوارزميات تحليل بيانات المستخدمين من وسائل التواصل والبريد الإلكتروني، ثم صياغة رسائل مخصصة بدقة مذهلة. هذه الرسائل قد تُقلّد أسلوب الكتابة الخاص بصديق أو مدير، ما يزيد من احتمالية وقوع الضحية في الفخ، بل إن بعض الأدوات قادرة على استخدام تقنيات "التزييف العميق" (Deepfake) لإنتاج مقاطع صوتية أو مرئية مزيفة تبدو حقيقية تمامًا.
بوتات الهجوم الذكية
لم تعد البوتات مجرد أدوات لنشر الرسائل أو تنفيذ المهام الروتينية. البوتات المدعومة بالذكاء الاصطناعي يمكنها تنفيذ هجمات DDoS بطريقة ذكية، حيث تتعلم من استجابات الخوادم وتُغيّر تكتيكها لتُبقي النظام تحت الضغط دون أن تنكشف. كما يمكنها تنفيذ هجمات تلقائية ضد آلاف الأهداف، وتحليل أي منها أكثر ضعفًا لاستهدافه أولًا. فهي التطور الطبيعي لمفهوم البرمجيات الخبيثة القادرة على التكيف.
أدوات اكتشاف الثغرات التلقائية
أتعلم عزيزي القارئ؟ المهمة الأصعب دائمًا من الهجمة السيبرانية هي اكتشاف الثغرات! تخيل أنك تود التسلل إلى حصن منيع، ستكون مهمتك الأصعب والأهم هي اكتشاف الثغرات أو الممرات الخفية التي تُمكنك من اختراق الأسوار والدخول بصورة خفية داخل الحصن. وعادةً ما يقضي القراصنة ساعات وأيام، بل وأسابيع في بعض الأحيان، لاكتشاف أو انتظار وقوع الثغرات بالمواقع والخوادم المستهدفة.
لكن، كالعادة يُقدم الذكاء الاصطناعي حلولًا لهذه المهمة الصعبة. وذلك عبر كواشف الثغرات القائمة على الذكاء الاصطناعي AI-based Vulnerability Scanners. هذه الأدوات الذكية لا تنتظر حتى يكتشف مبرمج بشري الثغرات الأمنية، بل تفحص الشيفرات والأنظمة تلقائيًا، وتحديد نقاط الضعف التي يمكن استغلالها. بعض الأنظمة قادرة على تحليل ملايين السطور البرمجية، وتوليد سيناريوهات هجومية مقترحة في دقائق.
المطالبات بوجود معاهدات للذكاء الاصطناعي
الذكاء الاصطناعي يغير طبيعة الحرب، ويجعل الهجمات أكثر دقة وأصعب في التتبع. لذلك، مع تصاعد التهديدات السيبرانية المدعومة بالذكاء الاصطناعي، تتزايد الدعوات من الخبراء والمنظمات الدولية بضرورة وضع قواعد دولية تحكم استخدام هذه التقنيات في المجال العسكري والسيبراني. مثل قمة الذكاء الاصطناعي التي تنعقد في لندن، وتحالف الذكاء الاصطناعي بمشاركة ميتا وIBM.

لكن، تلك الدعوات تواجه تحديات كبيرة وصعوبة في التنفيذ بسبب غياب الثقة بين الدول الكبرى والسباق التكنولوجي. ويكمن الخطر الأكبر في أن تتخذ أنظمة الذكاء الاصطناعي قرارات هجومية دون تدخل بشري، ما يؤدي إلى تصعيد غير مقصود. كما أن تقنيات الذكاء الاصطناعي أصبحت متاحة للجميع، حتى الجماعات الإرهابية وعصابات الجريمة المنظمة.
ومن وجهة نظري، ما يُصعب هذه المهمة حقًا هي سهولة خداع الذكاء الاصطناعي. فمهما وضع المطورون قواعد صارمة لمنع استخدام الأنظمة في الهجمات والأعمال الخبيثة، سيتمكن القراصنة المحترفون في النهاية من الالتفاف حول هذه القواعد والتحايل عليها بذكاء لإيهام هذه الأنظمة "الغبية" أن مقصدهم سلمي لصالح الحماية لا الهجوم.
فهل يمكن تحقيق معاهدة ناجحة؟
نعم، لكن بشروط أصبحت في غاية الصعوبة الآن، يصعب على الدول أن تلتزم بها وسط هذا السباق الجنوني في تطوير الذكاء الاصطناعي. باختصار، الذكاء الاصطناعي مثل الصندوق الأسود اللانهائي فُتح ولا نعرف كيف نغلقه. فهل ذلك يقودنا إلى كارثة، أم أن الواقع سيفرض نفسه ويدفع الجميع نحو حوار عالمي جاد بشأن مخاطر هذه التقنية ومستقبلها؟
?xml>