الذكاء الاصطناعي في خدمة الاحتيال السيبراني

AkiraBot: الذكاء الاصطناعي في خدمة الاحتيال السيبراني
كتب ا. د. وائل بدوى
في واقعة مثيرة تُسلّط الضوء على التحديات المتزايدة في عالم الأمن السيبراني، كشفت شركة SentinelOne عن هجوم إلكتروني واسع النطاق نفذته أداة خبيثة تُدعى AkiraBot.
الهجوم استهدف أكثر من 80,000 موقع إلكتروني، معظمها مملوك لشركات صغيرة ومتوسطة تعتمد على منصات مثل Shopify، GoDaddy، Wix، وSquarespace.

وقد اكد خبير التحول الرقمى المصرى / محمود فرج ان “اعتمدت AkiraBot على واجهة برمجة التطبيقات (API) الخاصة بالدردشة من OpenAI لإنشاء رسائل تسويقية مزيفة. كانت توجه الذكاء الاصطناعي للتصرف كمساعد ودود وإنشاء محتوى يروّج لخدمات تحسين محركات البحث (SEO) المزيّفة. وكانت الرسائل تُصاغ بشكل مختلف في كل مرة لتفادي اكتشافها كرسائل مزعجة (سبام).”
واضاف فرج انه “بعد تجهيز الرسائل، كانت AkiraBot تنشرها في نوافذ الدردشة ونماذج التواصل في المواقع الإلكترونية، على أمل خداع أصحاب المواقع ودفعهم لشراء هذه الخدمات الوهمية. وقد كانت العملية متقدمة للغاية، حيث استخدمت AkiraBot أدوات لتجاوز اختبارات CAPTCHA، وعملت من خلال شبكة بروكسي لإخفاء هويتها.”
واللافت في هذه الحادثة لم يكن فقط عدد الضحايا، بل الأسلوب الذكي والمبتكر الذي استخدمته AkiraBot، حيث اعتمدت على الذكاء الاصطناعي وتحديدًا على واجهة برمجة التطبيقات (API) للدردشة الخاصة بـ OpenAI، لتوليد محتوى احتيالي عالي الجودة.
فكيف تعمل AkiraBot؟
بحسب تحليل SentinelOne، اعتمدت AkiraBot على مزيج متطور من تقنيات الذكاء الاصطناعي وأدوات التمويه السيبراني:
1. الاعتماد على API من OpenAI
تم توجيه واجهة الذكاء الاصطناعي لتقديم نفسه كمساعد تسويقي ودود، يكتب رسائل تبدو احترافية، تقترح تحسين محركات البحث (SEO)، وتعرض خدمات مغرية بأسلوب مهذب ومقنع.
2. صياغة الرسائل بأسلوب متجدد دائمًا
لم تكن AkiraBot ترسل رسائل متكررة أو متطابقة. بل كانت تُصيغ كل رسالة بأسلوب مختلف لتفادي أنظمة الكشف عن الرسائل المزعجة (Spam Filters).
3. نشر الرسائل عبر نوافذ الدردشة ونماذج التواصل
استهدفت AkiraBot مباشرة قنوات التواصل في المواقع، مثل Live Chat وContact Forms، لضمان ظهور الرسائل أمام مسؤولي المواقع.
4. تجاوز اختبارات CAPTCHA
استخدمت تقنيات آلية متقدمة لكسر أو تجاوز اختبارات CAPTCHA، التي عادة ما تمنع الروبوتات من الوصول إلى هذه النوافذ.
5. التخفي باستخدام شبكة بروكسي
كل عملية كانت تتم من خلال شبكات بروكسي موزعة، مما جعل تتبع مصدر الهجمات شبه مستحيل.
الهدف من العملية؟
إقناع أصحاب المواقع بشراء خدمات تسويق رقمي مزيفة.
الرسائل كانت تقترح حزم SEO “مخصصة” لتحسين ترتيب الموقع في محركات البحث، مع ضمانات زائفة بالنتائج السريعة.
وبالطبع، بمجرد الدفع، تختفي الخدمة… ويختفي المحتال.
رد الفعل: تدخل سريع من OpenAI
بمجرد اكتشاف استخدام واجهتها في أنشطة خبيثة، قامت شركة OpenAI بإغلاق مفتاح API الذي كانت تستخدمه AkiraBot.
ويُعد هذا التحرك إشارة قوية على أهمية المراقبة الاستباقية لأنشطة استخدام واجهات الذكاء الاصطناعي، لا سيما في ظل نمو استخدامها في مجالات متعددة.
الرسائل المستفادة من الحادثة
1. الذكاء الاصطناعي سلاح ذو حدين.
يمكن استخدامه لبناء أدوات مفيدة، لكنه في أيدٍ خبيثة يتحول إلى آلة متقنة لخداع الناس.
2. أصحاب المواقع الصغيرة هم الحلقة الأضعف.
غالبًا لا يمتلكون خبرات أمنية كافية، ويقعون بسهولة ضحايا لرسائل احتيالية تبدو “احترافية”.
3. تزايد استغلال واجهات الذكاء الاصطناعي المفتوحة.
أصبحت أدوات مثل GPT وBard وClaude أهدافًا للاستغلال في عمليات التصيّد والاحتيال.
4. الحاجة إلى حماية واجهات الـ API بالتحقق الصارم.
يجب على الشركات المزودة للذكاء الاصطناعي أن تضع أدوات للكشف المبكر عن الاستخدام الضار، وربما توفّر وضعيات “استخدام أخلاقي” أو “مراقبة تلقائية” للسلوكيات المشبوهة.
كيف نحمي مواقعنا؟
• تفعيل حماية CAPTCHA المتقدمة.
• مراقبة جميع الرسائل عبر نوافذ التواصل والتبليغ عن الأنماط المشبوهة.
• تثبيت إضافات الحماية من البريد المزعج (Anti-Spam Filters).
• استخدام جدران حماية تطبيقات الويب (WAF).
• عدم الوثوق في أي عرض غير رسمي يأتي من جهة غير معروفة.
الذكاء الاصطناعي كوسيلة هجوم: معضلة المستقبل
الصورة المرفقة توضح ببساطة كيف تحولت أدوات الذكاء الاصطناعي المفتوحة إلى جزء من البنية التحتية للهجمات السيبرانية:
• AkiraBot يتحكم في العملية برمتها.
• يستدعي واجهة OpenAI لصناعة رسالة تسويقية مزيفة بشكل إنساني ومقنع.
• يدمج الرسالة داخل نموذج دردشة أو تواصل في مواقع إلكترونية صغيرة.
• يستخدم شبكة بروكسي عالمية لتجنب التتبع، ويخترق اختبارات CAPTCHA لإتمام المهمة.
• والنتيجة؟ وصول مباشر لصاحب الموقع برسالة خادعة يصعب تمييزها عن الرسائل الشرعية.
هل نحن مستعدون لهذا النوع من الهجمات؟
ما يجعل هجوم AkiraBot خطيرًا ليس فقط التقنية المستخدمة، بل سهولة تكرار النموذج.
فأي جهة خبيثة تستطيع أن:
• تستأجر API من نموذج لغوي قوي،
• توظف بروكسي،
• وتبدأ بالتصيد الاحتيالي في أقل من 24 ساعة.
وهنا تظهر الحاجة إلى مفهوم جديد في الأمن السيبراني:
حماية ذكية ضد الذكاء الاصطناعي.
خطوة نحو المستقبل: تأمين واجهات الذكاء
ينبغي على شركات تطوير النماذج اللغوية (LLMs) أن تطور أنظمة لرصد:
• أنماط الاستخدام غير الطبيعي
• النصوص الاحتيالية المتكررة
• طلبات API ذات نوايا ضارة
كما يجب أن تتعاون المنصات الكبرى (Shopify، Wix، وغيرها) مع شركات الأمن السيبراني لتضمين:
• فلاتر ذكية للنصوص الاحتيالية
• تحديثات منتظمة لأنظمة CAPTCHA
• أنظمة تحليل سلوك للزوار (Behavioral Analytics)
الوعي والتأهب
هجوم AkiraBot ليس النهاية، بل مجرد بداية لجيل جديد من الهجمات التي توظف ذكاءً اصطناعيًا يفهم كيف نخاطب الإنسان… ليخدعه.
لذا، علينا أن نستثمر ليس فقط في أدوات الأمن…
بل في فهمنا لطبيعة التهديدات القادمة.
“ما يُكتب في ثوانٍ من روبوت مدرّب… قد ينهار أمامه موقع بُني في سنوات.”
الخاتمة: الذكاء الاصطناعي لا يُخطئ… لكنه يُستغل
هجوم AkiraBot يوضح أن المهاجمين لم يعودوا فقط قراصنة متمرسين بل قراصنة مدعومون بالذكاء الاصطناعي.
وعليه، فإن معركة الأمن السيبراني في السنوات القادمة لن تكون فقط مع أدوات تقليدية،
بل مع نماذج لغوية تستطيع إقناع، التمويه، والتعلّم من أخطائها.
الحذر مطلوب… ولكن الأهم أن نكون على دراية.