لطالما توقعت صناعة الأمن السيبراني منذ فترة طويلة اللحظة التي سيتحول فيها الذكاء الاصطناعي من عامل تمكين للدفاع إلى عامل تسريع للهجوم. هذه اللحظة لم تعد افتراضية. فقد كشفت التقارير الأخيرة كشفت أن مجموعة تهديدات منظمة استغلت مساعد ترميز يعمل بالذكاء الاصطناعي - كلود كود - لتنسيق حملة هجومية واسعة النطاق ومتعددة المراحل بشكل مستقل ضد عشرات المؤسسات في جميع أنحاء العالم.
ما حدث
وفقًا لما تم الكشف عنه علنًا، استخدم المهاجمون كود Claude Code من أجل
- أتمتة الاستطلاع، والتسلل، وحصاد بيانات الاعتماد، والحركة الجانبية
- إنشاء برمجيات خبيثة مخصصة، وملاحظات الفدية بسرعة، وحتى حساب طلبات الفدية
- استخرج البيانات الحساسة عبر أكثر من 17 منظمة ضحية تشمل الرعاية الصحية والحكومة وخدمات الطوارئ
وسرعان ما قامت شركة أنثروبيك، المطور الذي يقف وراء كلود، بإغلاق الحسابات الخبيثة وعززت ضوابط السلامة الخاصة بها. ومع ذلك، فإن الحادث يشير إلى تحول زلزالي: لم يعد مجرمو الإنترنت بحاجة إلى مهارات تقنية عميقة - فالذكاء الاصطناعي يمكنه الكتابة والتكرار والتنفيذ نيابة عنهم بسرعة الآلة.
ما أهمية ذلك
يمثل هجوم "الذكاء الاصطناعي العميل" نقطة تحول حيث تستفيد الجهات الفاعلة الخبيثة من الذكاء الاصطناعي كمشغل، وليس مجرد أداة. لا يمكن للدفاعات المحيطية التقليدية وحدها مواكبة سرعة وإبداع وقدرة التهديدات القائمة على الذكاء الاصطناعي على التكيف. يجب على الشركات أن تفترض أن الخصوم سوف يستكشفون باستمرار كل البرمجيات كخدمة وموارد السحابة بحثاً عن نقاط الضعف، وأن يفعلوا ذلك بشكل أسرع من قدرة المدافعين البشريين على الاستجابة.
المضي قدماً
إن ظهور الجرائم الإلكترونية المدعومة بالذكاء الاصطناعي يجبر كل مؤسسة على إعادة التفكير في وضعها الأمني. لم يعد الدفاع ضد الهجمات "العميلة" يتعلق بمنتج واحد أو نقطة تحكم واحدة، بل يتطلب تغييرات في الثقافة والحوكمة والبنية في جميع أنحاء الشركة. تشمل الإجراءات الرئيسية ما يلي:
- جرد وتصنيف استخدامات الذكاء الاصطناعي - حصر وتصنيف جميع أدوات الذكاء الاصطناعي المصرح بها وغير المصرح بها في البيئة وتحديد ملف المخاطر الخاص بها.
- وضع سياسات حوكمة واضحة للذكاء الاصطناعي - تحديد من يمكنه استخدام أنظمة الذكاء الاصطناعي ولأي أغراض، وبموجب قواعد التعامل مع البيانات.
- تضمين عناصر التحكم المرتكزة على البيانات - حماية البيانات الحساسة في كل مكان تنتقل إليه من خلال الجمع بين التشفير ونُهج الوصول القوية وبرمجة معالجة البيانات DLP المدركة للذكاء الاصطناعي.
- تحصين الهوية والوصول - فرض الحد الأدنى من الامتيازات، والمصادقة متعددة العوامل، والمراقبة السلوكية لمنع الحركة الجانبية الآلية.
- المراقبة والتكيف باستمرار - الاستفادة من التحليلات ومعلومات التهديدات وتحديد خط الأساس لسلوك المستخدم لاكتشاف تفاعلات الذكاء الاصطناعي غير الطبيعية في الوقت الفعلي.
- خطّط للاستجابة السريعة - قم ببناء قواعد تشغيل للاستجابة للحوادث تفترض أن المهاجمين قد يتحركون بسرعة الآلة ويتطلبون احتواءً آليًا.
إن اعتماد الذكاء الاصطناعي يجلب قيمة تجارية لا يمكن إنكارها، ولكنه يقدم أيضًا أسطحًا جديدة للهجوم بسرعة غير مسبوقة. إن الشركات التي تتعامل مع مخاطر الذكاء الاصطناعي كأولوية على مستوى مجلس الإدارة، وتقوم بتحديث ضوابطها، وتعزز المساءلة المشتركة بين الفرق، ستكون في وضع يسمح لها بالابتكار بأمان - حتى مع تطور الأعداء.
الصورة الأكبر
الذكاء الاصطناعي في المؤسسة موجود ليبقى. تعتمد قيمة الأعمال والابتكار على الاستفادة من الذكاء الاصطناعي الجيني، والذكاء الاصطناعي المساعد، والأتمتة الذكية. ولكن كما يظهر هذا الحادث، فإن الخصوم يستخدمون بالفعل الأدوات نفسها لتوسيع نطاق الهجمات. يجب على قادة الأمن بناء دفاعات تركز على الذكاء الاصطناعي لضمان قدرة الأعمال على تبني الابتكار دون قبول مخاطر غير مقبولة.
يتطلب عصر الذكاء الاصطناعي أمنًا مدركًا للذكاء الاصطناعي. وبفضل نظام Skyhigh SSE، يمكن للمؤسسات أن تتبنى الابتكار - دون ترك الباب مفتوحاً أمام الجيل القادم من الجرائم الإلكترونية.
اعرف المزيد عن Skyhigh Security SSE هنا.