بقلم سارانج وارودكار - مدير تسويق المنتجات التقنية في CASB، Skyhigh Security وجون دورونيو - مهندس مبيعات برمجيات, Skyhigh Security
12 ديسمبر 2024 3 قراءة دقيقة
مع تحول الذكاء الاصطناعي والنماذج اللغوية الكبيرة (LLMs) إلى أعمال تجارية، فإنها تجلب معها فرصًا ومخاطر في آنٍ واحد. في حين أن الذكاء الاصطناعي يقود الكفاءة والابتكار، إلا أنه يفرض أيضًا تحديات مثل انتهاكات البيانات، وانتهاكات الامتثال، واستخدام الذكاء الاصطناعي الخفي. إن الاعتماد السريع للذكاء الاصطناعي غالبًا ما يفوق الحوكمة، مما يجعل المؤسسات عرضة لمخاطر تتعلق بالسمعة والمخاطر المالية والقانونية دون اتخاذ تدابير أمنية مناسبة.
وإدراكًا للأهمية الحاسمة لاعتماد الذكاء الاصطناعي الآمن، أصدر البيت الأبيض مؤخرًا مذكرة الأمن القومي الافتتاحية بشأن الذكاء الاصطناعي، والتي تُلزم جميع الوكالات الفيدرالية الأمريكية بتعيين كبير مسؤولي الذكاء الاصطناعي في غضون 60 يومًا من صدور التوجيه.
تؤكد هذه المذكرة على الحاجة الملحة إلى إنشاء حوكمة قوية لاستخدام الذكاء الاصطناعي لمنع مخاطر الأمن السيبراني وضمان الامتثال. Skyhigh Security في طليعة من يلبي هذه الاحتياجات من خلال منصة Secure Service Edge (SSE) التي تتميز بحل Skyhigh AI، وهو حل متقدم لإدارة أمن الذكاء الاصطناعي. يتماشى حل Skyhigh AI بسلاسة مع إطار عمل إدارة مخاطر الذكاء الاصطناعي (AI RMF 1.0) التابع للمعهد الوطني للمعايير والتكنولوجيا (NIST)، حيث يقدم نهجًا منظمًا لإدارة مخاطر الذكاء الاصطناعي عبر أربع وظائف أساسية: رسم الخرائط والقياس والإدارة والحوكمة.

دعنا نتعمق في كيفية مساعدة Skyhigh AI للمؤسسات على التوافق مع إطار إدارة علاقات الذكاء الاصطناعي NIST وتطبيق ممارسات الذكاء الاصطناعي الآمنة والمسؤولة.
تشدد الوظيفة الأولى من إطار عمل إدارة RMF للذكاء الاصطناعي للمعهد الوطني للمعايير والتكنولوجيا والابتكار على فهم السياق والنطاق وأصحاب المصلحة المشاركين في نظام الذكاء الاصطناعي. تتفوق Skyhigh AI، التي تم إطلاقها في مؤتمر RSA 2024، في هذا المجال من خلال تقديم
توفر هذه القدرة على رسم الخرائط للمؤسسات فهماً متعمقاً لمنظومة الذكاء الاصطناعي الخاصة بها، مما يمكّنها من تحديد المخاطر المرتبطة باستخدام تطبيقات الذكاء الاصطناعي في الوقت الفعلي تقريباً والتخفيف من الانتهاكات المحتملة للبيانات.
بمجرد تعيين النظام البيئي للذكاء الاصطناعي، يجب على المؤسسات تقييم المخاطر وتحديدها. تقدم Skyhigh AI أدوات قوية لتقييم أمن أنظمة الذكاء الاصطناعي منخفضة المخاطر، بما في ذلك:
تعمل Skyhigh AI على تبسيط عملية التقييم المستمر للمخاطر التي تتطلب عملاً مكثفاً من خلال الاستفادة من الأتمتة لضمان بقاء المؤسسات على اطلاع دائم بالتهديدات الناشئة مع التوافق مع معايير NIST.
تحديد المخاطر وحده غير كافٍ. تركز وظيفة الإدارة في NIST AI RMF على تنفيذ ضوابط فعالة للتخفيف من المخاطر ذات الأولوية العالية. وتوفر Skyhigh AI، المدمجة مع Secure Web Gateway وCASB المعتمدين من FedRAMP High المعتمدين من FedRAMP، ما يلي:
تعمل هذه التدابير على تمكين المؤسسات من التخفيف من المخاطر بشكل استباقي مع تعزيز الإنتاجية والابتكار.
الحوكمة والتحسين المستمر ضروريان لاعتماد الذكاء الاصطناعي المستدام. تدعم Skyhighigh AI ذلك من خلال:
تُمكِّن هذه الميزات المؤسسات من إنشاء آليات رقابية قوية، مما يضمن التحسينات المستمرة في ممارسات إدارة مخاطر الذكاء الاصطناعي.
توفر Skyhigh AI رؤية واضحة لتطبيقات الذكاء الاصطناعي، وفهم المخاطر بما في ذلك سمات المخاطر القائمة على LLM، وDLP على البيانات التي تذهب إلى تطبيقات الذكاء الاصطناعي، والتحقيق في التهديدات وUEBA على تطبيقات الذكاء الاصطناعي.
يتماشى هذا النهج الشامل للذكاء الاصطناعي من Skyhigh مع إطار عمل المعهد الوطني للمعايير والتكنولوجيا والابتكار. ومن خلال معالجة الوظائف الأساسية لإطار العمل - الخريطةوالقياس والإدارة والحوكمة -تزودSkyhighAI المؤسسات بتجهيز المؤسسات للاستفادة من الإمكانات التحويلية للذكاء الاصطناعي مع الحماية من المخاطر المرتبطة به. مع استمرار تطور الذكاء الاصطناعي، تظل Skyhigh AI شريكًا موثوقًا به في تمكين تبني الذكاء الاصطناعي الآمن والمسؤول والمبتكر.
العودة إلى المدوناتسارانغ وارودكار 18 فبراير 2026
نيهاريكا راي وسارانغ وارودكار 12 فبراير 2026
Thyaga Vasudevan 21 يناير 2026
جيسي غريندلاند 18 ديسمبر 2025
ثياغا فاسوديفان 12 ديسمبر 2025