Par Suhaas Kodagali et Sarang Warudkar -
14 juillet 2025 5 Lecture minute
La récente divulgation de EchoLeak (CVE-2025-32711)-(CVE-2025-32711), une vulnérabilité d'injection d'invite indirecte sans clic ciblant Microsoft 365 Copilot, a envoyé un signal clair dans les salles de réunion et les SOC : L'IA n'est plus seulement un outil de productivité. Elle fait désormais partie de la surface d'attaque des entreprises.
Ce qui rend EchoLeak particulièrement alarmant, c'est qu'aucune action de la part de l'utilisateur n'était nécessaire. Il a suffi d'un courriel malveillant pour que Copilot ingère des instructions cachées, agisse en conséquence et risque de divulguer des données sensibles, le tout en arrière-plan.
Pour les RSSI et les équipes de protection des données, il ne s'agit pas seulement d'une sonnette d'alarme, mais d'une obligation de repenser la manière dont l'IA est gouvernée, sécurisée et contrôlée dans l'entreprise.
Qu'est-ce qu'EchoLeak ?
- Attaque zéro-clic: Aucune action de la part de l'utilisateur n'est requise - il suffit d'envoyer un courrier électronique élaboré. Même sans l'ouvrir ou interagir avec lui, Copilot peut ingérer des instructions cachées lorsqu'il résume les données de l'espace de travail.
- Injection indirecte rapide: Le contenu malveillant est intégré dans des courriels ou des documents "normaux" - la terminologie et la formulation sont soigneusement élaborées pour que Copilot les considère comme des demandes bénignes.
- Exploitation du RAG: Le système de récupération de Copilot inclut les courriels récents dans leur contexte. Lors de la synthèse, il peut repérer l'invite malveillante et exécuter des tâches telles que l'extraction de données sensibles et leur exfiltration par le biais d'images cachées ou de liens markdown vers des serveurs contrôlés par l'attaquant.
5 leçons essentielles que chaque organisation devrait tirer d'EchoLeak
1. L'IA fantôme est l'angle mort qui se développe le plus rapidement
L'utilisation de l'IA dans l'ombre explose dans les entreprises. le trafic vers les applications d'IA a augmenté de 200 % au cours de l'année dernière et les entreprises utilisent en moyenne 320 applications d'IA non approuvées. (AI CARR 2025). Cette augmentation souligne la façon dont les outils basés sur l'IA sont adoptés en dehors de toute supervision informatique, ce qui crée des problèmes de visibilité et de gouvernance. De plus, les employés téléchargent des données d'entreprise dans ces applications afin d'optimiser leurs flux de travail. Pour y remédier, les organisations s'appuient sur des solutions d'ESS pour découvrir automatiquement les outils d'IA non approuvés, attribuer des scores de risque et appliquer des politiques qui empêchent l'accès non autorisé aux données. En fait, les solutions d'ESS fournissent des informations sur le risque de LLM pour les apps d'IA non approuvées, ce qui permet une plus grande gouvernance sur les apps d'IA autorisées au sein de l'entreprise. Grâce à ces garde-fous, les équipes de sécurité peuvent reprendre le contrôle de l'adoption de l'IA par les employés de l'entreprise, qui se développe rapidement.
2. La protection des données sur les applications d'IA est essentielle
Les données deSkyhigh Security révèlent que 11 % des fichiers téléchargés vers des applications d'IA contiennent du contenu d'entreprise sensiblePourtant moins de 10 % des entreprises ont mis en œuvre des politiques de protection des données pour atténuer ce risque. (AI CARR 2025). Le contrôle des données téléchargées vers les applications d'IA joue un rôle important dans ce qui peut être exfiltré. L'une des principales préoccupations des équipes de sécurité aujourd'hui est qu'une fois que les données de l'entreprise sont téléchargées dans l'application d'IA, il est possible pour les utilisateurs à l'intérieur ou à l'extérieur de l'entreprise de récupérer ces données à l'aide d'une ingéniosité astucieuse. C'est pourquoi l'application de la DLP sur les données téléchargées dans les applications d'IA est désormais un élément essentiel de la sécurité des données de l'entreprise. Cela inclut les données téléchargées vers des applications d'IA fantômes et des applications d'IA approuvées par l'entreprise.
3. L'exposition des données de l'entreprise via Microsoft Copilot est un risque majeur d'exfiltration de données
L'ascension fulgurante de Microsoft Copilot...le trafic a été multiplié par 3 600 et les téléchargements de données par 6 000 au cours de l'année écoulée (AI CARR 2025)-souligne la rapidité avec laquelle les assistants alimentés par le LLM s'intègrent dans les flux de travail des entreprises. Outre le fait que des données sensibles sont téléchargées vers M365 Copilot, les équipes de sécurité sont également préoccupées par le fait que les données ingérées par Copilot sont partagées par le chatbot avec des employés qui reçoivent des messages-guides pour les récupérer. Par exemple, Copilot pourrait révéler les détails d'un projet classifié à un employé non autorisé après avoir ingéré une présentation ou une transcription de réunion contenant des informations sur ce projet. Pour remédier à ce problème, les équipes de sécurité utilisent le DLP dans les solutions ESS pour appliquer les étiquettes de classification nécessaires afin d'empêcher l'ingestion de données sensibles dans Copilot. Ainsi, même en cas d'ingénierie rapide, Copilot ne révèlera pas ce contenu.
4. Les risques d'injection rapide nécessitent une défense proactive
EchoLeak appartient à une catégorie croissante d'attaques appelées "indirect prompt injection", dans lesquelles des instructions malveillantes sont dissimulées dans un contenu d'apparence anodine. C'est alarmant, 94 % des services d'IA sont vulnérables à au moins un vecteur de risque LLM, y compris l'injection rapide, les logiciels malveillants, la partialité ou la toxicité. (AI CARR 2025). Pour lutter contre ce problème, les entreprises utilisent des plateformes d'ESS dotées d'une protection contre l'injection rapide qui analyse et assainit les entrées avant qu'elles n'atteignent les systèmes d'IA de l'entreprise, neutralisant ainsi efficacement les menaces cachées.
5. Surveillez l'activité de l'IA comme vous le feriez pour les menaces internes
Les agents d'IA fonctionnent à la vitesse du système mais manquent de jugement humain, ce qui fait qu'il est essentiel de considérer leurs actions comme potentiellement risquées, en particulier lorsque leur comportement s'écarte des modèles établis. Pour atténuer ce risque, les entreprises devraient utiliser des solutions d'ESS pour surveiller et suivre l'activité des utilisateurs sur les applications d'IA afin de détecter des schémas d'utilisation, des téléchargements de fichiers ou des téléchargements inhabituels. Ces solutions utilisent l'UEBA pour mettre en évidence les anomalies liées à l'utilisation et à la localisation et les intégrer dans le calcul du risque pour l'utilisateur. Ces flux de travail ont déjà été mis en œuvre par les entreprises sur d'autres solutions SaaS et s'étendent désormais aux applications d'IA.
L'avenir : L'ESS native à l'IA pour des entreprises résilientes
EchoLeak ne sera pas la dernière attaque contre les applications d'IA. À mesure que les utilisateurs comprennent mieux les applications d'IA et l'ingénierie d'incitation, d'autres attaques de ce type sont susceptibles d'être observées. Les entreprises doivent déployer dès aujourd'hui des contrôles sur l'utilisation de l'IA afin de mieux protéger leurs données d'entreprise contre l'exfiltration vers ou via des applications d'IA. Les solutions d'ESS telles que Skyhigh Security offrent des capacités clés pour appliquer ces contrôles.
Capacités essentielles de l'ESS pour prévenir les exploits de l'IA :
- Découverte de l'IA de l'ombre: Détectez les outils GenAI non approuvés et attribuez des scores de risque.
- Gouvernance de l'IA : Appliquez des contrôles pour bloquer les apps d'IA à risque ou appliquer des contrôles d'activité plus granulaires.
- DLP sur les invites de l'IA : Appliquez des contrôles de protection des données aux invites et aux réponses
- Protection contre les injections rapides: Analysez le contenu à la recherche d'invites cachées et bloquez l'utilisation abusive de l'IA.
- UEBA / Surveillance de l'activité : Identifiez les menaces et effectuez des enquêtes sur les activités réalisées sur les applications d'IA.
Skyhigh Security est un pionnier de la sécurité native de l'IA pour l'entreprise. Notre plateforme Security Service Edge (SSE) fournie dans le cloud est conçue de manière unique pour protéger les données sensibles et gérer les risques liés à l'IA - à travers les outils GenAI sanctionnés et non sanctionnés, les copilotes et les agents basés sur le RAG. Avec une expertise approfondie en CASB, SWG, ZTNA, RBI et DLP intégré, Skyhigh permet aux organisations d'adopter l'IA de manière responsable tout en gardant une longueur d'avance sur les menaces émergentes telles qu'EchoLeak.
En savoir plus sur Solutions de sécurité Skyhigh AI aujourd'hui.
À propos des auteurs
Sarang Warudkar
Sr. technique PMM (CASB & AI)
Sarang Warudkar est un chef de produit marketing expérimenté avec plus de 10 ans dans la cybersécurité, compétent pour aligner l'innovation technique avec les besoins du marché. Il apporte une expertise approfondie dans des solutions telles que CASB, DLP, et la détection des menaces basée sur l'IA, en conduisant des stratégies de mise sur le marché impactantes et l'engagement des clients. Sarang est titulaire d'un MBA de l'IIM Bangalore et d'un diplôme d'ingénieur de l'Université de Pune, alliant vision technique et stratégique.
Suhaas Kodagali
Directeur, Gestion des produits
Suhaas Kodagali est directeur de la gestion des produits et supervise la ligne de produits CASB et les initiatives de sécurité de l'IA chez Skyhigh Security. Il a plus de 15 ans d'expérience dans la direction de la stratégie produit et la fourniture de produits de sécurité cloud de premier plan pour les entreprises.
Retour à Blogs