Skip to main content
BULLETIN D'INFORMATION

Quand l'IA devient hostile : Leçons tirées de la vague de cybercriminalité alimentée par Claude

Par Sarang Wardukar - Responsable du marketing technique des produits

5 septembre 2025 7 Minute Read

Le secteur de la cybersécurité a longtemps anticipé le moment où l'intelligence artificielle passerait d'un outil de défense à un accélérateur d'attaque. Ce moment n'est plus hypothétique. Des rapports récents révèlent qu'un groupe de menace organisé a exploité un assistant de codage d'IA, Claude Code, pour orchestrer de manière autonome une campagne d'attaque de grande envergure et en plusieurs étapes contre des dizaines d'organisations dans le monde entier.

Ce qui s'est passé

Selon les informations rendues publiques, les attaquants ont utilisé le code Claude pour :

  • Automatiser la reconnaissance, l'intrusion, la collecte d'informations d'identification et les mouvements latéraux
  • Générer rapidement des logiciels malveillants personnalisés, des notes de rançon et même calculer les demandes de rançon.
  • Exfiltrer des données sensibles dans plus de 17 organisations victimes dans les domaines de la santé, du gouvernement et des services d'urgence.

Anthropic, le développeur de Claude, a rapidement fermé les comptes malveillants et renforcé ses contrôles de sécurité. Cependant, cet incident est le signe d'un changement radical : les cybercriminels n'ont plus besoin de compétences techniques approfondies - l'intelligence artificielle peut écrire, itérer et exécuter en leur nom à la vitesse d'une machine.

Pourquoi c'est important

Cette attaque par "IA agentique" marque un tournant dans la mesure où les acteurs malveillants exploitent l'IA en tant qu'opérateur et non plus seulement en tant qu'outil. Les défenses périmétriques traditionnelles ne peuvent à elles seules faire face à la vitesse, à la créativité et à l'adaptabilité des menaces basées sur l'IA. Les entreprises doivent s'attendre à ce que les adversaires sondent en permanence chaque ressource SaaS et cloud à la recherche de points faibles, et ce, plus rapidement que les défenseurs humains ne peuvent réagir.

Aller de l'avant

La montée en puissance de la cybercriminalité basée sur l'IA oblige toutes les entreprises à repenser leur dispositif de sécurité. La défense contre les attaques "agentiques" n'est plus l'affaire d'un seul produit ou d'un seul point de contrôle - elle nécessite des changements de culture, de gouvernance et d'architecture dans l'ensemble de l'entreprise. Les actions clés sont les suivantes :

  1. Inventaire et classification de l'utilisation de l'IA - Cartographiez tous les outils d'IA autorisés et non autorisés dans l'environnement et déterminez leur profil de risque.
  2. Établissez des politiques claires de gouvernance de l'IA - Définissez qui peut utiliser quels systèmes d'IA, à quelles fins et selon quelles règles de traitement des données.
  3. Intégrer des contrôles centrés sur les données - Protégez les données sensibles partout où elles circulent en combinant le chiffrement, des politiques d'accès strictes et une DLP sensible à l'IA.
  4. Renforcer l'identité et l'accès - Appliquer le principe du moindre privilège, de l'authentification multifactorielle et de la surveillance comportementale pour empêcher les mouvements latéraux automatisés.
  5. Surveillance et adaptation continues - Exploitez les analyses, les renseignements sur les menaces et le comportement des utilisateurs pour détecter les interactions anormales de l'IA en temps réel.
  6. Planifiez une réponse rapide - Élaborez des plans de réponse aux incidents en tenant compte du fait que les attaquants peuvent se déplacer à la vitesse d'une machine et qu'il est nécessaire de les contenir de manière automatisée.

L'adoption de l'IA apporte une valeur commerciale indéniable, mais elle introduit également de nouvelles surfaces d'attaque à une vitesse sans précédent. Les entreprises qui considèrent les risques liés à l'IA comme une priorité au niveau du conseil d'administration, qui modernisent leurs contrôles et qui encouragent la responsabilisation des équipes seront en mesure d'innover en toute sécurité, même si les adversaires évoluent.

Une vue d'ensemble

L'IA dans l'entreprise est là pour durer. La valeur commerciale et l'innovation dépendent de l'exploitation de la GenAI, des copilotes et de l'automatisation intelligente. Mais comme le montre cet incident, les adversaires utilisent déjà les mêmes outils pour étendre leurs attaques. Les responsables de la sécurité doivent mettre en place des défenses centrées sur l'IA pour s'assurer que l'entreprise peut adopter l'innovation sans accepter de risques inacceptables.

L'ère de l'IA exige une sécurité consciente de l'IA. Avec Skyhigh SSE, les organisations peuvent adopter l'innovation, sans laisser la porte ouverte à la nouvelle génération de cybercriminalité.

Pour en savoir plus sur Skyhigh Security SSE ici.

Comment Skyhigh Security SSE protège les entreprises

Les services deSkyhigh SecuritydeSkyhigh SecuritySecurity Service Edge (SSE) de Skyhigh Security a été conçue pour ce paysage en évolution. Bien qu'aucun contrôle unique n'élimine tous les risques, une approche stratifiée et consciente de l'IA change la donne. Les principales capacités sont les suivantes :

  1. Découverte de l'IA fantôme
    Inventaire continu et évaluation des risques de toutes les applications SaaS et d'IA, approuvées ou non, afin que les équipes de sécurité puissent détecter les risques émergents avant qu'ils ne se transforment en armes.
  2. Gouvernance de l'utilisation de l'IA
    Application centralisée des politiques pour bloquer, sanctionner ou restreindre les outils d'IA en fonction du risque commercial, en veillant à ce que seuls des services de confiance soient utilisés avec des données sensibles.
  3. Data Loss Prevention (DLP) basée sur l'IA
    Inspection approfondie du texte, du code et des documents entrant ou sortant des outils d'IA pour empêcher l'exfiltration de données confidentielles, même au sein des invites et des réponses.
  4. Prompt & Injection Defense
    Assainissement et inspection des entrées pour arrêter les instructions cachées ou malveillantes conçues pour détourner les flux de travail de l'IA.
  5. Analyse du comportement des utilisateurs et des entités (UEBA)
    Analyse comportementale continue des apps SaaS et d'IA, signalant les anomalies telles que les accès massifs aux fichiers, l'escalade suspecte des privilèges ou les téléchargements soudains de code pilotés par l'IA.
  6. Intelligence et réponse intégrées aux menaces

Flux de travail automatisés de détection et de remédiation, permettant aux équipes de sécurité de d'isoler, de bloquer et de contenir les incidents avant qu'ils n'aient un impact généralisé.

Sarang Wardukar

A propos de l'auteur

Sarang Wardukar

Responsable du marketing technique des produits

Sarang Warudkar est un chef de produit marketing expérimenté avec plus de 10 ans dans la cybersécurité, compétent pour aligner l'innovation technique avec les besoins du marché. Il apporte une expertise approfondie dans des solutions telles que CASB, DLP, et la détection des menaces basée sur l'IA, en conduisant des stratégies de mise sur le marché impactantes et l'engagement des clients. Sarang est titulaire d'un MBA de l'IIM Bangalore et d'un diplôme d'ingénieur de l'Université de Pune, alliant vision technique et stratégique.

Points forts de l'attaque

  • Un groupe de menace organisé exploite l'assistant de codage de l'IA - Claude Code - pour orchestrer de manière autonome une vaste campagne d'attaques en plusieurs étapes.
  • Les attaquants ont utilisé le code Claude pour :
    • Automatiser la reconnaissance, l'intrusion, la collecte d'informations d'identification et les mouvements latéraux
    • Générer rapidement des logiciels malveillants personnalisés, des notes de rançon et même calculer les demandes de rançon.
    • Exfiltrer des données sensibles dans plus de 17 organisations victimes dans les domaines de la santé, du gouvernement et des services d'urgence.