Vai al contenuto principale
DIGEST DELL'INTELLIGENCE

Quando l'AI diventa avversaria: Lezioni dalla follia del crimine informatico alimentato da Claude

Di Sarang Wardukar - Sr. Technical Product Marketing Manager

5 settembre 2025 7 minuti di lettura

Il settore della cybersecurity ha da tempo anticipato il momento in cui l'intelligenza artificiale si sarebbe trasformata da un facilitatore della difesa a un acceleratore dell'offesa. Quel momento non è più ipotetico. Rapporti recenti rivelano che un gruppo organizzato di minacce ha sfruttato un assistente di codifica AI, Claude Code, per orchestrare autonomamente una vasta campagna di attacco in più fasi contro decine di organizzazioni in tutto il mondo.

Cosa è successo

Secondo le rivelazioni pubbliche, gli aggressori hanno utilizzato Claude Code per:

  • Automatizzare la ricognizione, l'intrusione, la raccolta di credenziali e il movimento laterale.
  • Genera rapidamente malware personalizzati, note di riscatto e calcola persino le richieste di riscatto.
  • Esfiltrazione di dati sensibili in oltre 17 organizzazioni vittime che operano nel settore sanitario, governativo e dei servizi di emergenza.

Anthropic, lo sviluppatore dietro Claude, ha chiuso rapidamente gli account maligni e ha rafforzato i suoi controlli di sicurezza. Tuttavia, l'incidente segnala un cambiamento sismico: i criminali informatici non hanno più bisogno di competenze tecniche profonde - l'IA può scrivere, iterare ed eseguire per loro conto alla velocità della macchina.

Perché è importante

Questo attacco di "AI agenziale" segna un punto di svolta in cui gli attori malintenzionati sfruttano l'AI come operatore, non solo come strumento. Le difese perimetrali tradizionali da sole non possono tenere il passo con la velocità, la creatività e l'adattabilità delle minacce guidate dall'AI. Le aziende devono presumere che gli avversari sondino continuamente ogni risorsa SaaS e cloud alla ricerca di punti deboli, e lo facciano più velocemente di quanto i difensori umani possano reagire.

Andare avanti

L'ascesa del crimine informatico abilitato dall'AI costringe ogni azienda a ripensare la propria postura di sicurezza. La difesa dagli attacchi "agici" non riguarda più un singolo prodotto o un punto di controllo: richiede cambiamenti culturali, di governance e di architettura in tutta l'azienda. Le azioni chiave includono:

  1. Inventario e classificazione dell'uso dell'AI - Mappare tutti gli strumenti di AI sanzionati e non sanzionati nell'ambiente e determinare il loro profilo di rischio.
  2. Stabilire chiare politiche di governance dell'AI - Definire chi può utilizzare quali sistemi di AI, per quali scopi e secondo quali regole di gestione dei dati.
  3. Incorporare controlli incentrati sui dati - Proteggere i dati sensibili ovunque viaggino, combinando crittografia, criteri di accesso forti e DLP con intelligenza artificiale.
  4. Protezione dell'identità e dell'accesso - Applicare i privilegi minimi, l'autenticazione multifattoriale e il monitoraggio comportamentale per evitare movimenti laterali automatizzati.
  5. Monitoraggio e adattamento continui - Sfrutta l'analisi, le informazioni sulle minacce e il baselining del comportamento degli utenti per rilevare le interazioni anomale dell'AI in tempo reale.
  6. Pianificare una risposta rapida - Creare playbook di risposta agli incidenti che presuppongano che gli aggressori possano muoversi alla velocità delle macchine e che richiedano un contenimento automatico.

L'adozione dell'AI porta un innegabile valore aziendale, ma introduce anche nuove superfici di attacco a una velocità senza precedenti. Le aziende che trattano il rischio AI come una priorità a livello di consiglio di amministrazione, modernizzano i loro controlli e promuovono la responsabilità trasversale dei team, saranno in grado di innovare in modo sicuro, anche se gli avversari si evolvono.

Il quadro generale

L'AI in azienda è qui per restare. Il valore aziendale e l'innovazione dipendono dall'utilizzo di GenAI, copiloti e automazione intelligente. Ma come dimostra questo incidente, gli avversari stanno già utilizzando gli stessi strumenti per scalare gli attacchi. I leader della sicurezza devono costruire difese AI-centriche per garantire che l'azienda possa adottare l'innovazione senza accettare rischi inaccettabili.

L'era dell'AI richiede una sicurezza consapevole dell'AI. Con Skyhigh SSE, le organizzazioni possono abbracciare l'innovazione, senza lasciare la porta aperta alla prossima generazione di crimini informatici.

Per saperne di più su Skyhigh Security SSE qui.

Come Skyhigh Security SSE protegge le imprese

Il servizio di sicurezza diSkyhigh SecuritySecurity Service Edge (SSE) di Skyhigh Security di Skyhigh Security è stata costruita per questo panorama in evoluzione. Sebbene nessun controllo singolo elimini tutti i rischi, un approccio stratificato e consapevole dell'intelligenza artificiale cambia le carte in tavola. Le funzionalità chiave includono:

  1. Shadow AI Discovery
    Inventario continuo e valutazione del rischio di tutte le app AI e SaaS, autorizzate o meno, in modo che i team di sicurezza possano vedere i rischi emergenti prima che diventino armi.
  2. Governance dell'utilizzo dell'AI
    Applicazione centralizzata delle politiche per bloccare, sanzionare o limitare strumenti di AI in base al rischio aziendale, assicurando che solo i servizi affidabili siano utilizzati con dati sensibili.
  3. Data Loss Prevention (DLP) consapevole dell'AI
    Ispezione profonda di testo, codice e documenti che fluiscono verso o fuori dagli strumenti di AI, per prevenire l'esfiltrazione di dati riservati, anche all'interno di prompt e risposte.
  4. Difesa da Prompt e Iniezione
    Sanitizzazione e ispezione degli input per bloccare le istruzioni nascoste o dannose progettate per dirottare i flussi di lavoro dell'AI.
  5. Analisi del comportamento di utenti ed entità (UEBA)
    Baselining comportamentale continuo sulle app SaaS e AI, per individuare anomalie come l'accesso massivo ai file, l'escalation sospetta dei privilegi o i caricamenti improvvisi di codice guidati dall'AI.
  6. Intelligenza e risposta integrata alle minacce

I flussi di lavoro automatizzati di rilevamento e correzione consentono ai team di sicurezza di isolare, bloccare e contenere gli incidenti prima che abbiano un impatto diffuso.

Sarang Wardukar

Sull'autore

Sarang Wardukar

Sr. Technical Product Marketing Manager

Sarang Warudkar è un esperto Product Marketing Manager con oltre 10 anni di esperienza nella cybersecurity, esperto nell'allineare l'innovazione tecnica alle esigenze del mercato. Ha maturato una profonda esperienza in soluzioni come CASB, DLP e rilevamento delle minacce basato sull'AI, guidando strategie go-to-market di grande impatto e il coinvolgimento dei clienti. Sarang ha conseguito un MBA presso l'IIM di Bangalore e una laurea in ingegneria presso l'Università di Pune, combinando intuizioni tecniche e strategiche.

Punti salienti dell'attacco

  • Un gruppo di minacce organizzato sfrutta l'assistente di codifica AI - Claude Code - per orchestrare autonomamente una campagna di attacco a tappeto e in più fasi.
  • Gli aggressori hanno utilizzato Claude Code per:
    • Automatizzare la ricognizione, l'intrusione, la raccolta di credenziali e il movimento laterale.
    • Genera rapidamente malware personalizzati, note di riscatto e calcola persino le richieste di riscatto.
    • Esfiltrazione di dati sensibili in oltre 17 organizzazioni vittime che operano nel settore sanitario, governativo e dei servizi di emergenza.