Il settore della cybersecurity ha da tempo anticipato il momento in cui l'intelligenza artificiale si sarebbe trasformata da un facilitatore della difesa a un acceleratore dell'offesa. Quel momento non è più ipotetico. Rapporti recenti rivelano che un gruppo organizzato di minacce ha sfruttato un assistente di codifica AI, Claude Code, per orchestrare autonomamente una vasta campagna di attacco in più fasi contro decine di organizzazioni in tutto il mondo.
Cosa è successo
Secondo le rivelazioni pubbliche, gli aggressori hanno utilizzato Claude Code per:
- Automatizzare la ricognizione, l'intrusione, la raccolta di credenziali e il movimento laterale.
- Genera rapidamente malware personalizzati, note di riscatto e calcola persino le richieste di riscatto.
- Esfiltrazione di dati sensibili in oltre 17 organizzazioni vittime che operano nel settore sanitario, governativo e dei servizi di emergenza.
Anthropic, lo sviluppatore dietro Claude, ha chiuso rapidamente gli account maligni e ha rafforzato i suoi controlli di sicurezza. Tuttavia, l'incidente segnala un cambiamento sismico: i criminali informatici non hanno più bisogno di competenze tecniche profonde - l'IA può scrivere, iterare ed eseguire per loro conto alla velocità della macchina.
Perché è importante
Questo attacco di "AI agenziale" segna un punto di svolta in cui gli attori malintenzionati sfruttano l'AI come operatore, non solo come strumento. Le difese perimetrali tradizionali da sole non possono tenere il passo con la velocità, la creatività e l'adattabilità delle minacce guidate dall'AI. Le aziende devono presumere che gli avversari sondino continuamente ogni risorsa SaaS e cloud alla ricerca di punti deboli, e lo facciano più velocemente di quanto i difensori umani possano reagire.
Andare avanti
L'ascesa del crimine informatico abilitato dall'AI costringe ogni azienda a ripensare la propria postura di sicurezza. La difesa dagli attacchi "agici" non riguarda più un singolo prodotto o un punto di controllo: richiede cambiamenti culturali, di governance e di architettura in tutta l'azienda. Le azioni chiave includono:
- Inventario e classificazione dell'uso dell'AI - Mappare tutti gli strumenti di AI sanzionati e non sanzionati nell'ambiente e determinare il loro profilo di rischio.
- Stabilire chiare politiche di governance dell'AI - Definire chi può utilizzare quali sistemi di AI, per quali scopi e secondo quali regole di gestione dei dati.
- Incorporare controlli incentrati sui dati - Proteggere i dati sensibili ovunque viaggino, combinando crittografia, criteri di accesso forti e DLP con intelligenza artificiale.
- Protezione dell'identità e dell'accesso - Applicare i privilegi minimi, l'autenticazione multifattoriale e il monitoraggio comportamentale per evitare movimenti laterali automatizzati.
- Monitoraggio e adattamento continui - Sfrutta l'analisi, le informazioni sulle minacce e il baselining del comportamento degli utenti per rilevare le interazioni anomale dell'AI in tempo reale.
- Pianificare una risposta rapida - Creare playbook di risposta agli incidenti che presuppongano che gli aggressori possano muoversi alla velocità delle macchine e che richiedano un contenimento automatico.
L'adozione dell'AI porta un innegabile valore aziendale, ma introduce anche nuove superfici di attacco a una velocità senza precedenti. Le aziende che trattano il rischio AI come una priorità a livello di consiglio di amministrazione, modernizzano i loro controlli e promuovono la responsabilità trasversale dei team, saranno in grado di innovare in modo sicuro, anche se gli avversari si evolvono.
Il quadro generale
L'AI in azienda è qui per restare. Il valore aziendale e l'innovazione dipendono dall'utilizzo di GenAI, copiloti e automazione intelligente. Ma come dimostra questo incidente, gli avversari stanno già utilizzando gli stessi strumenti per scalare gli attacchi. I leader della sicurezza devono costruire difese AI-centriche per garantire che l'azienda possa adottare l'innovazione senza accettare rischi inaccettabili.
L'era dell'AI richiede una sicurezza consapevole dell'AI. Con Skyhigh SSE, le organizzazioni possono abbracciare l'innovazione, senza lasciare la porta aperta alla prossima generazione di crimini informatici.
Per saperne di più su Skyhigh Security SSE qui.