Di Sarang Warudkar - Sr. Technical PMM (CASB & AI), Skyhigh Security
8 maggio 2025 5 Minuti di lettura
Dodici mesi fa, il suo CFO era ancora sospettoso nei confronti dei chatbot. Oggi chiede se è possibile "far gestire a ChatGPT i verbali del consiglio di amministrazione". Dalla cauta curiosità ai fogli di calcolo alimentati da Copilot, le aziende hanno puntato tutto sull'AI. E mentre i vantaggi sono reali: velocità, scala e creatività, i rischi...? Oh, sono molto reali anche.
Analizziamo le tendenze, le minacce e i momenti di sconforto più importanti del 2025 Cloud Adoption & Risk Report di Skyhigh Security, con le intuizioni di oltre 3 milioni di utenti e 2 miliardi di eventi cloud quotidiani. Si allacci la cintura.
L'AI è ora l'MVP dell'ufficio. Un recente studio del MIT afferma che ChatGPT riduce il tempo di scrittura del 40%, ovvero circa il tempo che passavamo a chiederci dove fosse stato salvato il file. Gli ingegneri di JPMorgan hanno ottenuto un aumento della produttività del 20% e, si dice, che uno stagista abbia chiesto a Copilot di scrivere la sua lettera di dimissioni prima il loro primo giorno.
Noi di Skyhigh abbiamo visto l'impennata dell'AI in prima persona. Secondo i nostri dati, il traffico verso le app di AI è salito alle stelle - più che triplicato in termini di volume - mentre i caricamenti di dati sensibili su queste piattaforme sono in rapido aumento. Nel frattempo, le app aziendali tradizionali "non AI"? Stanno a malapena tenendo il passo. Il luogo di lavoro non sta solo abbracciando l'AI, ma sta correndo verso di essa.
Traduzione: l'AI sta vincendo: L'AI sta vincendo. Il suo firewall? Non tanto.
La "Shadow AI" potrebbe sembrare la prossima serie di Netflix da non perdere, ma si sta svolgendo in tempo reale in tutte le aziende. Immagini questo: i dipendenti che battono tranquillamente su ChatGPT, Claude, DeepSeek e decine di altri strumenti di AI, completamente fuori dal radar dell'IT. È un po' come introdurre di nascosto delle caramelle in un cinema, solo che questa volta le caramelle sono i dati dei clienti, i dati finanziari e la proprietà intellettuale.
I numeri sono da capogiro: l'azienda media ospita oggi 320 applicazioni di AI. I soliti sospetti? ChatGPT, Gemini, Poe, Claude, Beautiful.AI - strumenti tanto potenti quanto non approvati. Non sono approvati. Non sono monitorati. E, a meno che qualcuno non dica la parola "audit", sono potenzialmente inarrestabili.
Le app di intelligenza artificiale sono divertenti, fino a quando le multe del GDPR non si presentano come ospiti indesiderati ad una riunione di team. I dati di Skyhigh rivelano un lato non proprio super di tutto questo entusiasmo per l'AI. Risulta che il 95% delle app di AI rientra nella zona di rischio medio-alto ai sensi del GDPR: in pratica, bandiere rosse con un'interfaccia utente amichevole.
Quando si tratta di soddisfare standard di conformità seri come HIPAA, PCI o ISO? Solo il 22% riesce a raggiungere l'obiettivo. Gli altri fanno finta di niente. Crittografia a riposo? La maggior parte delle app di AI ha saltato questo promemoria: l'84% non se ne preoccupa. E l'autenticazione a più fattori? L'83% dice no grazie. Ma non si preoccupi, molte di esse supportano le emoji. Priorità.
Le autorità di regolamentazione ci osservano. E a differenza del suo capo, loro leggono il rapporto completo.
Ricordate quell'ingegnere di Samsung che ha dato a ChatGPT del codice difettoso e ha accidentalmente consegnato i segreti dei semiconduttori? Questa non è più solo una storia di ammonimento. È praticamente un esempio di formazione.
Secondo Skyhigh, l'11% dei file caricati sulle app di AI contiene contenuti sensibili. Il problema? Meno di un'azienda su 10 dispone di controlli adeguati data loss prevention (DLP). Nel frattempo, i dipendenti chiedono a Claude di scrivere i piani di lancio dei prodotti utilizzando i documenti strategici Q3, come se fosse un altro giorno di lavoro. Perché cosa potrebbe mai andare storto?
DeepSeek ha fatto irruzione sulla scena nel 2025, cavalcando un'ondata di download, di entusiasmo e di volumi di dati impressionanti, tra cui 176 GB di upload aziendali in un solo mese, solo da parte dei clienti Skyhigh. Impressionante? Sicuramente. Allarmante? Assolutamente. Ecco la stampa fine:
È elegante, veloce e molto popolare tra gli studenti. Per il suo audit SOC 2? È una mina digitale.
Se Shadow AI è l'adolescente ribelle che esce di nascosto dopo il coprifuoco, Copilot è il bambino d'oro: rifinito, popolare e in qualche modo già in posizione di leadership. Ora è utilizzato dall'82% delle aziende, con un aumento del traffico di 3.600 volte e dei caricamenti di 6.000 volte. Onestamente, sta superando i suoi ultimi cinque stagisti e non chiede nemmeno una pausa caffè.
Ma anche gli studenti stellati hanno bisogno di supervisione. Le aziende intelligenti tengono Copilot sotto controllo analizzando tutto ciò che tocca, avvolgendo le richieste e le uscite in DLP e assicurandosi che non "impari" nulla di riservato. (Spiacente, Copilot: niente spoiler per la roadmap del quarto trimestre).
I grandi modelli linguistici (LLM) sono come i bambini con il dottorato di ricerca. Geniali un momento, caos assoluto quello successivo. I principali rischi degli LLM:
Statistiche chiave:
Non si tratta di paranoia se la sua AI sta in realtà rivelando segreti e scrivendo ransomware. Skyhigh ha scoperto che il 94% delle app di AI ha almeno un modello linguistico di grandi dimensioni (LLM) a rischio. Cioè quasi tutte.
Ancora peggio, il 90% è vulnerabile ai jailbreak, ossia gli utenti possono ingannarli per fargli fare cose che non dovrebbero fare. E il 76%? Possono potenzialmente generare malware a comando. Quindi sì, la stessa app che la aiuta a redigere i suoi appunti per le riunioni potrebbe anche lavorare in nero come stagista di un criminale informatico.
Le aziende dicono: "Perché fidarsi degli strumenti pubblici quando si può costruire il proprio?".
Le app private di AI ora si occupano:
Statistiche chiave:
Il 78% dei clienti ora gestisce le proprie applicazioni private di AI, perché se si vuole sperimentare con l'intelligenza artificiale, tanto vale farlo a porte chiuse. Due terzi stanno costruendo su AWS (grazie a Bedrock e SageMaker, ovviamente). È l'equivalente dell'AI di una comunità chiusa.
Ma "privato" non significa privo di problemi. Questi bot possono essere creati in casa, ma possono comunque creare problemi. Ecco perché le aziende intelligenti stanno introducendo soluzioni SSE con Private Access e DLP, per curiosare in modo gentile ed educato sulle loro IA interne, prima che qualcosa vada fuori dalle righe.
Cerchiamo di essere chiari: l'intelligenza artificiale non è il nemico. L'IA non gestita IA non gestita lo è.
Il rapporto 2025 di Skyhigh mostra che stiamo vivendo un cambiamento di una generazione nella tecnologia aziendale. Ma ecco il punto cruciale: la sicurezza non consiste nel rallentare l'innovazione. Si tratta di assicurarsi che l'AI che lei usa non mandi il suo board deck su Reddit. Quindi, faccia un respiro, legga il rapporto e ricordi:
Perché il futuro è guidato dall'AI e, con gli strumenti giusti, può essere anche a prova di rischio.
Bonus: scarichi il rapportocompleto 2025 Cloud Adoption and Risk - ochieda al suo assistente AI di riassumerlo per lei. Ma non lo carichi su DeepSeek.
Sull'autore

Sarang Warudkar è un esperto Product Marketing Manager con oltre 10 anni di esperienza nella cybersecurity, esperto nell'allineare l'innovazione tecnica alle esigenze del mercato. Ha maturato una profonda esperienza in soluzioni come CASB, DLP e rilevamento delle minacce basato sull'AI, guidando strategie go-to-market di grande impatto e il coinvolgimento dei clienti. Sarang ha conseguito un MBA presso l'IIM di Bangalore e una laurea in ingegneria presso l'Università di Pune, combinando intuizioni tecniche e strategiche.
Sarang Warudkar 18 febbraio 2026
Niharika Ray e Sarang Warudkar 12 febbraio 2026
Thyaga Vasudevan 21 gennaio 2026
Jesse Grindeland 18 dicembre 2025
Thyaga Vasudevan 12 dicembre 2025