Di Thyaga Vasudevan - Vicepresidente esecutivo, Prodotto
3 febbraio 2025 6 Minuto letto
DeepSeek, una startup cinese di intelligenza artificiale fondata nel 2023, ha avuto un'impennata di popolarità nell'ultima settimana. Non solo ha superato ChatGPT per diventare l'app gratuita più votata sull'App Store statunitense, ma l'assistente AI ha anche avuto un profondo impatto sul mercato, in quanto i principali titoli tecnologici hanno registrato cali significativi. Nvidia, uno dei principali produttori di chip AI, ha visto le sue azioni crollare di quasi il 17%, con una perdita di circa 589 miliardi di dollari nel valore di mercato, la più grande perdita in un solo giorno nella storia di Wall Street.
L'innovazione di DeepSeek rappresenta una maggiore democratizzazione dell'AI, che è positiva per l'umanità in generale. L'innovazione dell'azienda di AI ha portato all'offerta di un modello di AI open-source che rivaleggia con le piattaforme esistenti in termini di prestazioni, pur essendo più economico ed efficiente dal punto di vista energetico. L'interfaccia user-friendly dell'app e la funzione trasparente "pensare ad alta voce" hanno ulteriormente migliorato il suo fascino, consentendo agli utenti di seguire il processo di ragionamento dell'AI.
L'avvento di un altro chatbot AI con un proprio modello LLM pone anche una domanda importante alle aziende, soprattutto alle grandi imprese, che stanno aumentando i loro investimenti nell'AI. In che modo le aziende dovrebbero valutare un nuovo chatbot AI per il loro consumo? Quali sono i fattori che determinano i vantaggi e gli svantaggi per il consumo dell'applicazione AI da parte dei dipendenti e per l'adozione aziendale? Rapporti recenti e incidenti reali dimostrano che alcuni LLM - in particolare le varianti open-source prive di solidi framework di sicurezza - rappresentano minacce significative per la sicurezza dei dati, la conformità alle normative e la reputazione del marchio.
In questo blog, esploriamo:
Gli LLM open-source come DeepSeek hanno suscitato sia entusiasmo che preoccupazione. A differenza delle soluzioni di intelligenza artificiale collaudate dalle aziende, gli LLM open-source spesso non dispongono dei solidi controlli di sicurezza necessari per salvaguardare i dati aziendali sensibili, come dimostrato da un recente rapporto di Enkrypt AI:
Nonostante questi problemi, DeepSeek è salito in cima all'App Store di Apple, superando persino ChatGPT e raggiungendo 2,6 milioni di download in sole 24 ore (il 28 gennaio 2025). Questa adozione esplosiva evidenzia una tensione fondamentale: L'AI sta avanzando a rotta di collo, ma la supervisione della sicurezza spesso rimane indietro, lasciando le aziende esposte a potenziali fughe di dati, violazioni della conformità e danni alla reputazione.
Come abbiamo evidenziato nel nostro blog Skyhigh AI Security, le aziende devono riconoscere i rischi intrinseci che l'AI introduce, tra cui:
Quando le aziende valutano le nuove app AI o i chatbot, devono considerare se dispongono degli strumenti per applicare i controlli necessari a proteggere i beni aziendali. Devono assicurarsi che il loro stack di sicurezza sia posizionato non solo per applicare i controlli sulle applicazioni AI, ma anche per valutare e rispondere alle attività dannose e alle minacce che derivano da queste applicazioni.
Le soluzioni Security Services Edge (SSE) come Skyhigh Security sono un componente chiave della sicurezza AI aziendale. Questi strumenti sono già integrati nello stack di sicurezza aziendale, in quanto le aziende hanno protetto il traffico on-premise e cloud. I team di sicurezza hanno già definito politiche di governance e di protezione dei dati, che possono essere facilmente estese alle applicazioni AI. Infine, coprendo il web, le app ombra, le app sanzionate e le app private grazie alle loro modalità di implementazione flessibili, le soluzioni SSE possono coprire lo spettro dell'impronta dell'AI all'interno dell'azienda e fornire una sicurezza completa.
Ecco i principali controlli che le aziende cercano di applicare alle app AI:
La rapida evoluzione dell'AI richiede un nuovo paradigma di sicurezza, che garantisca che l'innovazione non vada a scapito della sicurezza dei dati. Le aziende che vogliono sfruttare gli LLM devono farlo con cautela, adottando quadri di sicurezza dell'AI che proteggano dalle minacce emergenti.
In Skyhigh Security, ci impegniamo ad aiutare le aziende ad abbracciare l'AI in modo sicuro, salvaguardando le loro risorse più critiche. Per saperne di più su come proteggere la sua organizzazione dall'uso rischioso dell'AI, esplori le nostre ultime intuizioni nel blog Skyhigh AI Security.
Thyaga Vasudevan è un professionista del software ad alta energia che attualmente ricopre il ruolo di Executive Vice President, Product presso Skyhigh Security, dove dirige il Product Management, il Design, il Product Marketing e le strategie GTM. Con una vasta esperienza, ha contribuito con successo alla creazione di prodotti sia nel software aziendale SAAS (Oracle, Hightail - ex YouSendIt, WebEx, Vitalect) che nell'Internet dei consumatori (Yahoo! Messenger - Voce e Video). Si dedica al processo di identificazione dei problemi e dei casi d'uso degli utenti finali sottostanti ed è orgoglioso di guidare le specifiche e lo sviluppo di prodotti e servizi high-tech per affrontare queste sfide, anche aiutando le organizzazioni a navigare nel delicato equilibrio tra rischi e opportunità. Thyaga ama educare e fare da mentore e ha avuto il privilegio di parlare a eventi stimati come RSA, Trellix Xpand, MPOWER, AWS Re:invent, Microsoft Ignite, BoxWorks e Blackhat. Si sente a proprio agio nell'intersezione tra tecnologia e risoluzione dei problemi, con l'obiettivo di guidare l'innovazione che non solo affronta le sfide attuali, ma anticipa anche le esigenze future.
Thyaga Vasudevan 21 gennaio 2026
Jesse Grindeland 18 dicembre 2025
Thyaga Vasudevan 12 dicembre 2025
Nick LeBrun 20 novembre 2025
Thyaga Vasudevan 13 novembre 2025