Vai al contenuto principale
Torna ai Podcast

Le tecnologie AI emergenti e il loro impatto sulla cybersecurity

Pubblicato il: 11 settembre 2024

Oggi sono in compagnia di Sekhar Sarukkai, tecnologo, imprenditore, educatore e consulente di Skyhigh Security , per esplorare come le aziende possono sfruttare l'intelligenza artificiale per aumentare la produttività e potenziare le misure di sicurezza contro le minacce informatiche in evoluzione. Parleremo di strategie pratiche e del panorama in evoluzione dell'intelligenza artificiale che possono aiutare le organizzazioni a rimanere all'avanguardia in questo mondo in rapida evoluzione.

Può trovare Sekhar Sarukkai sulla sua pagina LinkedIn qui.

----

CloudCast è condotto dal Digital Experience Manager di Skyhigh Security, Scott Schlee. L'atteggiamento coinvolgente e l'arguzia di Scott, supportati da oltre 20 anni di produzione di media digitali e sviluppo web, hanno portato a collaborazioni di successo con marchi di alto livello. La sua esperienza comprende l'hosting e la produzione di un'ampia gamma di podcast e video. Scott ha ricevuto riconoscimenti per il suo lavoro eccezionale, tra cui un cortometraggio digitale premiato e una nomination ai Webby Awards per il Viral Marketing (Branded). Oltre ai suoi successi professionali, il viaggio personale di Scott come sopravvissuto al cancro al pancreas da dieci anni lo ha portato a condividere la sua storia con il Congresso degli Stati Uniti e altre organizzazioni, come sostenitore di un aumento dei fondi per la ricerca sul cancro.

Scott Schlee:
È l'11 settembre 2024. Sono il suo conduttore, Scott Schlee, e sta ascoltando Skyhigh Security Cloudcast . Oggi, sono affiancato da Sekhar Sarukkai, tecnologo, imprenditore, educatore e consulente di Skyhigh Security per esplorare come le aziende possono sfruttare l'intelligenza artificiale per aumentare la produttività e potenziare le misure di sicurezza contro le minacce informatiche in evoluzione.

Parleremo di strategie pratiche e del panorama in evoluzione dell'IA, che possono aiutare le organizzazioni a rimanere all'avanguardia in questo mondo in rapida evoluzione. Sekhar, grazie per essersi unito a noi oggi. Come sta?

Sekhar Sarukkai:
Oh, sto benissimo. Grazie mille, Scott, per avermi invitato qui.

Scott Schlee:
Sekhar, può dirmi la sua posizione all'interno di Skyhigh Security?

Sekhar Sarukkai:
Sì, è interessante. Come forse saprà, sono stato uno dei Sekhar di Skyhigh Networks. Poi, dopo l'acquisizione da parte di McAfee, sono rimasto con McAfee per un paio d'anni, e poi ho lasciato per dedicarmi ad altre attività, come l'insegnamento, di cui mi occupo di cybersecurity all'UC Berkeley, e ho lavorato con molti VC e altro.

Ma recentemente, quando Vishal, il nuovo CEO, è arrivato a bordo, ha chiesto di vedere se c'era qualche consulenza, più che altro per aiutare con alcune tendenze e nuove questioni da affrontare, nel settore. Ed è così che ora sono impegnato con Skyhigh, a titolo puramente consultivo, come consulente, essenzialmente.

Scott Schlee:
So che siamo molto felici di averla come parte del team, e ancora di più sono felice che oggi si sia unito a noi per parlare di AI, tendenze future, cosa sta facendo Skyhigh Security con l'AI, e quindi speravo che potessimo dedicare qualche minuto a parlare, innanzitutto, di quali sono le tecnologie AI emergenti che probabilmente daranno forma al futuro della cybersecurity?

Sekhar Sarukkai:
Questa è una domanda molto impegnativa che può essere presente nella nostra conversazione, ma tutti noi, credo che il mondo, letteralmente il mondo IT, si sia trasformato almeno un paio di anni fa quando ChatGPT è decollato, giusto? C'è stato qualcosa in cui le persone hanno sentito nel loro intimo che è diverso e che c'è un sacco di usi diversi, che hanno dato vita a un'incredibile quantità di innovazioni nello spazio.

E credo che continuerà a crescere. Ci sono alcune aree chiave che, a mio avviso, sono stabili e si sa dove si evolverà, come i modelli di base. Ma ciò che open AI e. Molti altri stanno facendo. Penso che abbia un percorso costante. C'è molto lavoro interessante intorno al multimodale, che non è solo testo, dove viene generato, ma con immagini audio video.

È affascinante quanto sia cambiato. Oggi si può dare un suggerimento. E i risultati, un video di uno spazio immaginato, giusto? Che sembra piuttosto realistico. E quindi c'è molto lavoro in quest'area, credo, che si evolverà. E come deep fake è uno di questi. Un cattivo uso di questa tecnologia, in cui posso far sembrare che io stia usando Dio per dire qualcosa che non ha mai detto e sarà molto impegnativo discernerlo dalla realtà. Quindi, l'intera Ai multi modale ha molte cose interessanti che si possono fare, ma ha anche problemi di sicurezza che ne derivano, direi, un paio di trimestri, è quella dell'intelligenza artificiale agenziale, ovvero, se si va su ChatGPT, gli si chiede di riassumere un documento o un film, forse fa un ottimo lavoro, ma se si vuole chiedergli di prenotare un biglietto per andare a vedere un film, coordinare i calendari con i propri amici per andare a vederlo.

Non sarà in grado di farlo. Quindi c'è questa nuova evoluzione di estendere gli LLM e l'AI per agire davvero. Si tratta quindi di modelli di azione di grandi dimensioni. E ci sono molti usi aziendali. O casi d'uso di questo tipo che alimentano il grande valore di tutte queste tecnologie AI.

E questa è quella che alcuni chiamano la prossima generazione di SaaS, giusto? Oggi, se si parla di SaaS, si parla di Office 365 o di Salesforce o di tutto il mondo. Si tratta fondamentalmente di software come servizio. Tutto ciò che prima doveva essere scaricato o distribuito nei server, oggi viene consumato come servizio.

Ciò che la prossima generazione di questo, che i sistemi agenziali e altri si evolveranno per aiutare, è creare ciò che è chiamato, ciò che può essere pensato, come servizio come software, che è, se si guarda a ciò che un venditore fa oggi, ma Salesforce ha Utilizzano Salesforce come un modo per renderli più produttivi e andare a chiudere un accordo o gestire una campagna o qualsiasi cosa sia, ciò che la prossima generazione farebbe è fare il passo successivo, che non è.

Per essere quasi come un Copilot, ma per renderlo un autopilota in cui lei può effettivamente ottenere un agente di vendita virtuale, giusto? Quindi, piuttosto che aiutare un umano a completare meglio il suo compito, questo sarà fondamentalmente in grado di fare ciò che fa l'umano, giusto? E questa è l'automazione. Questa è l'analisi dei compiti.

E ovviamente ci sono aspetti positivi e negativi. Non so dove si andrà a finire in termini di. La società, i posti di lavoro e le persone, ma il movimento verso il dire, ok, voglio realizzare qualcosa, dargli un obiettivo ed essere in grado di scomporre questo in compiti che devono essere completati e andare effettivamente ad eseguirli.

E completare i compiti è qualcosa che si è evoluto abbastanza rapidamente. Direi che ci sono alcune demo affascinanti che si possono vedere online. Ce n'è una di uno sviluppatore, un agente di sviluppo, se vuole. E può cercare un video su YouTube per Devin. Devin è Il personaggio di uno sviluppatore, ma è affascinante vederlo funzionare in tempo reale, dove genera codice.

E poi, se c'è un'eccezione o un errore, va a cercare. Tutti i buchi d'acqua per gli sviluppatori, i sotto-stack o qualsiasi altro posto in cui possa andare, lo trova e risolve il problema, lo legge e lo distribuisce. Quindi, l'idea di poter arrivare all'automazione è reale e può avere un impatto profondo per le aziende.

Scott Schlee:
E immagino che molte persone, sviluppatori come me, guarderanno a questo e lo prenderanno in due modi: temendo che questo possa in qualche modo portarmi via il lavoro, oppure vedendolo come un assistente che mi permetterà di essere più efficiente nel mio lavoro?

Sekhar Sarukkai:
Sì, e questa è la domanda da un milione di dollari, giusto?

Non so dove andrà a finire e alcuni, vedendo alcune demo, si dice: "Sai cosa, non è vero". Non può fare quello che farebbe un programmatore esperto. E poi si vede una demo successiva in cui si dice: "Wow, questo lo fa". Già. Oppure non ha bisogno di 20 persone in un team, magari c'è un solo sviluppatore.

Che può costruire una startup da zero e sviluppare anche il codice con alcune di queste tecnologie,

Scott Schlee:
So che il detto è che l'IA di oggi è la più stupida che mai sarà, ma diventerà sempre più intelligente e migliore. Quindi, negli ultimi tre anni, da sei mesi a un anno, abbiamo visto l'IA progredire a passi da gigante rispetto alla sua fase iniziale.

Sekhar Sarukkai:
Assolutamente sì, Scott. E credo che, a seconda del lato del letto da cui ci si alza, sia un'enorme opportunità o una grande preoccupazione.

Scott Schlee:
Allora, come sono questi progressi nell'IA gen? Stiamo parlando di IA aperte, in modo che chiunque possa metterci le mani e usarle per scopi buoni o nefasti.

In che modo questi progressi avranno un impatto sulla sicurezza informatica in termini di minacce e difese?

Sekhar Sarukkai:
Sì, si tratta ancora una volta di un'evoluzione così rapida che ha già visto problemi che non avrebbe pensato fossero un problema reale solo due anni fa. E credo che per gli operatori della cybersecurity il lavoro sarà sempre più difficile.

Penso che sia dovuto a molte cose. Oggi, se si guarda, se si chiede alle persone di parlare di sicurezza con, nel contesto del GNI, ci sono molte startup e anche aziende consolidate come Skyhigh, si cerca di capire cosa significhi proteggere l'LLM stesso, giusto? C'è la nozione di jailbreak, o come si può effettivamente costringere il modello a dare una risposta che non è appropriata, cose del genere.

C'è anche la preoccupazione per la fuga di dati; c'è un esempio classico con l'azienda Fortune 100 in cui lo stipendio dell'amministratore delegato è stato rivelato dal chatbot, che era stato creato su una piattaforma JNI. Cose del genere, che sono molto importanti e su cui molte persone stanno lavorando e che continueranno ad essere incrementate in piattaforme come Skyhigh SSE o in partnership con startup emergenti per aiutare a colmare questo gap naturale.

Ma ci sono altri problemi che emergono dal lato offensivo, giusto? Quindi questo è un classico caso in cui i cattivi attori sono più veloci nell'adattarsi ad alcuni di questi cambiamenti, giusto? Quindi le darò un classico. Abbiamo parlato di Devin, giusto? Quindi mi lasci usare quell'esempio. Devin, quando trova un problema, può recarsi in uno di questi punti di ristoro.

stack overflow per vedere, ok, perché ho ricevuto questo errore? E qual è la soluzione? E guarderà i commenti di vari sviluppatori, sceglierà quello giusto e implementerà la correzione. Ora, quello che è emerso in realtà è stato pubblicato un paio di mesi fa, in realtà, è che c'è un cattivo attore.

Credo che si tratti di un attore sponsorizzato dallo Stato che sta facendo qualcosa di molto interessante. Stavano effettivamente pubblicando librerie Python dannose retrodatate su Stack Overflow e non solo pubblicandole. Pubblicando su GitHub, parlandone su Stack Overflow. E

Scott Schlee:
Come soluzione per un problema.

Sekhar Sarukkai:
A questo, eccezione o altro.

E quindi immagina se sei un umano e se si tratta di un Copilot, come il Copilot di GitHub, che mi dice di andare a sistemare questo, ma io andrei su stack overflow, lo troverei. Lo prenderei, userei il mio giudizio per dire, sai cosa, questo sembra qualcosa che non potrei usare o altro, giusto? E sta a me decidere se aggiornare con quella nuova libreria Python.

Ma se è agenziale come Devin, quali sono i controlli e come, perché è tutto incentrato sulla velocità e sull'efficienza e sulla rapidità e sui modi fantastici con cui può risolvere il problema. E non so nemmeno se esista un modo quantitativo per giudicare se quei commenti in Stack Overflow debbano essere ignorati o meno.

Quindi il rischio di un attacco alla catena di approvvigionamento dei dati in questo caso, giusto? Quindi è molto reale per l'AI, perché in questo esempio sto parlando del momento dell'inferenza, quando si utilizza effettivamente il modello. Ci sono molti di questi tipi di problemi che riguardano la catena di fornitura dei dati, ossia quali dati sono stati effettivamente utilizzati per addestrare il modello stesso.

E ci sono sicuramente questioni legate al malware e ai dati dannosi, ma ci sono anche questioni fondamentali legate alla proprietà dei dati, ai diritti d'autore e cose del genere. E queste potrebbero diventare sempre più impegnative per le aziende, che potrebbero essere ritenute responsabili per la violazione di un copyright. che sia stato generato o meno dalla Gen AI per loro, giusto?

Se lo utilizzano in qualcosa che ha un valore per loro o è pubblico, qualcuno può fargli causa. Quindi ci sono sicuramente questi tipi di problemi, che credo dovranno essere approfonditi. E penso che fondamentalmente, infine, direi. Poiché c'è questo forte movimento verso un mondo agenziale e questa automazione delle cose e la sostituzione delle persone e delle scelte che facciamo con l'IA, la campagna di un cattivo attore potrebbe non toccare nemmeno un umano, perché avviene alla velocità dell'IA.

Quindi c'è un cattivo attore che lancerebbe un attacco, che si basa puramente sull'AI, perché l'AI trova una vulnerabilità nel vostro ambiente e lancia l'attacco. Come Devin ha creato un codice per buoni motivi, un cattivo attore può usarlo per penetrare in una rete, giusto? Per esfiltrare i dati. E se ciò accade, reagire alla velocità degli esseri umani non sarà d'aiuto, perché gli esseri umani dovranno poi, come nel mondo di oggi, creare un, che va nel calzino e si crea un ticket e qualcuno deve capire chi lo possiede, trovare un problema.

Non... non funzionerà.

Scott Schlee:
Da ore a giorni prima che venga affrontato.

Sekhar Sarukkai:
E quindi è necessario, è quasi come questi fumetti, che c'erano una volta, mi sto frequentando. Sono cresciuto, una spia era una spia, è lo stesso tipo di cosa, ovvero AI contro AI, giusto? Ecco dove penso che la vera azione di cybersecurity sarà nel tempo.

Scott Schlee:
È un concetto interessante che so che molte persone hanno teorizzato su come funzionerebbe l'IA contro l'IA. In uno scenario più da Far West, bisogna prepararsi al peggio.

Sekhar Sarukkai:
Sì, no, in realtà il modo in cui la penso è che Skyhigh è uno dei pionieri del CASB, Skyhigh, quando Skyhigh era la rete di Skyhigh e poi si è trasformata in Skyhigh Security.

E il dominio stesso, Lingo di Gartner, si è trasformato da CASB a SSE Secure Service Edge, e ha CASB, ha SWG, RBI, un mucchio di altre funzionalità, ma dove penso che Skyhigh stia andando, e penso che sia l'estensione naturale della piattaforma SSC, è affrontare l'AI in modo olistico, perché se si pensa alle imprese nel modo in cui Skyhigh ha esaminato i dati aziendali, e credo che pubblicherà questo rapporto su alcuni dati molto affascinanti, su cui sono sicuro che farà un altro podcast.

E a un certo punto, per non rivelare troppi dati, alcuni dei risultati interessanti sono che molte aziende stanno davvero abbracciando la Gen AI, ma molte grandi aziende stanno bloccando ChatGPT perché è una prospettiva quasi contraddittoria, ma in realtà stanno dicendo che è così importante.

E ci sono così tante incognite che voglio distribuire nella mia istanza privata. Piuttosto che utilizzare ChatGPT come SASS, giusto? Quindi non permettono ai loro dipendenti di fare query a ChatGPT, ma avranno la loro istanza aziendale. Dove è possibile, i dipendenti possono andare a fare queste domande, perché temono che i dati possano trapelare in questo ambiente ChatGPT basato sulla rapidità, e sono a posto per ottenere il valore. Se è interno.

Scott Schlee:
A condizione che siano stati predisposti i controlli che sono stati approvati.

Sekhar Sarukkai:
Sì, no, non solo, in realtà in quasi tutti questi casi, utilizzano come Azure AI, si tratta di un'implementazione di passaggio su un'infrastruttura pubblica, ma all'interno del loro VPC, essenzialmente solo i loro dipendenti utilizzano quell'istanza di GPT.

Sia attraverso le API che attraverso l'interfaccia utente, che è una ChatGPT, e allo stesso modo con AWS, tutti questi ambienti di cloud pubblico hanno sviluppato un business piuttosto sano intorno a questo. Quindi il primo passo è quello di ottenere visibilità su quale Gen AI viene utilizzata. Si tratta quasi dell'IT ombra di 10 anni fa, quando il cloud veniva utilizzato da tutte le aziende.

Ora molti CISO vogliono sapere quali sono le AI, che vengono utilizzate dalla mia azienda, da quali linee di business, sono rischiose o no? Ci sono alcuni LLM, che vanno bene. Alcuni sono sospetti, perché non si vuole, forse sono più soggetti ad attacchi malware e jailbreak, che potrebbero avere un impatto sui dipendenti o sulla percezione che i clienti hanno di questa azienda.

Quindi questo, questo livello di visibilità. E con gli attributi che sono specifici di JNI e LLM è qualcosa che sky ha portato sul mercato come uno dei primi, se non il primo fornitore di SSE, giusto? Che è quello di essere in grado non solo di scoprire. E riferire su quale A.I. viene utilizzata da un'azienda, ma anche avere una visione basata sul rischio di quali sono rischiose, quali non lo sono e così via.

Ma poi va oltre, credo, perché penso che la piattaforma Skyhigh, come tutti sappiamo, giusto? È molto forte nella sicurezza dei dati. Il CASB ha radici anche nella sicurezza dei dati. Molte delle preoccupazioni dei clienti riguardano la perdita di dati, giusto? Ed è per questo che bloccano persino ChatGPT, ma ne consentono l'uso privato e così via.

E c'è un grande caso d'uso per gli SSE intorno a Office 365. E l'altra scoperta interessante, che vedrà anche nel rapporto di SkyHive, è che c'è un LLM o Gen AI, che è davvero, che si distingue nell'uso aziendale rispetto a qualsiasi altra cosa, di ordini di grandezza, come tre ordini di grandezza.

E questo è l'uso di Office 365 Copilot. È il Copilot di Microsoft e i Copilot sono costruiti in cima ai modelli fondanti della Gen AI. Il GPT 4.0 di OpenAI, o forse il modello LLAMA o altri ancora. Antropico, qualunque esso sia. Ma fondamentalmente Microsoft utilizza OpenAI, ma ha creato questo Microsoft Office 365 Copilot, che è un'aggiunta a Office 365.

E ciò che fa è non solo consentire ai loro utenti di Office 365 di avere un'interazione libera come quella di una ChatGPT, ma anche contestualizzarla a tutti i dati aziendali, su cui Office 365 ha visibilità. E se pensa a una grande azienda, sono tutti standardizzati su Office 365, giusto?

Tutti hanno SharePoint, OneDrive Microsoft Teams, tutte le e-mail, tutto ciò che un'azienda e voi, dipendenti dell'azienda, utilizzate oggi per interagire, essere produttivi e creare valore, è in una piattaforma Microsoft, è memorizzato da qualche parte nella piattaforma Microsoft. E Microsoft Copilot indicizza tutto questo.

E hanno alcuni controlli per dire quali non si vogliono indicizzare e così via. Ma grazie al fatto che è incluso o aggiunto a Office 365, l'adozione di Microsoft Copilot è davvero superiore a qualsiasi altra cosa. E questo può essere un elemento di attrazione per l'utilizzo di OpenAI e altro, ma poiché i dipendenti utilizzano Office 365, poiché interagiscono con Copilot, poiché molti dati sensibili si trovano nell'ambiente Microsoft, penso che la protezione dei dati, le estensioni naturali di Sky abbiano la protezione dei dati.

Nel mondo Copilot possono essere enormemente preziosi per i clienti. Ci sono molti problemi al riguardo. So che Microsoft ha alcuni controlli di base, ma proprio l'SSE è necessario per alcune di queste imprese più grandi, e credo che con i Copilot diventi ancora più importante.

Ci sono esempi classici con Microsoft Copilot, ad esempio ci sono applicazioni che possono connettersi a Copilot tramite API. E quindi diventano un vettore di esfiltrazione dei dati potenzialmente. Ci sono usi, situazioni in cui ci possono essere attacchi molto interessanti, che sono stati presentati per Copilot nella recente conferenza Black Hat; se qualcuno è interessato, dovrebbe cercare Copilot e vedrà alcuni vettori di attacco, che cercano di realizzare, ad esempio, un attacco di spear phishing utilizzando l'intelligenza, che è presente nella piattaforma Microsoft Copilots.

Può effettivamente indurre il Copilota a rispondere a chi erano tutti presenti a una riunione o qual è l'indirizzo e-mail di qualcuno con cui ha comunicato di più. E cosa. Di cosa ha parlato l'ultima volta con quella persona? E poi ottenere, estrarre abbastanza informazioni da questa interazione con il Copilot e poi creare un messaggio per chiedere a questa persona di fare qualcosa, che

Scott Schlee:
Ai membri come gruppo, da parte del suo CEO

Sekhar Sarukkai:
Esattamente.

Scott Schlee: Shaker, quali sono le soluzioni AI di Skyhigh Security e come ci stiamo preparando per il futuro?

Sekhar Sarukkai:
Credo che i clienti chiedano un modo migliore per gestire le distribuzioni di Copilot oggi. E quello che ho fatto, quindi non è tanto il futuro quanto un'esigenza, giusto? E so che Skyhigh è posizionata per prendere la forza della protezione dei dati per gli ambienti Office 365 e applicarla a Copilot, fondamentalmente eseguendo lo stesso tipo di test DLP, giusto?

Ad esempio, Skyhigh dispone già di funzionalità che consentono di dire: se sto collaborando con lei su un documento e all'improvviso io, e diciamo che sono un collaboratore. O diciamo che in questo caso sono un consulente, Scott, lei sta condividendo qualcosa con me e sta per condividere qualcosa di molto sensibile, che non è accessibile ai non dipendenti o ai non dirigenti o altro.

SkyHive ha già la capacità di dire: "Ok, interrompi la collaborazione su qualcosa che è cambiato in termini di contenuto e che è più sensibile di quanto dovrebbe essere condiviso", giusto? Quindi è lo stesso tipo di cosa. Con Copilot che può dire, mentre sta generando contenuti, se c'è qualcosa di sensibile, che è più a un livello di sensibilità, scusi, più sensibile di quello che ho io, dovrebbe essere in grado di bloccarlo.

Quindi Sky può potenzialmente aiutare in questo senso. Sky sta lavorando con un'AI, una startup specifica di AI, che si concentra sulla creazione di guardrail. Si tratta di una startup chiamata Encrypt che abbiamo integrato per il risk scoring dal punto di vista del red teaming, ma la stiamo integrando anche per i guardrail, giusto?

Quindi, le stesse garanzie che avete per ChatGPT per dire che non dovreste fare il jailbreak sono importanti anche per Office 365, giusto? Quindi non vuole che Office 365 sputi fuori qualcosa di inappropriato. Inappropriato, quindi essere in grado di affrontare questo aspetto è qualcosa che Skyhigh può aiutare i clienti.

Penso che sia in grado di capire la sensibilità. Del documento, potendolo proteggere, ma in termini di collaborazione, in termini di chi può vederlo e di poterlo correggere in tempo quasi reale, sia attraverso le nostre integrazioni API, che abbiamo già con Office 365, sia attraverso il nostro proxy, un proxy in avanti o inverso, i nostri approcci, che credo siano stati presi in considerazione e su cui si sta lavorando in questo momento.

Scott Schlee:
Apprezzo molto il fatto che lei sia intervenuto e abbia chiarito molte cose, perché so che, come ho detto prima, l'IA è il selvaggio west in questo momento e ci sono molte informazioni contrastanti in giro. Alcune persone non comprendono appieno dove si trova l'AI, dove sta andando e come proteggere i suoi dati sensibili.

Spero davvero che potremo parlare di nuovo molto presto, perché sono sicura che entro tre mesi, tutto sarà completamente diverso. Quindi mi piacerebbe averla di nuovo con noi per un aggiornamento.

Sekhar Sarukkai:
Assolutamente sì, Scott. Il piacere è mio. E sarei lieto di partecipare. Ci sono molti argomenti interessanti al riguardo e li stiamo affrontando.

E penso che ci sia molta, molta necessità per le aziende di avere una certa visibilità su come il settore sta pensando. Questa evoluzione dello spazio e alcune delle domande che ha posto sulla rilevanza della Gen AI. Per la sicurezza e la sicurezza di Jenny, entrambi sono molto importanti, e questa sarà sicuramente una conversazione più lunga.

Scott Schlee:
È vero. Shaker. Come possono contattarla le persone che vogliono trovarla online?

Sekhar Sarukkai:
Credo che il modo migliore sia cercare shaker su LinkedIn. Quindi, ok, colleghiamoci e amiamo conoscere il punto di vista di tutti su quest'area emergente. Che è di estrema importanza.

Scott Schlee: Molto bene.

Le sue informazioni saranno riportate nelle note della trasmissione. Avrò un link rapido per lei. Si senta libero di contattare lui, me, Skyhigh Security. Saremo lieti di parlare con lei del futuro dell'IA e di come possiamo aiutarla.

Sekhar Sarukkai:
Grazie.

Scott Schlee:
Grazie ancora per aver ascoltato Skyhigh Cloudcast. Se ha apprezzato questo episodio, si assicuri di abbonarsi sulla sua piattaforma preferita per non perdere mai un aggiornamento.

Se le è piaciuta la trasmissione, ci lasci una recensione. Aiuterà gli altri a trovare il podcast. Per maggiori informazioni su Skyhigh Security o Cloudcast, visiti SkyhighSecurity.com.


Nota bene: tutte le trascrizioni sono generate utilizzando un software di riconoscimento vocale e una trascrizione umana e possono contenere errori. La preghiamo di controllare l'audio corrispondente prima di citare in stampa.

Torna ai Podcast
Scott Schlee

Ospitato da

Scott Schlee

Manager dell'esperienza digitale