Ir al contenido principal
Volver a Podcasts

Tecnologías emergentes de IA y su impacto en la ciberseguridad

Publicado el: 11 de septiembre de 2024

Hoy me acompaña Sekhar Sarukkai, tecnólogo, empresario, educador y asesor de Skyhigh Security para explorar cómo las empresas pueden aprovechar la inteligencia artificial para impulsar la productividad y potenciar sus medidas de seguridad frente a las ciberamenazas en evolución. Hablaremos de estrategias prácticas y del panorama en evolución de la IA que pueden ayudar a las organizaciones a mantenerse a la vanguardia en este mundo en rápida transformación.

Puede encontrar a Sekhar Sarukkai en su página de LinkedIn aquí.

----

CloudCast está presentado por el propio Director de Experiencia Digital de Skyhigh Security, Scott Schlee. La simpática conducta e ingenio de Scott, respaldados por más de 20 años en producción de medios digitales y desarrollo web, le han llevado a colaborar con éxito con marcas de primer nivel. Su experiencia incluye la presentación y producción de una amplia gama de podcasts y vídeos. Scott ha sido reconocido por su excelente trabajo, incluido un corto digital premiado y una nominación a los Webby Awards por Marketing Viral (Branded). Más allá de sus logros profesionales, el viaje personal de Scott como superviviente de una década de cáncer de páncreas le ha llevado a compartir su historia con el Congreso de Estados Unidos y otras organizaciones como defensor de una mayor financiación de la investigación contra el cáncer.

Scott Schlee:
Es el 11 de septiembre de 2024. Soy su anfitrión, Scott Schlee, y están escuchando Skyhigh Security Cloudcast . Hoy me acompaña Sekhar Sarukkai, tecnólogo, empresario, educador y asesor de Skyhigh Security para explorar cómo las empresas pueden aprovechar la inteligencia artificial para impulsar la productividad y potenciar sus medidas de seguridad frente a las cambiantes ciberamenazas.

Hablaremos de estrategias prácticas y del panorama en evolución de la IA que pueden ayudar a las organizaciones a mantenerse a la vanguardia en este mundo en rápida evolución. Sekhar, gracias por acompañarnos hoy. ¿Cómo está?

Sekhar Sarukkai:
Estupendo. Muchas gracias, Scott, por tenerme aquí.

Scott Schlee:
Sekhar, ¿puede decirme cuál es su posición en Skyhigh Security?

Sekhar Sarukkai:
Sí, es interesante. Yo, como quizá sepa, fui uno de los Sekhar de Skyhigh Networks. Y luego, después de que fuera adquirida por McAfee, estuve allí con McAfee durante un par de años, y luego me fui para hacer otras cosas como enseñar, lo que hago ciberseguridad en la UC Berkeley, y he trabajado con un montón de VC y esas cosas.

Pero recientemente, cuando Vishal, el nuevo director general llegó a bordo que había tendido la mano para ver si hay algo de consultoría, más como ayudar con algunas de las tendencias y las nuevas cuestiones a tratar, en la industria. Y así es como estoy comprometido con Skyhigh ahora, puramente como un, sobre una base consultiva como asesor, esencialmente.

Scott Schlee:
Sé que estamos muy contentos de tenerle como parte del equipo, y más estoy feliz de tenerle hoy uniéndose a nosotros para hablar de la IA, las tendencias futuras, lo que Skyhigh Security está haciendo con la IA, y así que esperaba que tal vez podríamos pasar unos minutos sólo para hablar de, en primer lugar, ¿Cuáles son algunas tecnologías emergentes de IA que son propensos a dar forma al futuro de la ciberseguridad?

Sekhar Sarukkai:
Esa es una pregunta tan cargada que puede estar en nuestra conversación, pero todos nosotros, creo que el mundo, literalmente el mundo de las TI, al menos se transformó hace un par de años cuando ChatGPT despegó, ¿verdad? Es que hay algo allí donde la gente sintió en sus entrañas que es diferente y hay un montón de diferentes usos de la misma, que han brotado, increíble cantidad de innovación en el espacio.

Y creo que eso seguirá creciendo. Hay algunas áreas clave que creo que son estables y la gente sabe hacia dónde va a evolucionar, como los modelos fundacionales. Pero lo que la IA abierta y. Muchos otros están haciendo. Creo que tiene un camino estable. Hay mucho trabajo interesante en torno a lo multimodal, que no es sólo texto, que es donde se genera, sino con audio vídeo imágenes.

Es fascinante lo mucho que ha cambiado. Hoy en día se puede dar una indicación. Y los resultados, un videoclip de un espacio imaginado, ¿verdad? Que parece bastante realista. Y así hay mucho trabajo en esa área, creo, que evolucionará. Y como falso profundo es uno de esos Los malos usos de esa tecnología en la que puedo hacer que parezca que estoy usado Dios está diciendo algo que nunca lo hizo y va a ser muy difícil de discernir eso de la realidad Así que eso es todo lo que multi modal ai es tiene un montón de cosas interesantes que usted puede hacer, pero también tiene Usted sabe las cuestiones de seguridad que vienen con él la otra gran área que yo diría es Está recibiendo la atención recientemente en el último, diría, un par de trimestres está en torno a la IA agéntica, que es, si vas a ChatGPT, le pides que resuma un documento o una película, puede que haga un gran trabajo con ello, pero si quieres pedirle que vaya a reservar una entrada para que vayas a ver una película, coordina calendarios con tus amigos para ir a verla.

No va a ser capaz de hacerlo. Y por eso existe esta nueva evolución de ampliar los LLM y la IA para que realmente actúen. Así que estos son grandes modelos de acción. Y hay mucho uso empresarial. O casos de uso de eso que tipo de alimentación en donde creo que el gran valor para todas estas tecnologías de IA puede evolucionar en.

Y esto es, lo que algunos llaman la próxima generación de SaaS, ¿verdad? Hoy en día, si usted, si alguien habla de SaaS, es como Office 365 o Salesforce o el mundo. Es básicamente software como servicio. Todo lo que antes tenías que, descargar o desplegar en tus servidores, ahora lo consumes como un servicio.

Lo que la próxima generación de eso, que los sistemas de agentic y otros evolucionarán para ayudar es a crear lo que se llama, lo que se puede pensar, como servicio como software, que es, si nos fijamos en lo que un tipo de ventas hace hoy en día, pero Salesforce tiene Ellos utilizan salesforce como una forma de hacerlos más productivos e ir y cerrar un trato o ejecutar una campaña o lo que sea lo que la próxima generación haría es dar el siguiente paso, que no es.

Sólo para ser casi como un Copiloto, pero para que sea un piloto automático donde realmente se puede obtener un agente de ventas virtual, ¿verdad? Así que en lugar de ayudar a algún humano a completar su tarea mejor, esto va a ser básicamente capaz de hacer lo que el humano hace, ¿verdad? Y esa es la automatización. Ese es el análisis de tareas.

Y obviamente tiene cosas buenas y malas. No sé dónde va a terminar en términos de. La sociedad y los puestos de trabajo y la gente, pero, el movimiento hacia decir, está bien, tengo quiero lograr algo, darle un objetivo y ser capaz de descomponer eso en tareas que deben completarse y realmente ir y ejecutarlo.

Y completar las tareas es algo que ha evolucionado con bastante rapidez. Yo diría que hay algunas demostraciones fascinantes que se pueden ver en línea. Hay uno de un desarrollador un agente desarrollador, si se quiere. Y esto es usted puede buscar un video, en YouTube para Devin. Devin es La persona de un desarrollador, pero es fascinante verlo trabajar en tiempo real, donde genera código.

Y luego, si hay alguna excepción o un error, en realidad va y busca. Todos los agujeros de riego para los desarrolladores sub pilas o dondequiera que pueda ir a encontrarlo e ir a solucionar el problema y leer en él y desplegado todo eso. Así que toda esa noción de ser capaz de llegar a esa automatización es algo que es real y puede tener un profundo impacto para las empresas.

Scott Schlee:
Y supongo que mucha gente, desarrolladores como yo, lo verán y se lo tomarán de dos maneras, ¿temer que esto me vaya a quitar de alguna manera mi trabajo, o lo veo como que esto va a ser un asistente para que yo sea más eficiente en mi trabajo?

Sekhar Sarukkai:
Sí, y esa es la pregunta del millón, ¿verdad?

No sé dónde va a terminar y algunos, ves algunas demos, dices, sabes qué, eso no es cierto. Eso no puede, realmente hacer lo que un programador experto haría. Y luego ves una siguiente demo donde es wow, eso lo está haciendo. Sí. O usted no necesita, 20 personas en un equipo, tal vez hay un desarrollador de una persona.

Que puede construir una startup desde cero y desarrollar el código también con algo de esta tecnología,

Scott Schlee:
Sé que el dicho es que la IA de hoy es la más tonta que va a ser Sólo va a ser más inteligente y mejor. Así que he visto sólo en los últimos tres años, de seis meses a un año, todos hemos visto a la IA progresar dramáticamente a pasos agigantados desde donde estaba, en su infancia.

Sekhar Sarukkai:
Absolutamente, Scott. Y creo que eso también depende del lado de la cama en el que te levantes, creo que es una gran oportunidad o una gran preocupación.

Scott Schlee:
Entonces, ¿cómo son estos avances en la IA genérica? Estamos hablando de IAs abiertas para que cualquiera pueda ponerle las manos encima y utilizarla con fines buenos o nefastos.

¿Cómo van a afectar esos avances a la ciberseguridad en términos de amenazas y defensas?

Sekhar Sarukkai:
Sí, esto es de nuevo Está evolucionando tan rápidamente que ya ha visto cuestiones que no habría pensado que era un problema real hace sólo dos años. Y creo que como profesionales de la ciberseguridad El trabajo sólo va a ser más difícil.

Creo que se debe a muchas cosas. Hoy en día, si nos fijamos en, si le preguntas a la gente acerca de la seguridad con, en el contexto de la RNB, hay un montón de nuevas empresas e, incluso las empresas establecidas como Skyhigh, que está buscando en, en lo que significa asegurar LLM en sí, ¿verdad? Existe esta noción de jailbreaking, o, cómo se puede realmente engatusar al modelo para que dé una respuesta que no es apropiada, cosas así.

También hay preocupaciones en torno a la fuga de datos, hay un ejemplo clásico con la compañía Fortune 100 donde el salario del CEO fue expuesto por el chatbot, que había sido creado en la parte superior de una plataforma JNI. Cosas como esas, que son, muy importantes y algo en lo que mucha gente está trabajando y que seguirá siendo o bien aumentado en plataformas como Skyhigh SSE o asociaciones con, startups emergentes para ayudar a llenar ese vacío natural.

Pero hay otras cuestiones que surgen desde el lado ofensivo, ¿verdad? Así que este es un caso clásico en el que los malos actores son más rápidos en adaptarse a algunos de estos cambios, ¿verdad? Así que les daré un clásico. Hablamos de Devin, ¿verdad? Así que permítanme usar ese ejemplo. Así que Devin, cuando encuentra un problema puede ir a uno de estos abrevaderos.

stack overflow para ver, vale, ¿por qué me ha dado este error? ¿Y cuál es la solución para ello? Y se verá en, comentarios de varios desarrolladores y elegir la correcta e implementar ese arreglo. Ahora, lo que resultó en realidad esto fue publicado hace un par de meses, en realidad, había un mal actor.

Creo que es un actor patrocinado por el estado que están haciendo algo muy, Interesante. En realidad estaban publicando bibliotecas Python maliciosas backdoored en Stack Overflow y no sólo publicándolo. Publicando en GitHub, hablando de ello en Stack Overflow. Y

Scott Schlee:
Como solución a un problema.

Sekhar Sarukkai:
A eso, excepción o lo que sea.

Y así imaginar si usted es un humano y si se trata de un Copiloto, como GitHub Copiloto, que me dice que vaya a arreglar esto, pero yo iría a desbordamiento de pila, encontrarlo. Tomar eso, usar mi juicio para decir, ¿sabes qué, esto suena como algo que no puedo usar o lo que sea, ¿verdad? Y depende de mí decidir si actualizo con esa nueva biblioteca Python.

Pero si es agéntico como Devin, cuáles son los controles y cómo, porque se trata de la velocidad y la eficacia y de lo rápido y genial que puede resolverlo. Y ni siquiera sé si hay una forma cuantitativa en la que se pueda juzgar si esos comentarios en Stack Overflow deben ser ignorados o no.

Así que el riesgo de esencialmente un ataque a la cadena de suministro de datos en este caso, ¿verdad? Así que es muy real para la IA porque estoy hablando de En este ejemplo, en, en el momento de la inferencia, en el momento en que realmente está utilizando el modelo. Hay un montón de este tipo de cuestiones en torno a la cadena de suministro de datos, que es en torno a qué datos se utilizaron realmente para entrenar el modelo en sí.

Y definitivamente hay cuestiones en torno a, malware y datos maliciosos, pero también hay cuestiones fundamentales en torno a la propiedad de los datos, cuestiones de derechos de autor, cosas por el estilo. Y estos pueden llegar a ser cada vez más difícil para las empresas que pueden ser considerados responsables de romper un derecho de autor. si fue o no generado por Gen AI para ellos, ¿verdad?

Si lo utilizan en algo que tiene valor para ellos o es público alguien puede demandarles por ello. Así que definitivamente hay ese tipo de cuestiones, sobre las que creo que habrá que seguir reflexionando. Y creo que fundamentalmente, por último, diría. Debido a que existe este fuerte movimiento hacia un mundo agéntico y esta automatización de las cosas y la sustitución de las personas y las decisiones que tomamos por la IA, la campaña de un mal actor puede ni siquiera tocar a un humano porque sucede a la velocidad de la IA.

Así que hay un mal actor que lanzaría un ataque, que se basa puramente en la IA porque la IA encuentra una vulnerabilidad en su entorno y lanza el ataque. Como Devin hizo por buenas razones para crear código, un mal actor puede utilizarlo para penetrar en una red, ¿verdad? Para exfiltrar datos. Y si eso sucede, reaccionar ante ello a la velocidad de los humanos no va a ayudar porque los humanos tendrán entonces, como en el mundo de hoy, que crear un, se va al calcetín y se crea un ticket y alguien tiene que averiguar quién es el propietario, encuentra un problema.

Eso, eso no va a funcionar.

Scott Schlee:
De horas a días antes de que se aborde.

Sekhar Sarukkai:
Y por lo que necesita, es casi como estos cómics, que solía haber, estoy saliendo conmigo mismo. Yo estaba creciendo, que es un espía era un espía, es el mismo tipo de cosa, que es la IA contra la IA, ¿verdad? Ahí es donde creo que la verdadera acción de ciberseguridad sería con el tiempo.

Scott Schlee:
Ese es un concepto interesante que sé que mucha gente tiene, teorizado cómo eso funcionaría AI contra AI y. En más de un escenario del Salvaje Oeste, sólo tienes que realmente prepararse para lo peor.

Sekhar Sarukkai:
Sí, no, en realidad la forma en que pienso en ello es Skyhigh es uno de los pioneros en CASB, Skyhigh, cuando Skyhigh era la red de Skyhigh y luego se transformó en Skyhigh Security.

Y el dominio en sí, Lingo de Gartner, se ha transformado de CASB a SSE Secure Service Edge, y tiene CASB, tiene SWG, RBI, un montón de otras características, pero hacia donde creo que va Skyhigh, y creo que es la extensión natural de la plataforma SSC es abordar la IA de forma holística, porque si usted piensa acerca de las empresas de la manera y hemos mirado en Skyhigh ha mirado a los datos de la empresa, y creo que van a publicar este informe sobre algunos datos muy fascinante, que estoy seguro de que va a hacer otro podcast sobre ello.

Y en algún momento no revelar demasiado de los datos, pero Algunos de los hallazgos interesantes son que una gran cantidad de empresas, que realmente están abrazando gen AI, pero muchas de las grandes empresas en realidad están bloqueando ChatGPT porque es un, es casi como una perspectiva contradictoria, pero en realidad lo que están diciendo es que es tan importante.

Y hay tantas incógnitas que quiero desplegar en mi propia instancia privada. En lugar de utilizar ChatGPT como un SASS, ¿verdad? Así que no permiten a sus empleados hacer consultas a ChatGPT, pero tendrán su propia instancia empresarial del mismo. Donde se puede, los empleados pueden ir y hacer esas consultas porque están preocupados de que los datos podrían, Se filtró en este entorno ChatGPT de base rápida y que están bien para obtener el valor. Si es interno.

Scott Schlee:
Siempre que hayan establecido los guardarraíles que han aprobado.

Sekhar Sarukkai:
Sí, no, no sólo eso, en realidad en casi todos estos casos, utilizan como Azure AI, son un despliegue de paso en una infraestructura pública, pero dentro de su VPC, esencialmente sólo sus empleados de los empleados están utilizando esa instancia de GPT.

Ya sea a través de la API o a través de la interfaz de usuario, que es un ChatGPT, y de manera similar con AWS, todos estos entornos de nube pública han crecido un negocio bastante saludable en torno a eso. Así que el primer paso es realmente para obtener visibilidad en lo que Gen AI se está utilizando. Esto es casi la TI en la sombra de hace 10 años, cuando la nube estaba siendo utilizada por todas las empresas.

Ahora muchos de los CISO quieren saber cuáles son las IA, cuáles están siendo utilizadas por mi empresa, qué líneas de negocio, ¿son arriesgadas o no? Hay algunas LLM, que están bien. Algunos que son sospechosos porque usted no quiere, tal vez es más susceptible a los ataques de malware y jailbreaking, lo que podría afectar, los empleados o la percepción del cliente de esta esta empresa.

Así que ese, ese nivel de visibilidad. Y con atributos que son específicos de JNI y LLM es algo que sky ha sido uno de los primeros, si no el primer vendedor de SSE en sacar al mercado, ¿verdad? Que es ser capaz no sólo de descubrir. E informar sobre qué I. A. está utilizando una empresa, sino también tener una visión basada en el riesgo sobre cuáles son arriesgadas, cuáles no, etc.

Pero luego va más allá, creo, porque creo que la plataforma Skyhigh como todos sabemos, ¿verdad? En realidad es muy fuerte en la seguridad de datos. Es el CASB raíces allí en la seguridad de datos también. Muchas de las preocupaciones que los clientes tienen es en torno a la fuga de datos, ¿verdad? Y es por eso que incluso bloquean ChatGPT, pero permiten, el uso privado y así sucesivamente.

Y hay un gran caso de uso para las SSE en torno a Office 365. Y el otro hallazgo interesante, que también verá en el informe de SkyHive, es que hay un LLM o Gen AI, que es realmente, que realmente destaca en el uso empresarial en comparación con cualquier otra cosa, por órdenes de magnitud, como tres órdenes de magnitud.

Y ese es el uso de Office 365 Copilot. Es el Copiloto de Microsoft y los Copilotos se construyen sobre, sus modelos fundacionales de Gen AI. GPT 4. 0 de OpenAI, o tal vez sea un modelo LLAMA o, un montón de otros. Antrópico, lo que sea. Pero básicamente Microsoft utiliza OpenAI, pero crearon este Microsoft Office 365 Copilot, que es un complemento de Office 365.

Y lo que hace es que no sólo permite a sus usuarios de Office 365 tener una interacción de forma libre como se hace con un ChatGPT, sino que también lo contextualiza con todos los datos de la empresa, de los que Office 365 tiene visibilidad. Y si piensa en una gran empresa, todas están estandarizadas en Office 365, ¿verdad?

Todos tienen SharePoint, OneDrive Microsoft Teams, todo el correo electrónico, todo lo que una empresa y usted, los empleados de la empresa utilizan hoy para interactuar y ser productivos y crear valor está en una plataforma Microsoft, está almacenado en algún lugar de la plataforma Microsoft. Y Microsoft Copilot indexa todo eso.

Y tienen algunos controles para decir cuáles no quiere indexar y demás. Pero debido al hecho de que está incluido o es un complemento de Office 365, la adopción de Microsoft Copilot es realmente, cabeza y hombros por encima de cualquier otra cosa. Y que puede tirar en el uso de OpenAI y esas cosas, pero Debido a que los empleados están utilizando Office 365, porque interactúan con el Copiloto, porque una gran cantidad de datos sensibles se encuentra en el entorno de Microsoft, creo que la protección de datos, las extensiones naturales de Sky tiene protección de datos.

En el mundo Copilot son puede ser humongously valioso para los clientes. Hay muchas cuestiones en torno a eso. Sé que Microsoft tiene algunos controles de línea de base, pero sólo SSE es necesario para algunas de estas grandes empresas, creo que, con Copilots, se vuelve aún más importante.

Hay ejemplos clásicos con Microsoft Copilot, por ejemplo hay aplicaciones que pueden realmente conectarse a Copilot a través de APIs. Y así ellos, eso se convierte en un vector de exfiltración de datos potencialmente. Hay uso, situaciones en las que puede haber algunos ataques muy interesantes, que se presentaron para Copilot en la reciente conferencia Black Hat, usted debe, si alguien está interesado, debe buscar Copilot y verá algunos vectores de ataque, que tratan de hacer para elaborar, como un ejemplo, elaborar un ataque spear phishing utilizando la inteligencia, que está ahí en la plataforma Microsoft Copilots.

De hecho, puede engatusar al Copiloto para que le responda quiénes eran todos los que estaban en una reunión o cuál es la dirección de correo electrónico de alguien con quien se comunicó más. Y cuál es. ¿De qué habló por última vez con esa persona? Y luego obtener, extraer suficiente información de esta interacción con el Copiloto y luego elaborar un mensaje para pedirle a esta persona que haga algo, que

Scott Schlee:
A los miembros como grupo, de su director general

Sekhar Sarukkai:
Exactamente.

Scott Schlee: Shaker, ¿qué soluciones de IA tiene Skyhigh Security y cómo nos estamos preparando para el futuro?

Sekhar Sarukkai:
Creo que los clientes están pidiendo. una mejor manera de gestionar los despliegues de Copilot hoy en día. Y lo que he, por lo que no es tanto en el futuro tanto como es una necesidad, ¿verdad? Y Skyhigh sé que está posicionada para tomar la fortaleza en protección de datos para entornos Office 365 y aplicarla a Copilot básicamente haciendo el mismo tipo de prueba DLP, ¿verdad?

Por ejemplo, Skyhigh ya tiene capacidades para decir, y si estoy colaborando contigo en un documento y de repente yo, y digamos que soy un contratista. O digamos que soy un asesor en este caso, Scott, estás compartiendo algo conmigo y estás a punto de compartir algo muy sensible, que no es susceptible para los no empleados o no ejecutivos o lo que sea.

Nosotros ya SkyHive ya tiene una capacidad de decir, bien detener la colaboración en algo que ha cambiado en términos de contenido es más sensible que se debe permitir que se comparta, ¿verdad? Así que es el mismo tipo de cosa. Con Copilot ser capaz de decir, como usted como usted está generando contenido, si hay algo sensible, que es más a un nivel de sensibilidad sensible, lo siento, más de lo que tengo, deben ser capaces de bloquearlo.

Así que Sky puede ayudar potencialmente con eso. Sky en realidad está trabajando con algunos AI, una startup AI específica, que se centra en la creación de guardrails. Se trata de una startup llamada Encrypt que integramos para la puntuación de riesgo desde la perspectiva de los equipos rojos, pero también los estamos integrando para los guardrails, ¿verdad?

Así que los mismos guardarraíles que tienes para ChatGPT para decir, no debes hacer jailbreak es importante para Office 365 también, ¿verdad? Así que usted no quiere tener Office 365 escupir algo Inapropiado por lo que ser capaz de hacer frente a eso es algo con lo que Skyhigh puede ayudar a los clientes.

Creo que ser capaz de entender la sensibilidad. Del documento ser capaz de protegerlo, pero en términos de colaboración, en términos de quién puede ver eso y ser capaz de remediarlo en tiempo casi real ya sea a través de nuestras integraciones API, que ya tenemos con Office 365, o a través de nuestro proxy, ya sea un proxy hacia adelante o hacia atrás nuestros enfoques, que creo que están siendo considerados y se está trabajando en ellos en este momento.

Scott Schlee:
Realmente aprecio que venga y aclare bastante de esto, porque sé que es, como dije antes, es el salvaje oeste ahora mismo con la IA y hay mucha información contradictoria por ahí. Algunas personas no acaban de comprender dónde está la IA, hacia dónde se dirige y cómo proteger sus datos sensibles.

Espero de verdad que podamos volver a hablar muy pronto, porque estoy segura de que dentro de tres meses todo será completamente diferente. Así que me encantaría tenerle de nuevo para una actualización.

Sekhar Sarukkai:
Absolutamente, Scott. Será un placer. Y estaré encantado de intervenir. Hay muchos temas interesantes en torno a esto y lo estamos cubriendo.

Y creo que hay mucho, hay una necesidad de las empresas a cierta visibilidad en cómo la industria está pensando en. Esta evolución del espacio y, algunas de las preguntas que hizo en torno a la relevancia de Gen AI. Para la seguridad y la seguridad de Jenny, ambos son super importantes, y esto va a ser una conversación más larga con seguridad.

Scott Schlee:
Es cierto. Agitador. ¿Cómo puede la gente ponerse en contacto con usted si quieren encontrarle en Internet?

Sekhar Sarukkai:
Creo que la mejor manera es a través de LinkedIn para buscar agitador. Así que de acuerdo y vamos a conectarnos y nos encantará conocer la perspectiva de todos sobre esta área emergente. Que es de suma importancia.

Scott Schlee: Muy bien.

Y su información estará en las notas del programa. Tendré un enlace rápido para usted allí y. No dude en ponerse en contacto con él, conmigo, con Skyhigh Security. Nos encantaría hablar con usted sobre el futuro de la IA y sobre cómo podemos ayudarle.

Sekhar Sarukkai:
Gracias.

Scott Schlee:
Gracias de nuevo por escuchar Skyhigh Cloudcast. Si ha disfrutado de este episodio, asegúrese de suscribirse en su plataforma favorita para no perderse nunca una actualización.

Si le ha gustado el programa, déjenos una reseña. Ayuda a otros a encontrar el podcast. Para más información sobre Skyhigh Security o Cloudcast, visite SkyhighSecurity.com.


Nota: Todas las transcripciones se generan utilizando software de reconocimiento de voz y transcripción humana, y pueden contener errores. Por favor, compruebe el audio correspondiente antes de citarlo impreso.

Volver a Podcasts
Scott Schlee

Organizado por

Scott Schlee

Director de experiencia digital