Por Thyaga Vasudevan - Vicepresidenta Ejecutiva de Producto
3 de febrero de 2025 6 Minuto de lectura
DeepSeek, una startup china de inteligencia artificial fundada en 2023, ha experimentado un ascenso meteórico de popularidad durante la última semana. No sólo superó a ChatGPT para convertirse en la aplicación gratuita mejor valorada de la App Store estadounidense, sino que el asistente de IA también tuvo un profundo impacto en el mercado, ya que las principales acciones tecnológicas experimentaron importantes caídas. Nvidia, uno de los principales fabricantes de chips de IA, vio cómo sus acciones se desplomaban casi un 17%, lo que provocó una pérdida de aproximadamente 589.000 millones de dólares en valor de mercado, la mayor pérdida en un solo día en la historia de Wall Street.
La innovación en torno a DeepSeek representa una mayor democratización de la IA, lo que es bueno para la humanidad en general. La innovación de la empresa de IA ha llevado a ofrecer un modelo de IA de código abierto que rivaliza en rendimiento con las plataformas existentes, al tiempo que es más rentable y eficiente energéticamente. La interfaz fácil de usar de la aplicación y la función transparente de "pensar en voz alta" han aumentado aún más su atractivo, permitiendo a los usuarios seguir el proceso de razonamiento de la IA.
La llegada de otro chatbot de IA con su propio modelo LLM también plantea una cuestión importante a las empresas, especialmente a las grandes, a medida que aumentan su inversión en IA. ¿Cómo deben evaluar las empresas un nuevo chatbot de IA para su consumo? ¿Qué factores entran en juego a la hora de decidir los beneficios y los inconvenientes para el consumo de la aplicación de IA por parte de los empleados y su adopción por parte de las empresas? Los informes recientes y los incidentes del mundo real muestran que ciertos LLM -especialmente las variantes de código abierto que carecen de marcos de seguridad sólidos- suponen amenazas significativas para la seguridad de los datos, el cumplimiento de las normativas y la reputación de la marca.
En este blog, exploramos:
Los LLM de código abierto como DeepSeek han despertado tanto entusiasmo como preocupación. A diferencia de las soluciones de IA validadas por las empresas, los LLM de código abierto carecen a menudo de los sólidos controles de seguridad necesarios para salvaguardar los datos sensibles de las empresas, como muestra un informe reciente de Enkrypt AI:
A pesar de estos problemas, DeepSeek se disparó a lo más alto de la App Store de Apple, superando incluso a ChatGPT al alcanzar los 2,6 millones de descargas en sólo 24 horas (el 28 de enero de 2025). Esta adopción explosiva pone de relieve una tensión fundamental: La IA avanza a una velocidad vertiginosa, pero la supervisión de la seguridad a menudo se queda rezagada, dejando a las empresas expuestas a posibles fugas de datos, violaciones de la normativa y daños a su reputación.
Como destacamos en nuestro blog Skyhigh AI Security, las empresas deben reconocer los riesgos inherentes que introduce la IA, entre ellos:
A medida que las empresas evalúan nuevas aplicaciones de IA o chatbots, deben considerar si disponen de las herramientas para aplicar los controles necesarios para proteger sus activos corporativos. Deben asegurarse de que su pila de seguridad está posicionada no sólo para aplicar los controles en las aplicaciones de IA, sino también para evaluar y responder a la actividad maliciosa y a las amenazas que surgen de estas aplicaciones.
Las soluciones Security Services Edge (SSE), como Skyhigh Security , son un componente clave de la seguridad de la IA empresarial. Estas herramientas ya están integradas en la pila de seguridad empresarial, ya que las empresas han asegurado el tráfico on-prem y en la nube. Los equipos de seguridad ya han definido políticas de gobernanza y protección de datos y éstas pueden extenderse fácilmente a las aplicaciones de IA. Y por último, al cubrir la web, las aplicaciones en la sombra, las aplicaciones sancionadas y las aplicaciones privadas mediante sus modos de despliegue flexibles, las soluciones SSE pueden cubrir el espectro de la huella de la IA en la empresa y proporcionar una seguridad integral.
He aquí los principales controles que las empresas quieren aplicar a las aplicaciones de IA:
La rápida evolución de la IA exige un nuevo paradigma de seguridad, uno que garantice que la innovación no se produzca a costa de la seguridad de los datos. Las empresas que deseen aprovechar los LLM deben hacerlo con cautela, adoptando marcos de seguridad de la IA que protejan contra las amenazas emergentes.
En Skyhigh Security, nos comprometemos a ayudar a las empresas a adoptar la IA de forma segura, salvaguardando al mismo tiempo sus activos más críticos. Para saber más sobre cómo proteger a su organización del uso arriesgado de la IA, explore nuestras últimas perspectivas en el Blog de seguridad de la IA de Skyhigh.
Thyaga Vasudevan es un profesional del software de gran energía que actualmente ocupa el cargo de Vicepresidente Ejecutivo de Producto en Skyhigh Security, donde dirige la Gestión de Producto, el Diseño, el Marketing de Producto y las Estrategias GTM. Con una gran experiencia, ha contribuido con éxito a la creación de productos tanto en software empresarial basado en SAAS (Oracle, Hightail - antes YouSendIt, WebEx, Vitalect) como en Internet de consumo (Yahoo! Messenger - Voz y Vídeo). Se dedica al proceso de identificar los problemas subyacentes de los usuarios finales y los casos de uso, y se enorgullece de liderar la especificación y el desarrollo de productos y servicios de alta tecnología para abordar estos retos, lo que incluye ayudar a las organizaciones a navegar por el delicado equilibrio entre riesgos y oportunidades. A Thyaga le encanta educar y servir de mentor y ha tenido el privilegio de hablar en eventos tan estimados como RSA, Trellix Xpand, MPOWER, AWS Re:invent, Microsoft Ignite, BoxWorks y Blackhat. Prospera en la intersección de la tecnología y la resolución de problemas, con el objetivo de impulsar una innovación que no sólo aborde los retos actuales, sino que también se anticipe a las necesidades futuras.
Sarang Warudkar 18 de febrero de 2026
Niharika Ray y Sarang Warudkar 12 de febrero de 2026
Thyaga Vasudevan 21 de enero de 2026
Jesse Grindeland 18 de diciembre de 2025
Thyaga Vasudevan 12 de diciembre de 2025