Por Sarang Warudkar - PMM Técnico Sr. (CASB & AI), Skyhigh Security
8 de mayo de 2025 5 Minuto de lectura
Hace doce meses, su director financiero aún desconfiaba de los chatbots. Hoy, le preguntan si puede "conseguir que ChatGPT se encargue de las actas de la junta". Desde la cautelosa curiosidad hasta las hojas de cálculo impulsadas por copilotos, las empresas se han lanzado de lleno a la IA. Y aunque las ganancias son reales -velocidad, escala y creatividad-, ¿los riesgos? Oh, son muy reales también.
Vamos a desglosar las principales tendencias, amenazas y momentos "facepalm" del Informe de Skyhigh SecuritySecurity sobre la adopción y los riesgos de la nube en 2025, con opiniones de más de 3 millones de usuarios y más de 2.000 eventos diarios en la nube. Abróchese el cinturón.
La IA es ahora el MVP de la oficina. Un reciente estudio del MIT afirma que ChatGPT reduce el tiempo de escritura en un 40%, lo que equivale al tiempo que antes pasábamos preguntándonos dónde estaba guardado el archivo. JPMorgan consiguieron un aumento de la productividad del 20% y, según se rumorea, un becario pidió a Copilot que escribiera su carta de dimisión antes de su primer día.
En Skyhigh, hemos visto el auge de la IA de primera mano. Según nuestros datos, el tráfico a las aplicaciones de IA se ha disparado -más del triple en volumen- mientras que las cargas de datos sensibles a estas plataformas aumentan rápidamente. Mientras tanto, ¿las aplicaciones empresariales tradicionales "no basadas en IA"? Apenas mantienen el ritmo. El lugar de trabajo no sólo está adoptando la IA, sino que corre hacia ella.
Traducción: La IA está ganando. ¿Su cortafuegos? No tanto.
La "IA en la sombra" puede sonar como la próxima serie imprescindible de Netflix, pero se está desarrollando en tiempo real en empresas de todo el mundo. Imagínese esto: los empleados tecleando tranquilamente en ChatGPT, Claude, DeepSeek y docenas de otras herramientas de IA, completamente fuera del radar de TI. Es un poco como colar caramelos en una sala de cine, sólo que esta vez los caramelos son datos de clientes, financieros y propiedad intelectual.
Las cifras son asombrosas: la empresa media alberga actualmente 320 aplicaciones de IA. ¿Los sospechosos habituales? ChatGPT, Gemini, Poe, Claude, Beautiful.AI-herramientas tan potentes como no sancionadas. No están aprobadas. No están supervisadas. Y a menos que alguien suelte la palabra "auditoría", son potencialmente imparables.
Las aplicaciones de IA son divertidas... hasta que las multas del GDPR aparecen como invitados no deseados en una reunión de equipo. Los datos de Skyhigh revelan un lado no tan estupendo de todo este entusiasmo por la IA. Resulta que el 95% de las aplicaciones de IA entran en la zona de riesgo medio a alto según el GDPR: básicamente, banderas rojas con una interfaz de usuario amigable.
¿Cuando se trata de cumplir normas de conformidad serias como HIPAA, PCI o ISO? Sólo el 22% pasa el corte. El resto se las apaña. ¿Encriptación en reposo? La mayoría de las aplicaciones de IA se saltan esa norma: el 84% ni se molesta. ¿Y la autenticación multifactor? El 83% dice no, gracias. Pero no se preocupe, muchas de ellas sí admiten emojis. Prioridades.
Los reguladores vigilan. Y a diferencia de su jefe, ellos leen el informe completo.
¿Recuerda a aquel ingeniero de Samsung que alimentó a ChatGPT con un código defectuoso y entregó accidentalmente secretos de semiconductores? Eso ya no es sólo un cuento con moraleja. Es prácticamente un ejemplo de formación.
Según Skyhigh, el 11% de los archivos subidos a las aplicaciones de IA contienen contenido sensible. ¿El truco? Menos de 1 de cada 10 empresas dispone de controles adecuados data loss prevention (DLP). Mientras tanto, los empleados piden a Claude que redacte planes de lanzamiento de productos utilizando documentos de estrategia Q3 como si fuera un día más en la oficina. Porque, ¿qué podría salir mal?
DeepSeek irrumpió en escena en 2025, montando una ola de descargas, rumores y volúmenes de datos asombrosos -incluyendo 176 GB de cargas corporativas en un solo mes sólo de clientes de Skyhigh. ¿Impresionante? Sin duda. ¿Alarmante? Absolutamente. He aquí la letra pequeña:
Es elegante, rápido y muy popular entre los estudiantes. ¿Para su auditoría SOC 2? Es una mina digital.
Si Shadow AI es el adolescente rebelde que sale a hurtadillas después del toque de queda, Copilot es el niño de oro: pulido, popular y, de algún modo, ya en la senda del liderazgo. Ahora lo utiliza el 82% de las empresas, el tráfico ha aumentado 3.600 veces y las cargas 6.000 veces. Sinceramente, está superando a sus últimos cinco becarios, y ni siquiera pide una pausa para el café.
Pero incluso los alumnos estrella necesitan supervisión. Las empresas inteligentes mantienen a Copilot bajo control escaneando todo lo que toca, envolviendo las indicaciones y salidas en DLP y asegurándose de que no "aprenda" nada confidencial. (Lo siento, Copilot-no hay spoilers para la hoja de ruta del cuarto trimestre).
Los grandes modelos lingüísticos (LLM) son como niños pequeños con doctorado. Genios en un momento, caos absoluto al siguiente. Los mayores riesgos de los LLM:
Estadísticas clave:
No es paranoia si su IA está realmente filtrando secretos y escribiendo ransomware. Skyhigh descubrió que el 94% de las aplicaciones de IA vienen con al menos un gran riesgo de modelo de lenguaje (LLM) incorporado. Es decir, casi todas.
Peor aún, el 90% son vulnerables a los jailbreaks, lo que significa que los usuarios pueden engañarlos para que hagan cosas que realmente no deberían. ¿Y el 76%? Pueden generar potencialmente malware a la orden. Así que sí, la misma aplicación que le ayuda a redactar las notas de su reunión también podría pluriemplearse como becaria de un ciberdelincuente.
Las empresas dicen: "¿Por qué confiar en las herramientas públicas cuando puedes construir las tuyas propias?".
Las aplicaciones privadas de IA se encargan ahora:
Estadísticas clave:
El 78% de los clientes ejecutan ahora sus propias aplicaciones privadas de IA, porque si se va a experimentar con la inteligencia artificial, más vale hacerlo a puerta cerrada. Dos tercios están construyendo en AWS (gracias a Bedrock y SageMaker, obviamente). Es el equivalente en IA a una comunidad cerrada.
Pero "privado" no significa libre de problemas. Puede que estos bots sean de cosecha propia, pero aún así pueden meterse en líos. Por eso, las empresas inteligentes están desplegando soluciones SSE con Private Access y DLP, para fisgonear con suavidad y educación a sus IA internas antes de que algo se salga de guión.
Seamos claros: la IA no es el enemigo. La no gestionada no gestionada.
El informe 2025 de Skyhigh muestra que estamos viviendo un cambio en la tecnología empresarial que se produce una vez por generación. Pero aquí está el truco: la seguridad no consiste en frenar la innovación. Se trata de asegurarse de que la IA que utiliza no envíe la cubierta de su junta directiva a Reddit. Así que, respire, lea el informe y recuerde:
Porque el futuro está impulsado por la IA y, con las herramientas adecuadas, también puede ser a prueba de riesgos.
Bonificación: Descargue el informecompleto de 2025 sobre la adopción de la nube y los riesgos, opídale a su asistente de inteligencia artificial que se lo resuma. Eso sí, no lo suba a DeepSeek.
Sobre el autor

Sarang Warudkar es un experimentado director de marketing de productos con más de 10 años de experiencia en ciberseguridad, experto en alinear la innovación técnica con las necesidades del mercado. Aporta una profunda experiencia en soluciones como CASB, DLP y detección de amenazas basada en IA, impulsando estrategias de salida al mercado impactantes y el compromiso de los clientes. Sarang posee un MBA por el IIM de Bangalore y una licenciatura en ingeniería por la Universidad de Pune, combinando una visión técnica y estratégica.
Sarang Warudkar 18 de febrero de 2026
Niharika Ray y Sarang Warudkar 12 de febrero de 2026
Thyaga Vasudevan 21 de enero de 2026
Jesse Grindeland 18 de diciembre de 2025
Thyaga Vasudevan 12 de diciembre de 2025