Ir al contenido principal
Volver a Blogs Perspectivas de la industria

EchoLeak y la nueva frontera de amenazas de la IA: 5 lecciones para las empresas en la era de Copilot y ChatGPT

Por Suhaas Kodagali y Sarang Warudkar -

14 de julio de 2025 5 Minuto de lectura

La reciente revelación de EchoLeak (CVE-2025-32711)-una vulnerabilidad de inyección indirecta sin clic dirigida a Microsoft 365 Copilot- ha enviado una clara señal tanto a las salas de juntas como a los SOC: La IA ya no es sólo un facilitador de la productividad. Ahora forma parte de la superficie de ataque de las empresas.

Lo que hace que EchoLeak sea especialmente alarmante es que no se requería ninguna acción por parte del usuario. Bastaba un correo electrónico malicioso para que Copilot ingiriera instrucciones ocultas, actuara en consecuencia y filtrara potencialmente datos confidenciales, todo ello en segundo plano.

Para los CISO y los equipos de protección de datos, esto es más que una llamada de atención: es un mandato para replantearse cómo se gobierna, asegura y supervisa la IA en toda la empresa.

¿Qué es EchoLeak?

  • Ataque sin clic: No requiere ninguna acción del usuario: basta con enviar un correo electrónico manipulado. Incluso sin abrirlo ni interactuar con él, Copilot puede ingerir instrucciones ocultas al resumir los datos del espacio de trabajo.
  • Inyección rápida indirecta: El contenido malicioso se incrusta dentro de correos electrónicos o documentos "normales": la terminología y el fraseo se elaboran cuidadosamente para que Copilot los vea como solicitudes benignas.
  • Explotación RAG: El sistema de recuperación de Copilot incluye los correos electrónicos recientes en su contexto. Al resumir, puede captar la indicación maliciosa y ejecutar tareas como extraer datos confidenciales y exfiltrarlos mediante imágenes ocultas o enlaces markdown a servidores controlados por el atacante.

5 lecciones críticas que toda organización debería aprender de EchoLeak

 

1. La IA en la sombra es el punto ciego de más rápido crecimiento

El uso de la IA en la sombra se está disparando en las empresas, con el tráfico de aplicaciones de IA creció un 200% el año pasado y las empresas utilizan una media de 320 aplicaciones de IA no autorizadas (AI CARR 2025). Este aumento subraya cómo las herramientas habilitadas para la IA se están adoptando fuera de la supervisión de TI, lo que crea problemas de visibilidad y gobernanza. Además, los empleados están cargando datos corporativos en estas aplicaciones para optimizar sus flujos de trabajo corporativos. Para hacer frente a esto, las organizaciones están aprovechando soluciones SSE para descubrir automáticamente las herramientas de IA no autorizadas, asignar puntuaciones de riesgo y aplicar políticas que impidan el acceso no autorizado a los datos. De hecho, las soluciones SSE proporcionan información sobre el riesgo LLM de las aplicaciones de IA no autorizadas, lo que permite una mayor gobernanza sobre qué aplicaciones de IA están permitidas dentro de la empresa. Con estas barandillas, los equipos de seguridad pueden recuperar el control sobre la adopción de la IA, en rápida expansión, por parte de los empleados de las empresas.

2. La protección de datos en las aplicaciones de IA es fundamental

Los datos deSkyhigh Security revelan que el 11% de los archivos cargados en aplicaciones de IA contienen contenido corporativo sensibley, sin embargo menos del 10% de las empresas han aplicado políticas de protección de datos para mitigar este riesgo (AI CARR 2025). Controlar qué datos se suben a las aplicaciones de IA es una parte importante de lo que puede ser exfiltrado. Una preocupación clave que los equipos de seguridad tienen hoy en día es que una vez que los datos corporativos se cargan en la aplicación de IA, entonces es posible que los usuarios dentro o fuera de la empresa recuperen estos datos utilizando ingeniería rápida inteligente. Por ello, aplicar DLP a los datos cargados en las aplicaciones de IA es ahora una parte fundamental de la seguridad de los datos empresariales. Esto incluye los datos cargados en aplicaciones de IA en la sombra y en aplicaciones de IA autorizadas por la empresa.

3. La exposición de datos corporativos a través de Microsoft Copilot es un riesgo clave de exfiltración de datos

El meteórico ascenso de Microsoft Copilot-el tráfico creció 3.600 veces y las cargas de datos aumentaron 6.000 veces en el último año (AI CARR 2025)-destaca la rapidez con la que los asistentes impulsados por la M365 se están integrando en los flujos de trabajo de las empresas. Además de los datos confidenciales que se cargan en M365 Copilot, a los equipos de seguridad también les preocupa que los datos ingeridos por Copilot sean compartidos por el chatbot con los empleados que diseñan las instrucciones para recuperarlos. Por ejemplo, Copilot podría revelar detalles de un proyecto clasificado a un empleado no autorizado tras ingerir una presentación o la transcripción de una reunión con esa información del proyecto. Para solucionar esto, los equipos de seguridad están utilizando DLP dentro de las soluciones SSE para aplicar las etiquetas de clasificación necesarias para evitar la ingestión de datos sensibles en Copilot. De este modo, incluso con una ingeniería rápida, Copilot no revelará este contenido.

4. Los riesgos de inyección puntual requieren una defensa proactiva

EchoLeak pertenece a una clase creciente de ataques denominados inyección indirecta de instrucciones, en los que las instrucciones adversas se ocultan en contenidos de apariencia benigna. Es alarmante, el 94% de los servicios de IA son vulnerables al menos a un vector de riesgo LLM, incluyendo la inyección indirecta, el malware, el sesgo o la toxicidad (AI CARR 2025). Para combatirlo, las empresas están utilizando plataformas de SSE con protección contra la inyección puntual que escanea y desinfecta las entradas antes de que lleguen a los sistemas de IA de la empresa, neutralizando eficazmente las amenazas ocultas.

5. Vigile la actividad de la IA como vigilaría las amenazas internas

Los agentes de IA operan a la velocidad del sistema pero carecen de juicio humano, por lo que es esencial considerar sus acciones como potencialmente arriesgadas, especialmente cuando el comportamiento se desvía de los patrones establecidos. Para mitigar esto, las empresas deben utilizar soluciones de SSE para supervisar y rastrear la actividad de los usuarios en las aplicaciones de IA con el fin de detectar patrones de uso, cargas de archivos o descargas inusuales. Estas soluciones utilizan UEBA para sacar a la superficie anomalías basadas en el uso y la ubicación y alimentan estas entradas para calcular el riesgo del usuario. Las empresas ya han implementado estos flujos de trabajo en otras soluciones SaaS y ahora se están extendiendo a las aplicaciones de IA.

El futuro: ESS nativa de IA para empresas resistentes

EchoLeak no será el último ataque a aplicaciones de IA. A medida que los usuarios conozcan mejor las aplicaciones de IA y la ingeniería de avisos, es probable que se produzcan más ataques de este tipo. Las empresas necesitan desplegar hoy controles sobre el uso de la IA para proteger mejor sus datos corporativos de la exfiltración hacia o a través de las apps de IA. Las soluciones SSE como Skyhigh Security proporcionan capacidades clave para aplicar estos controles. 

Capacidades clave de la ESS para prevenir los exploits de IA:

  • Descubrimiento de la IA en la sombra: Detecte herramientas GenAI no sancionadas y asigne puntuaciones de riesgo.
  • Gobernanza de la IA: Aplique controles para bloquear las aplicaciones de IA de riesgo o aplique controles de actividad más granulares.
  • DLP en avisos de IA: Aplique controles de protección de datos en los avisos y las respuestas
  • Protección de inyección rápida: Escanee el contenido en busca de prompts ocultos y bloquee el uso indebido de IA.
  • UEBA / Supervisión de la actividad: Identifique las amenazas y realice una investigación sobre la actividad realizada en las aplicaciones de IA

Skyhigh Security es pionera en seguridad nativa de IA para la empresa. Nuestra plataforma Security Service Edge (SSE) en la nube está diseñada exclusivamente para proteger los datos confidenciales y gestionar los riesgos de la IA, a través de herramientas GenAI sancionadas y no sancionadas, copilotos y agentes basados en RAG. Con una profunda experiencia en CASB, SWG, ZTNA, RBI y DLP integrada, Skyhigh capacita a las organizaciones para adoptar la IA de forma responsable a la vez que se adelantan a amenazas emergentes como EchoLeak.

Más información sobre Soluciones de seguridad Skyhigh AI hoy mismo.

Sobre los autores

Sarang Warudkar

Sarang Warudkar

PMM técnico superior (CASB y AI)

Sarang Warudkar es un experimentado director de marketing de productos con más de 10 años de experiencia en ciberseguridad, experto en alinear la innovación técnica con las necesidades del mercado. Aporta una profunda experiencia en soluciones como CASB, DLP y detección de amenazas basada en IA, impulsando estrategias de salida al mercado impactantes y el compromiso de los clientes. Sarang posee un MBA por el IIM de Bangalore y una licenciatura en ingeniería por la Universidad de Pune, combinando una visión técnica y estratégica.

Suhaas Kodagali

Suhaas Kodagali

Director de gestión de productos

Suhaas Kodagali es director de gestión de productos y supervisa la línea de productos CASB y las iniciativas de seguridad de IA en Skyhigh Security. Cuenta con más de 15 años de experiencia liderando la estrategia de productos y ofreciendo productos de seguridad en la nube líderes del sector para empresas.

Volver a Blogs

Blogs de moda

Perspectivas de la industria

Skyhigh Security Q3 2025: Smarter, Faster, and Built for the AI-Driven Enterprise

Thyaga Vasudevan November 13, 2025

Perspectivas de la industria

From Compliance to Confidence: How Skyhigh DSPM Simplifies DPDPA Readiness

Sarang Warudkar November 6, 2025

Perspectivas de la industria

The Evolution of Cybersecurity: Prioritizing Data Protection in a Data-driven World

Jesse Grindeland October 9, 2025

Perspectivas de la industria

Data Overload to Actionable Intelligence: Streamlining Log Ingestion for Security Teams

Megha Shukla and Pragya Mishra September 18, 2025