Los chatbots impulsados por IA se han integrado perfectamente en casi todos los aspectos de nuestras vidas, desde responder preguntas y ayudar en la atención al cliente hasta gestionar tareas personales y realizar transacciones. Con su capacidad para proporcionar interacciones instantáneas y personalizadas, compartimos libremente datos sensibles, a menudo sin pensarlo dos veces. Sin embargo, cuando un servicio de chatbot experimenta una filtración de datos, no sólo compromete la privacidad individual, sino que golpea la propia confianza que los usuarios han depositado en estas tecnologías. El enorme volumen de datos personales, financieros y conversacionales que se intercambian con estos sistemas de IA significa que una filtración podría tener consecuencias de gran alcance, afectando a todo, desde la seguridad personal hasta la fiabilidad de los servicios de IA en los que hemos llegado a confiar.
Al parecer, un pirata informático ha afirmado haberse infiltrado en OmniGPT, una plataforma de productividad y chatbot de inteligencia artificial muy utilizada, según la información publicada en los conocidos Breach Forums. La brecha supuestamente expuso los datos personales de 30.000 usuarios, incluidos correos electrónicos, números de teléfono y más de 34 millones de líneas de registros de conversaciones. Además de los chats de los usuarios, los datos expuestos también incluyen enlaces a archivos cargados, algunos de los cuales contienen información sensible como credenciales, detalles de facturación y claves API.
A decir verdad, es difícil no alarmarse al menos un poco cuando un servicio de chatbot de IA se enfrenta a una filtración de datos, sobre todo teniendo en cuenta lo rápido que se ha disparado la popularidad de estas herramientas. Confiamos en ellos para una serie de capacidades, desde la escritura creativa y la lluvia de ideas hasta la investigación e incluso la automatización empresarial.
Figura 1. La supuesta infracción de OmniGPT publica reclamaciones en los foros sobre infracciones. Fuente: HackRead.com
¿Por qué se producen estos incidentes?
La accesibilidad y la comodidad de los chatbots y los servicios de creatividad impulsados por IA los han convertido en una parte integral de nuestra vida cotidiana, pero lo más preocupante en este caso es que la brecha se produjo en el back-end del servicio. Esto significa que está totalmente fuera de cualquier cosa que los usuarios o consumidores pudieran haber hecho para evitarlo.
Existe una tendencia común a tratar a los chatbots de IA como un repositorio casual de toda y cualquier información. En realidad, sin embargo, estas plataformas funcionan como "cajas negras", en las que el usuario no tiene prácticamente ninguna idea de cómo se manejan, almacenan o protegen sus datos. Esta desconexión entre percepción y realidad puede tener consecuencias devastadoras cuando se filtran datos sensibles, como documentos cargados, claves API y detalles personales, como se ha visto en este caso.
Igualmente importante es la formación continua de los usuarios en materia de concienciación sobre la seguridad. Es posible que muchas personas aún no sean plenamente conscientes de los riesgos asociados a la introducción de información confidencial en los servicios de chatbot de IA o en las plataformas en la nube. Educar a los usuarios sobre el posible uso indebido de los datos y hacer hincapié en la precaución a la hora de compartir datos personales o confidenciales puede contribuir en gran medida a reducir la exposición.
El atractivo de los potentes servicios, a menudo gratuitos, enriquecidos con IA no hará más que crecer, haciendo cada vez más inútil un enfoque tradicional de la seguridad del tipo "whack-a-mole". Con cientos (si no, miles) de nuevos servicios de IA que surgen semanalmente, los equipos de ciberseguridad ya están desbordados y no pueden seguir el ritmo.
"Últimamente hemos tenido mucho tiempo libre" - ¡no lo ha dicho ningún equipo de ciberseguridad, nunca!
En lugar de perseguir todas y cada una de las herramientas de IA, la atención debe centrarse en los riesgos subyacentes. Esto significa dar prioridad a la protección de los datos sensibles, independientemente del servicio con el que se compartan. Tanto si se trata de una plataforma de IA aparentemente legítima como de cualquier otro recurso informático en la sombra, limitar las interacciones de los datos y aplicar medidas de seguridad sólidas resultará mucho más eficaz que tratar de vigilar un panorama cada vez más amplio de herramientas de IA. Como demuestran los recientes acontecimientos, incluso los servicios de apariencia robusta pueden convertirse en objetivos de sofisticados actores de amenazas.
¿Qué se puede hacer?
La IA es innegablemente revolucionaria y está transformando las industrias y la vida cotidiana de innumerables maneras. Sin embargo, desde un punto de vista puramente técnico, los servicios de IA, en particular aquellos a los que se accede a través de la web y la nube, son fundamentalmente sólo sitios web o plataformas en la nube. Aunque su tecnología subyacente es notablemente potente e innovadora, desde el punto de vista de la ciberseguridad, representan otra vía potencial para la fuga de datos y el acceso no autorizado. Para los profesionales de la seguridad encargados de proteger los datos sensibles de la organización, como los registros de los ciudadanos, la información de identificación personal y el código fuente, los servicios de IA deben verse a través de la lente de la TI en la sombra.
Y aunque la IA impulsa la eficiencia y la innovación, también plantea retos como las violaciones de datos, las infracciones de la normativa y el uso de la IA en la sombra. La rápida adopción de la IA a menudo supera a la gobernanza, dejando a las organizaciones vulnerables a riesgos de reputación, financieros y legales sin las medidas de seguridad adecuadas.
La TI en la sombra, por definición, engloba cualquier servicio no sancionado o autorizado explícitamente para el uso corporativo y las transacciones de datos. Al considerar los servicios de IA como TI en la sombra, los riesgos asociados quedan claros. ¿Permitiría que se introdujeran datos confidenciales de clientes en un sitio web no aprobado? ¿Permitiría que se subieran archivos adjuntos confidenciales a un servicio en la nube desconocido? ¿Aprobaría que los empleados utilizaran plataformas alojadas en jurisdicciones con prácticas de protección de datos cuestionables? La respuesta a todas estas preguntas debería ser un rotundo no.
Tratar los servicios de IA como TI en la sombra obliga a un necesario cambio de perspectiva. En lugar de dejarse deslumbrar por las capacidades de la tecnología, las organizaciones deben aplicar las mismas estrictas normas de seguridad que aplicarían a cualquier otro servicio no autorizado. Esto incluye restringir las interacciones de los datos, limitar el acceso e implementar una sólida supervisión para evitar que la información sensible quede expuesta a los riesgos inherentes asociados a cualquier plataforma externa no gestionada, independientemente de lo innovadora o útil que pueda parecer.
Necesitamos absolutamente ampliar nuestras normas actuales de protección de datos para cubrir las aplicaciones de IA, e idealmente, necesitamos un conjunto de normas que funcione para todo: aplicaciones aprobadas, aplicaciones no aprobadas, incluso nuestras propias aplicaciones internas.
Como profesional de la seguridad, una vez que haya identificado los riesgos asociados de un determinado servicio/entidad, en última instancia querrá hacerse tres preguntas:
- ¿Alguno de nuestros usuarios ha navegado/utilizado esto? En caso afirmativo, ¿cuántos? ¿Y quién exactamente?
- ¿Alguna parte de nuestra infraestructura web y en la nube ha accedido a este servicio?
- Y si alguna de las dos primeras preguntas da como resultado un "sí", ¿cuántos datos se han transmitido entre su organización y ese servicio?
Figura 2. Cuadros de mando de IA para dar a sus equipos de seguridad la visibilidad necesaria para evaluar los retos que se les plantean
Figura 3. Seguimiento de más de 1300 servicios de Inteligencia Artificial con distintas puntuaciones de riesgo y atributos de servicio