miércoles, diciembre 3, 2025
InicioNoticias destacadasMicrosoft alerta sobre fallo en IA que permite espiar conversaciones de usuarios

Microsoft alerta sobre fallo en IA que permite espiar conversaciones de usuarios

Un fallo en modelos de inteligencia artificial pone en riesgo la privacidad de las conversaciones.

Una investigación de Microsoft ha descubierto una vulnerabilidad en los modelos de lenguaje que podría exponer conversaciones sensibles de los usuarios sin necesidad de descifrar su contenido.

Descubriendo el “Whisper Leak”

El hallazgo, denominado «Whisper Leak«, afecta a casi todos los modelos de IA evaluados. A diferencia de otros enfoques, esta brecha no vulnera la encriptación TLS (Transport Layer Security), que protege transacciones online, sino que se aprovecha de los metadatos que quedan accesibles durante la transmisión de información.

¿Qué significa esto?

Si bien TLS evita que terceros accedan al contenido textual de las conversaciones, no oculta patrones de tráfico, como el tamaño de los paquetes o el tiempo de respuesta. Estos datos pueden ser utilizados para inferir el tema principal de una conversación, incluso sin conocer las palabras exactas empleadas.

Cómo se descubrió la vulnerabilidad

Para identificar esta falla, el equipo de Microsoft evaluó 28 modelos de lenguaje diferentes. Crearon dos conjuntos de preguntas: una con temas delicados como lavado de dinero, y otro con consultas cotidianas. Mientras los modelos respondían, registraron:

  • El ritmo de datos de la red
  • Tamaño de los paquetes
  • Tiempos de envío

A continuación, entrenaron una IA para deducir el tema de la conversación solo a partir de esos metadatos.

Los resultados fueron sorprendentes: la IA identificó con más del 98% de precisión las conversaciones, logrando reconocer el 100% de las interacciones sensibles, incluso cuando representaban solo 1 de cada 10.000.

Un nuevo nivel de escucha

En esencia, el sistema fue capaz de “escuchar sin escuchar”, deduciendo de qué hablaban los usuarios sin romper la encriptación. El informe afirma que es crucial que los proveedores de modelos de IA aborden la filtración de metadatos, ya que están manejando información cada vez más sensible.

Este estudio de Microsoft se suma a la creciente inquietud sobre la privacidad y seguridad en la era de la inteligencia artificial. Aunque muchas empresas implementan chatbots en diversos sectores, el caso del «Whisper Leak» nos recuerda que la protección de datos personales aún es un desafío significativo.

RELATED ARTICLES
- Advertisment -

Most Popular

Recent Comments