Google presenta un sistema que protege las conversaciones mientras permite mejorar cómo usamos la inteligencia artificial

Un nuevo enfoque para entender el uso de chatbots inteligentes sin poner en riesgo tu privacidad

lunes 22 de diciembre, 2025

Cómo se analizan nuestras conversaciones con chatbots de IA sin revelar información personal

En los últimos años, los chatbots basados en grandes modelos de lenguaje (LLM, por sus siglas en inglés) se han convertido en herramientas comunes para ayudar en tareas cotidianas: escribir un correo, programar, planear un viaje o incluso diseñar un menú para un café.

Estos sistemas, que entienden y generan texto similar al humano, procesan millones de conversaciones diariamente.

Esto plantea una pregunta importante: ¿Cómo pueden las empresas que desarrollan estos chatbots aprender de estas conversaciones para mejorar el servicio sin poner en riesgo la privacidad de los usuarios?

Protección de información: un nuevo reto

Antes se confiaba en métodos en los que el sistema simplemente intentaba “borrar” información personal al resumir las conversaciones.

Sin embargo, este proceso no garantiza que datos sensibles desaparezcan completamente, y puede ser difícil de supervisar o demostrar que realmente protege al usuario.

Por eso, investigadores de Google presentaron un método innovador, llamado “Urania“, que utiliza un concepto matemático conocido como privacidad diferencial (DP).

Esta técnica controla y limita la influencia que cualquier conversación individual puede tener en el resultado final, asegurando que no se revele información privada.

¿Cómo funciona este método para cuidar nuestra privacidad?

  1. Agrupación anónima (Clustering DP): Primero, las conversaciones se transforman en datos numéricos y se agrupan con un algoritmo que protege la privacidad para que ninguna interacción sola pueda definir un grupo.
  2. Extracción de palabras clave protegidas: De cada grupo, se extraen palabras relevantes que resumen las ideas principales, pero con un proceso que añade “ruido” para impedir que términos únicos o sensibles se puedan reconocer. Hay tres formas de hacerlo, todas garantizando que no se identifique al usuario.
  3. Resumen con inteligencia artificial: Finalmente, el sistema genera un resumen general de cada grupo solo con esas palabras clave anónimas, sin tener acceso a los textos originales. Esto se logra gracias a que el LLM trabaja solo con información previamente anonimizadas.

El resultado es una forma segura y transparente de entender cómo se usa la IA en las conversaciones sin exponer detalles privados.

¿Qué tan efectivo es y qué beneficios tiene?

Google comparó su método con otro sistema sin protección formal de privacidad. Aunque se comprobó que al aumentar la privacidad el resumen puede ser menos detallado, sorprendentemente, los evaluadores preferían hasta en el 70% de los casos los resúmenes protegidos.

Esto muestra que las restricciones mejoran la claridad y enfoque del análisis. Además, una prueba llamada “ataque de inferencia de membresía” demostró que el sistema con privacidad diferencial es prácticamente imposible de vulnerar, protegiendo a los usuarios contra la exposición de sus conversaciones.

Mirando hacia el futuro

Este avance abre el camino para sistemas que puedan manejar grandes cantidades de texto de manera responsable y segura.

Los investigadores planean hacer que esta tecnología funcione en tiempo real, mejorar la calidad de los resúmenes y añadir capacidad para analizar conversaciones que incluyen imágenes, videos y sonidos.

En un mundo cada vez más conectado con la inteligencia artificial, soluciones así son vitales para mantener la confianza y proteger nuestra privacidad mientras seguimos aprovechando la tecnología.

Nota de Transparencia

Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.


Comments

Otras Noticias