Cali, septiembre 24 de 2025. Actualizado: miércoles, septiembre 24, 2025 18:32

Hábitos sobre la IA

El 80% de las personas usa la IA, pero más de la mitad no revisa la información obtenida

El 80% de las personas usa la IA, pero más de la mitad no revisa la información obtenida
Gráfico: Eset
miércoles 24 de septiembre, 2025

A través de una encuesta realizada a nivel regional, Eset Latinoamérica obtuvo diversos patrones de uso de la Inteligencia Artificial y comparte los principales hallazgos.

Colombia –­ La Inteligencia Artificial es parte cada vez más preponderante de nuestro día a día, ya sea como fuente de consulta o como herramienta para optimizar cuestiones laborales y de estudio.

Lo cierto es que un uso incorrecto o descuidado de la IA puede exponer a riesgos innecesarios y peligrosos.

Ante este escenario, Eset realizó una encuesta en Latinoamérica para comprender los hábitos de uso y comparte los principales resultados, como también qué aprendizaje se puede obtener respecto de las medidas de seguridad que se utilizan para preservar datos y privacidad, al interactuar con la Inteligencia Artificial.

La encuesta incluyó la participación de más de 1.000 usuarios y usuarias de Venezuela, México, Colombia, Argentina, Perú, Guatemala, Chile, Ecuador, El Salvador, Uruguay, Panamá, Honduras, Costa Rica, Nicaragua, Bolivia, República Dominicana y Paraguay.

Uno de los datos destacados de la encuesta es que el 80% indicó usar la IA (45% lo hace frecuentemente, y 35% ocasionalmente).

Asimismo, el 55% afirmó que no chequea siempre la información obtenida. El 14% no lo hace nunca, y el 39% lo hace solamente a veces. Desde Eset destacan que esto puede ser muy riesgoso.

“Si bien es cierto que los modelos de IA pueden entregar información certera, no están exentos de generar respuestas incorrectas o sesgadas. Por eso, para garantizar la seguridad (y más en temáticas sensibles como las vinculadas a lo legal, las finanzas o la salud) siempre es aconsejable contrastar la información obtenida con fuentes oficiales.”, comenta Camilo Gutiérrez Amaya, Jefe del Laboratorio de Investigación de Eset Latinoamérica.

Los modelos de IA pueden ser vulnerables a ataques en los que un usuario malintencionado introduce comandos engañosos mediante técnicas como prompt injection para manipular las respuestas.

Así, un ciberatacante podría inducir a la IA a responder brindando instrucciones erróneas o proporcionar información falsa.

Compartir información

Otro punto para tener en cuenta es que el 40% afirmó compartir con frecuencia o esporádicamente información personal y laboral con la Inteligencia Artificial (el 17% siempre, y el 25% a veces).

Además, casi el 60% no lee las políticas de privacidad y solo la mitad de las personas toma una medida concreta para proteger su información.

En principio, desde Eset comentan que es aconsejable evitar compartir datos personales y sensibles. Por ejemplo, no ingresar proactivamente información personal, como contraseñas o datos bancarios, en cualquier chat de IA.

Esto se debe a que estas herramientas pueden procesar dicha información e incluso utilizarla para entrenar futuros modelos, por lo cual es necesario minimizar el riesgo de que esos datos se almacenen y se expongan en el futuro.

Además de no compartir información personal y laboral en este tipo de herramientas, es muy importante tomar conocimiento de todas las configuraciones de privacidad para entender qué tipo de datos se almacenan, si se comparten con terceros y cómo pueden ser utilizados en el futuro.

Se recomienda revisar periódicamente términos y políticas de la aplicación, por cualquier nueva opción de seguridad y privacidad que esté disponible.


El 80% de las personas usa la IA, pero más de la mitad no revisa la información obtenida

Comments

ads_top
Powered by Sindyk Content
Arriba