Cali, julio 21 de 2025. Actualizado: lunes, julio 21, 2025 22:06
Tecnología en alerta
Cuidado con las IAs de video y filtros, expertos sugieren que habría riesgos por usarlas
Las herramientas de inteligencia artificial han revolucionado la forma en que interactuamos con el mundo actual, aunque su principal uso es a nivel profesional en el campo de la tecnología, la ingeniería, el software, el marketing y la comunicación digital, muchas personas la están empleando como entretenimiento, muestra de esto son las inteligencias artificiales generativas de video con las que las personas están creando imágenes de sí mismos para fotos o videos e incluso en filtros. Aunque parece una práctica normal, esto podría conllevar riesgos, conozca qué dicen los expertos en seguridad informática.
Las IAs generativas de video —que permiten crear versiones animadas o hiperrealistas del rostro de una persona— se han popularizado gracias a redes sociales como TikTok e Instagram, así como a plataformas como Sora, Luma o HeyGen.
No obstante, según advierten especialistas, muchas de estas aplicaciones recogen datos biométricos sensibles que podrían ser mal utilizados.
“Estas herramientas requieren acceso completo a tu rostro y gestos para funcionar. Eso significa que pueden recolectar datos únicos que no pueden cambiarse, como tus rasgos faciales”, explicó Luis Villarroel, analista de ciberseguridad de Kaspersky Lab, al medio TechLatam. “El riesgo más alto es que esa información sea vendida, filtrada o usada en fraudes de identidad”.
De hecho, algunas aplicaciones no transparentan del todo sus políticas de uso. En varios casos, aceptas automáticamente que los desarrolladores puedan utilizar tus imágenes para entrenar sus modelos o incluso con fines comerciales.
Eso deja la puerta abierta al uso no autorizado de tu identidad, incluyendo en casos de deepfakes o suplantaciones digitales.
Además, los videos generados con IA pueden ser indistinguibles de la realidad, lo que amplifica el riesgo de manipulación. Desde noticias falsas hasta fraudes financieros, los ciberdelincuentes están encontrando en estas tecnologías una herramienta poderosa para engañar.
“Estamos en una fase peligrosa en la que no todo lo que ves es real, y eso incluye rostros, voces y movimientos. La confianza digital se ve comprometida”, afirmó Claudia Hernández, investigadora del Observatorio de Seguridad Digital de la Universidad de los Andes.
Aunque muchas personas las usan como entretenimiento, el impacto puede ser grave. En 2023, se registraron más de 2.000 casos de fraude digital con rostros generados por IA en América Latina, según cifras de ESET Security Report.
Algunos de estos casos involucraban extorsiones, campañas de desinformación y manipulación de identidades en redes.
Para protegerse, los expertos sugieren leer cuidadosamente las políticas de privacidad, evitar subir imágenes sensibles a plataformas desconocidas y no autorizar permisos innecesarios. También recomiendan no usar estas tecnologías si no se está seguro del manejo de los datos biométricos por parte de la empresa.
Finalmente, los especialistas advierten que el marco legal aún es débil frente al uso de inteligencia artificial en entornos personales.
A pesar de los avances de regulaciones como el Reglamento Europeo de IA, en muchos países latinoamericanos no hay leyes claras que protejan al ciudadano de los abusos digitales.
“La tecnología avanza más rápido que la ley, y eso nos deja desprotegidos”, concluyó Villarroel.
En definitiva, cuidado con las IAs de video: su uso sin precaución podría costarte más que unos segundos de diversión.
Puede leer: Usan IA para crear perfiles ficticios de mujeres en redes y engañar a hombres