Cali, noviembre 12 de 2025. Actualizado: miércoles, noviembre 12, 2025 09:54
Los casos de Google, Gemma y la nueva regulación global marcan un punto de inflexión en el uso responsable de la inteligencia artificial
IA, desinformación y reputación: cuando los algoritmos deciden por las empresas
La IA que difama
En octubre de 2025, la senadora estadounidense Marsha Blackburn denunció a Google por el comportamiento de Gemma, su modelo de lenguaje, que generó una historia falsa sobre presuntos abusos sexuales.
El modelo no solo inventó los hechos: también fabricó enlaces y fuentes inexistentes.
Ante la gravedad del caso, Google retiró Gemma de su plataforma AI Studio, reconociendo que las llamadas alucinaciones —errores que producen afirmaciones falsas— siguen siendo un desafío que puede tener consecuencias legales.
Días antes, el activista Robby Starbuck había demandado a la compañía por difamación, alegando que otra IA lo describió falsamente como “pedófilo” y “tirador”.
Ambos episodios revelan un mismo dilema: la inteligencia artificial puede crear información verosímil, pero no necesariamente verdadera.
De la desinformación al riesgo reputacional
Estos casos marcaron un punto de inflexión para las empresas tecnológicas.
La difusión de falsedades por parte de una IA ya no se considera un error técnico, sino un fallo de gobernanza con impacto reputacional, económico y político.
En un entorno donde la información circula con velocidad viral, la verificación humana y los protocolos éticos se convierten en factores de competitividad.
Cuando un modelo de IA miente, la empresa responde. Y el costo no se mide solo en millones, sino en confianza.
Política y control: la orden “anti-woke” de Trump
En paralelo, el presidente Donald Trump firmó en julio la orden ejecutiva conocida como anti-woke AI Order, que prohíbe el uso de sistemas de IA considerados “sesgados ideológicamente” en contratos con el gobierno de Estados Unidos.
Esta decisión obliga a las tecnológicas a revisar cómo entrenan sus modelos y a qué valores responden.
El riesgo es que la política sustituya a la ciencia, y que la neutralidad de la IA se vea condicionada por visiones partidistas.
El debate sobre sesgos, censura y libertad de expresión digital apenas comienza, y podría definir el futuro del ecosistema de innovación global.
Un mapa regulatorio en expansión
Europa ya aplica el AI Act, la primera gran ley mundial sobre inteligencia artificial, que exige transparencia, control humano y gestión de riesgos.
Estados Unidos avanza con normativas sectoriales, y Latinoamérica empieza a delinear su propio marco legal.
Las empresas colombianas deben anticiparse: incluso sin regulación local estricta, los estándares internacionales marcarán las reglas del juego.
En este contexto, la gobernanza de la IA se convierte en una ventaja competitiva. Las compañías que adopten políticas de ética, seguridad y revisión temprana estarán mejor posicionadas para crecer y ganar confianza.
Lecciones para las empresas
- Verificar antes de publicar. Toda información generada por IA debe pasar por revisión humana.
- Definir políticas internas de uso responsable. Incluyen revisión de fuentes, trazabilidad y transparencia.
- Capacitar a los equipos. Comprender los límites y sesgos de la IA evita crisis reputacionales.
- Incluir cláusulas de responsabilidad digital en contratos. Especialmente cuando se usan modelos de terceros.
- Comunicar con ética. No se trata solo de innovar, sino de generar confianza.
Conclusión
La inteligencia artificial está reescribiendo las reglas de la información y del poder.
Las empresas que la adopten sin control pueden terminar enfrentando las consecuencias de sus propias “alucinaciones”.
En cambio, quienes integren ética, transparencia y propósito en su estrategia digital estarán mejor preparadas para competir en un mundo donde la verdad también se programa.
Nota de Transparencia
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

Punto de quiebre: si quieres entender mejor cómo reconocer una alucinación de la IA y evitar caer en sus trampas, ve a nuestra guía “Alucinaciones de la IA: cómo reconocerlas y usar la tecnología de forma responsable”.
Un recurso práctico con ejemplos y cinco recomendaciones para usar la inteligencia artificial con criterio y ética.
