Un innovador sistema de IA multimodal ofrece descripciones en tiempo real y navegación accesible en entornos urbanos virtuales

StreetReaderAI: La inteligencia artificial que hará accesible Google Street View para personas con discapacidad visual

jueves 6 de noviembre, 2025

StreetReaderAI: la revolución accesible en la exploración urbana digital

La manera en que exploramos el mundo virtualmente ha cambiado drásticamente con herramientas como Google Street View, que permiten recorrer calles, visitar destinos turísticos y planear rutas desde casa.

Sin embargo, para personas con discapacidad visual, estas imágenes no son fáciles de interpretar porque los lectores de pantalla no pueden describirlas ni hay textos alternativos disponibles.

Por eso, Google Research ha desarrollado un nuevo prototipo llamado StreetReaderAI, que utiliza inteligencia artificial (IA) avanzada para hacer que este servicio sea accesible de manera inclusiva, permitiendo “ver” virtualmente a través del oído.

¿Qué es StreetReaderAI y cómo funciona?

StreetReaderAI es un innovador sistema que combina IA multimodal —es decir, que procesa imágenes, texto y datos geográficos simultáneamente— con una interfaz accesible que permite a usuarios navegar en Street View usando comandos de voz o teclado.

Dos componentes centrales respaldan esta tecnología:

  • AI Describer: Genera descripciones detalladas y contextuales del entorno urbano basado en la imagen que se visualiza y la ubicación exacta dentro de la ciudad. Por ejemplo, puede narrar qué calles rodean al usuario o informar sobre elementos importantes como cruces peatonales o paradas de bus, priorizando la seguridad y navegación facilitada.
  • AI Chat: Un agente conversacional con memoria temporal que permite que el usuario haga preguntas específicas sobre la escena mostrada o lugares cercanos, y reciba respuestas en tiempo real. Por ejemplo, un usuario puede preguntar “¿Dónde está la parada de bus más cercana?” después de recorrer varias imágenes, y el sistema responderá con precisión la ubicación.

Ambos sistemas utilizan lo que se conoce como un modelo de lenguaje grande (LLM), una tecnología de IA entrenada con vastos datos que entiende y genera lenguaje humano de forma natural.

La conversación es fluida, lo que convierte al sistema en un guía virtual capaz de responder y recordar el contexto durante la exploración.

Navegación y experiencia de usuario

El acceso a StreetReaderAI es sencillo, pensado para que cualquier persona con discapacidad visual pueda usarlo sin conocimientos técnicos avanzados.

El usuario navega la imagen panorámica empleando las flechas del teclado o comandos de voz para girar la vista, avanzar o retroceder “virtualmente” por la calle.

Mientras se mueve, recibe información auditiva sobre la dirección en la que mira (norte, sur, este, oeste), si puede seguir adelante, o si hay puntos de interés visibles.

Además, se puede “teletransportar” a ubicaciones específicas para ahorrar tiempo y planificar rutas, disfrutando de un recorrido guiado que informa de obstáculos, mobiliario urbano o detalles arquitectónicos adaptados en función del entorno.

Resultados alentadores y retos por resolver

Una prueba en laboratorio con once personas ciegas mostró que StreetReaderAI es una herramienta muy útil, con una puntuación media cercana al máximo en usabilidad y utilidad.

Los participantes visitaron más de 350 vistas panorámicas y realizaron más de 1000 solicitudes a la IA, usando seis veces más la función de chat que las descripciones automáticas, lo que evidencia la preferencia por la interacción personalizada.

El análisis de preguntas reveló que las inquietudes mayoritarias giran en torno a la orientación espacial, la existencia de objetos (como rampas o cruces peatonales), y la localización de lugares específicos.

El sistema respondió correctamente el 86% de las preguntas, señalando que aunque la precisión es alta, hay margen para mejorar, especialmente en evitar errores de reconocimiento o información incompleta.

El futuro de StreetReaderAI: más autonomía y mejoras sensoriales

Esta primera versión es un prototipo prometedor, pero el equipo de Google Research trabaja para desarrollar funciones más avanzadas, como un agente virtual que pueda explorar automáticamente –por ejemplo, identificar la próxima parada de bus– o planificar rutas completas adaptadas a las necesidades del usuario ciego.

Además, planean enriquecer la interfaz auditiva con sonidos espaciales en 3D que permitan “sentir” el entorno, convirtiendo la experiencia en algo más inmersivo y natural.

Conclusión

StreetReaderAI representa un avance significativo en la inclusión digital, ofreciendo a las personas con discapacidad visual una forma práctica y efectiva de explorar y navegar en entornos urbanos virtuales que hasta ahora les resultaban inaccesibles.

Esta herramienta muestra el potencial de la IA para generar soluciones que impacten positivamente la vida diaria, facilitando autonomía y oportunidades de exploración para todos.

Nota de Transparencia

Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.

🔊 El Resumen de Noticias sobre Inteligencia Artificial e Innovación Tecnológica, aquí 👇🏻


Tu navegador no soporta el elemento de video.


Comments

Otras Noticias