Cali, agosto 23 de 2025. Actualizado: sábado, agosto 23, 2025 10:14
La nueva generación de modelos visuales y de lenguaje promete acelerar el futuro de la IA en dispositivos móviles
Inteligencia Artificial que ve y habla: Liquid AI lanza modelos pequeños, rápidos y eficientes para smartphones
La compañía Liquid AI presentó LFM2-VL, un nuevo tipo de modelo de inteligencia artificial (IA) diseñado para funcionar con agilidad y eficacia en dispositivos con recursos limitados, como smartphones, laptops y dispositivos portátiles.
Esto representa un avance significativo para que la IA sea capaz de procesar no solo texto, sino también imágenes, con rapidez y sin afectar la batería o la privacidad del usuario.
¿Qué es un modelo multimodal y por qué es importante?
Los modelos multimodales como LFM2-VL pueden entender y trabajar con diferentes tipos de información, por ejemplo, texto e imágenes al mismo tiempo.
Esto es clave para aplicaciones cotidianas como asistentes personales que “ven” lo que capturan las cámaras, apps que leen textos en fotos o herramientas de traducción visual, todo desde tu teléfono.
Más velocidad y menos consumo energético
Liquid AI afirma que su nuevo modelo puede procesar imágenes y texto hasta dos veces más rápido que otros modelos similares, manteniendo la calidad.
Esto es posible gracias a una técnica novedosa llamada “Linear Input-Varying” (LIV), que adapta el proceso de aprendizaje para cada dato recibido, lo que reduce el esfuerzo computacional.
Esto significa que tu teléfono podrá realizar tareas complejas sin caer en la lentitud o agotar su batería rápidamente.
Dos versiones para diferentes usos
LFM2-VL ofrece dos tamaños de modelo: una versión pequeña, con menos de 500 millones de parámetros, ideal para dispositivos con muy poca memoria y potencia; y otra más avanzada pero aún ligera, que funciona en una sola tarjeta gráfica o GPU. Ambos pueden procesar imágenes en alta resolución sin distorsiones, usando técnicas inteligentes para analizar tanto detalles pequeños como contextos generales.
Orígenes del proyecto y objetivo de Liquid AI
Liquid AI nace de investigadores de MIT que buscan innovar más allá de los modelos tradicionales de IA que suelen ser muy pesados y poco flexibles.
Su enfoque permite instalar IA avanzada directamente en el dispositivo, sin depender de la nube ni de conexión a internet, lo que protege la privacidad y mejora la velocidad de respuesta.
Facilitar el desarrollo local con LEAP y Apollo
Para que los desarrolladores creen sus propias aplicaciones con esta tecnología, Liquid AI ha lanzado LEAP, un kit de desarrollo que funciona en iOS y Android.
Su app Apollo permite probar modelos de IA sin conexión, enfocándose en la seguridad y velocidad, ideal para construir soluciones personalizadas en sectores como salud, educación o comercio.
Un futuro más eficiente y accesible
LFM2-VL destaca por su modularidad, permitiendo ajustar la velocidad y la calidad según la necesidad. Los modelos han sido entrenados con una enorme cantidad de datos, incluyendo textos e imágenes, lo que les da una capacidad destacada para entender preguntas y reconocer texto en imágenes con precisión.
Además, estos modelos están disponibles para descargar y ajustar a través de plataformas como Hugging Face, con un sistema de licencias flexible para uso comercial, abriendo la puerta a más innovación en la industria.
Reflexión final
La introducción de LFM2-VL de Liquid AI marca un paso importante para democratizar la inteligencia artificial avanzada, llevándola a dispositivos cotidianos sin sacrificar rendimiento ni autonomía.
Para quienes vivimos conectados a nuestros teléfonos, esto implica un futuro donde la tecnología podrá entendernos y ayudarnos de forma más natural y privada, sin depender de servicios remotos.
Este desarrollo es una muestra clara de que la próxima revolución digital será cada vez más «doméstica» y centrada en nuestra experiencia diaria.
Esta nota fue generada 100% con IA. La fuente fue aprobada por Diario Occidente y el contenido final fue revisado por un miembro del equipo de redacción.