Análisis · —· Español — auto
Tus Próximas Gafas No Solo Verán. También Pensarán.
La actual cosecha de gafas inteligentes son poco más que cámaras en tu rostro. Pero se acerca una nueva generación, impulsada por asistentes de AI siempre activos que transformarán las gafas de un gadget pasivo en un copiloto proactivo para tu vida.

Persona usando modernas gafas inteligentes con AI al anochecer con un suave resplandor cian de asistente de AI reflejado en las lentes
Seamos honestos: las gafas inteligentes de hoy son un truco ingenioso, pero no son una revolución. Los Meta Ray-Ban son un triunfo del diseño industrial y las únicas gafas conectadas que la gente realmente usa en público, pero son fundamentalmente reactivas. Aprietas un botón, tomas una foto. Dices un comando, la AI te dice lo que estás viendo en una breve ráfaga de 30 segundos. Es una evolución de las gafas equipadas con cámara que empresas como Pivothead y Epiphany construían hace una década. Pero el verdadero cambio de paradigma no se trata de mejorar la cámara; se trata de hacer que la AI sea persistente. El próximo capítulo de las gafas trata sobre un asistente siempre activo que ve tu mundo, lo entiende y actúa sobre él sin necesidad de indicaciones constantes.
Meta ya está sentando las bases para este salto. Las filtraciones en torno a sus gafas de próxima generación, con los nombres en clave Aperol y Bellini para un lanzamiento en 2026, apuntan a una capacidad llamada 'super sensing'. Esto no es un ajuste menor; es un cambio fundamental en la filosofía operativa. El plan es extender la función 'Live AI' de una sesión fugaz de 30 minutos a varias horas de funcionamiento continuo. Las implicaciones son profundas. No se trata solo de identificar un punto de referencia. Se trata de que tus gafas te recuerden que cojas tus llaves porque te *ven* caminando hacia la puerta, o que sugieran ingredientes para la cena basándose en un vistazo a tu calendario y el contenido de tu nevera. Es un cambio de una característica novedosa a un verdadero compañero cognitivo.
Esto no es una fantasía aislada de Silicon Valley. Al otro lado del Pacífico, Rokid, con sede en Hangzhou, está distribuyendo su propia respuesta de 49 gramos a las Ray-Ban Meta, completa con su propio asistente 'Yunque AI' integrado. Si bien las Rokid Glasses son una clara jugada de volumen que imita una fórmula exitosa, el dispositivo más avanzado Rokid AR Spatial de la compañía demuestra que tienen la capacidad técnica para ser tomados en serio. El mensaje es claro: la carrera por integrar una AI pensante en unas gafas de aspecto normal es ahora global. El factor de forma está convergiendo, pero la batalla por la AI dominante apenas está comenzando.
Simultáneamente, Apple está construyendo la misma capacidad bajo una bandera diferente: accesibilidad. La próxima función 'Live Recognition' para Vision Pro utilizará el machine learning en el dispositivo para describir el entorno, identificar objetos y leer texto para usuarios con baja visión. No confundas esto con una característica de nicho. Las tecnologías incubadas en accesibilidad —como el control por voz y los lectores de pantalla— tienen una larga historia de volverse convencionales. Apple está probando eficazmente una potente asistente visual siempre activo. Si bien Vision Pro sigue siendo un casco voluminoso, el rumoreado 'Vision Air' programado para 2027 tiene como objetivo reducir el peso y el precio, acercando estas capacidades avanzadas de AI un paso de gigante a un dispositivo wearable para todo el día.
Esta inevitable convergencia de hardware está forzando una guerra de plataformas. Mientras Meta y Apple construyen sus predecibles "jardines vallados", startups como Mentra apuestan por un futuro de código abierto. Nacida en el MIT, Mentra ofrece unas gafas amigables para desarrolladores con un OS abierto, apostando a que los asistentes de AI más innovadores no vendrán de un comando central, sino de un ejército de desarrolladores independientes. Esta es la tensión clásica que definió las eras de escritorio y móvil, ahora manifestándose en nuestros rostros. ¿Tu copiloto de AI será un empleado de Apple, o un agente libre que elijas tú mismo?
Todo esto está sustentado por un cambio silencioso y tectónico en los estándares técnicos. La creciente adopción del estándar OpenUSD —respaldado por todos, desde Apple y Pixar hasta Microsoft y Sony— está creando el 'HTML para el metaverso' que los futuristas han prometido durante mucho tiempo. Cuando un objeto 3D tiene una descripción universal, la capacidad de un asistente de AI para reconocerlo, rastrearlo e interactuar con él —una característica que ya se está estrenando en visionOS 2— se vuelve exponencialmente más potente. Este trabajo fundamental es crucial para ir más allá del simple reconocimiento de texto hacia una genuina comprensión del mundo físico.
El camino por delante está plagado de naufragios. Meta está reduciendo sus ambiciones de VR más amplias, y Snap está despidiendo personal incluso mientras protege su división de gafas AR. Construir el hardware sigue siendo brutalmente difícil y caro. Pero la dirección del viaje es innegable. Estamos pasando de la captura pasiva a la asistencia proactiva. El debate pronto pasará de la resolución de la cámara y la duración de la batería a la ética de la función de reconocimiento facial 'explorada' de Meta. El dispositivo en tu cara está a punto de adquirir una mente propia, y cambiará para siempre cómo vemos el mundo y cómo nos vemos los unos a los otros.
Compartir





