¿Quieres agregar una pantalla a tus cortinas? Meta cree que la respuesta es sí.
Meta planea incorporar tecnología de visualización en sus gafas inteligentes Ray-Ban para 2025, según Tiempos financieroscon el objetivo de mejorar la experiencia del usuario y solidificar su posición en el competitivo mercado de wearables. Esta iniciativa busca desafiar el dominio de los teléfonos inteligentes como el principal dispositivo informático para los consumidores y llega en un momento en que empresas rivales, incluidas Apple y Google, están desarrollando activamente productos similares.
Meta agregará tecnología de visualización a las gafas inteligentes Ray-Ban para 2025
Las actualizaciones anticipadas de las gafas Ray-Ban, desarrolladas en colaboración con EssilorLuxottica, incluirán una pequeña pantalla principalmente para notificaciones y respuestas del asistente virtual de Meta. Las fuentes indican que estas versiones mejoradas podrían lanzarse ya en la segunda mitad de 2025.
Este movimiento se produce tras el exitoso lanzamiento de la última versión de las gafas Ray-Ban Meta en septiembre de 2023. Según el director ejecutivo de EssilorLuxottica, Francesco Milleri, estos últimos modelos han superado significativamente a las versiones anteriores, logrando más ventas en sus primeros meses que las versiones anteriores en dos años. . El mercado más amplio de gafas portátiles experimentó un notable crecimiento del 73% en envíos en 2024.
En septiembre Meta presentó su prototipo de gafas de realidad aumentada, Oriónque cuenta con un diseño compacto y tecnología de visualización avanzada. Las gafas Orion pueden superponer contenido 3D al mundo real, lo que representa un avance sustancial en la tecnología AR en comparación con intentos anteriores de empresas como Google y Microsoft. Meta ha acelerado el desarrollo de Orion tras los comentarios positivos de las primeras pruebas, aunque aún faltan años para que esté disponible para el consumidor.
Fanáticos europeos de Ray-Ban, conozcan sus nuevas gafas impulsadas por IA
Además, Meta ha introducido live Funciones de IA para sus Ray-Banpermitiendo interacciones y traducciones en tiempo real. La IA, una vez activada, proporciona a los usuarios una experiencia «siempre consciente», respondiendo preguntas y ofreciendo información sobre el entorno circundante. Sin embargo, esta función aún se encuentra en una etapa beta temprana, con limitaciones en cuanto a conectividad y precisión. Actualmente, las capacidades de traducción admiten una cantidad limitada de idiomas y los usuarios deben descargar paquetes de idiomas específicos para que la función funcione de manera efectiva.
A pesar de los avances en curso, Meta enfrenta desafíos a la hora de crear gafas AR modernas equipadas con un rendimiento de hardware y una duración de batería adecuados a un precio aceptable. El director de tecnología de Meta, Andrew Bosworth, destacó recientemente que la viabilidad de integrar IA en vivo y pantallas frontales dependerá de la superación de estos obstáculos. Indicó que agregar control por gestos a través de una pulsera o dispositivo de entrada similar podría surgir junto con futuros modelos con pantalla mejorada.
De cara al futuro, las inversiones continuas de Meta en tecnología de inteligencia artificial pueden conducir a dispositivos más integrados y versátiles, que combinen capacidades como el seguimiento del estado físico y las funcionalidades de realidad virtual. El desarrollo de sistemas de reconocimiento de gestos también podría mejorar la interacción del usuario con las gafas inteligentes, ya que las Ray-Ban actuales no admiten gestos de señalar, lo que limita la funcionalidad.
Crédito de la imagen destacada: Meta