OpenAI ha unificado equipos de ingeniería, productos e investigación durante los últimos dos meses para revisar sus modelos de audio en preparación para un dispositivo personal de audio que se lanzará en aproximadamente un año, según un informe de La información. La revisión apunta a mejoras en las capacidades de audio de OpenAI más allá de las limitaciones actuales. El nuevo modelo de audio de la compañía, cuyo lanzamiento está previsto para principios de 2026, producirá un habla con un sonido más natural. Gestionará las interrupciones de forma similar a un interlocutor de conversación real. Este modelo también permitirá que la IA hable simultáneamente mientras el usuario habla, una función que los modelos existentes no pueden realizar. OpenAI planea una familia de dispositivos impulsados por esta avanzada tecnología de audio. Los posibles diseños incluyen gafas o altavoces inteligentes sin pantalla. Estos dispositivos pretenden funcionar como compañeros en lugar de meras herramientas, integrándose perfectamente en las interacciones diarias.
El exjefe de diseño de Apple, Jony Ive contribuye a las iniciativas de hardware de OpenAI. OpenAI adquirió su empresa io por 6.500 millones de dólares en mayo. Ive prioriza los principios de diseño que dan prioridad al audio para abordar la adicción a los dispositivos. Como señala The Information, Ive ve este enfoque como una oportunidad para “corregir los errores” de los dispositivos de consumo del pasado. El impulso hacia las interfaces de audio se alinea con desarrollos más amplios de la industria. Los parlantes inteligentes, con asistentes de voz, existen en más de un tercio de los hogares estadounidenses. Estos dispositivos han establecido la interacción por voz como un elemento estándar en el hogar. Meta introdujo una característica para su Gafas inteligentes Ray-Ban que emplea una matriz de cinco micrófonos. Esta configuración ayuda a los usuarios a escuchar conversaciones en entornos ruidosos. La tecnología transforma efectivamente las gafas en un dispositivo de escucha direccional colocado en la cara. Google inició experimentos en junio con «Resúmenes de audio.” Esta función convierte los resultados de la búsqueda en resúmenes conversacionales entregados mediante audio. Los usuarios reciben descripciones generales habladas en lugar de listas visuales, lo que facilita el acceso a la información con manos libres. Tesla incorpora Grok y otros grandes modelos lingüísticos a sus vehículos. La integración crea asistentes de voz conversacionales capaces de entablar un diálogo natural. Estos asistentes gestionan tareas como la navegación y el control del clima a través de comandos y respuestas por voz. Las empresas emergentes buscan hardware similar centrado en audio con resultados mixtos. el IA humana Chapaun dispositivo portátil sin pantalla, consumió cientos de millones en financiación antes de surgir como una advertencia en el sector. El colgante Friend AI funciona como un collar que registra aspectos de la vida de los usuarios y al mismo tiempo brinda compañía. Este dispositivo ha generado preocupaciones sobre la privacidad junto con informes de temor existencial entre los usuarios. Otras nuevas empresas desarrollan anillos de IA cuyo debut está previsto para 2026. Sandbar representa un esfuerzo. Otro involucra al fundador de Pebble, Eric Migicovsky. Estos anillos permiten a los usuarios entablar conversaciones directamente con el dispositivo que tienen en la mano. Los factores de forma varían entre estos proyectos (dispositivos portátiles, colgantes, anillos), pero todos enfatizan el audio como interfaz principal. Espacios como casas, automóviles e incluso la cara evolucionan hacia entornos de audio interactivos.





