Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the fast-indexing-api domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/buwemyhm/public_html/wp-includes/functions.php on line 6121

Notice: Function _load_textdomain_just_in_time was called incorrectly. Translation loading for the health-check domain was triggered too early. This is usually an indicator for some code in the plugin or theme running too early. Translations should be loaded at the init action or later. Please see Debugging in WordPress for more information. (This message was added in version 6.7.0.) in /home/buwemyhm/public_html/wp-includes/functions.php on line 6121
Meta Llama 4 te permitirá hablar con AI como nunca antes - Dataconomy ES
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Meta Llama 4 te permitirá hablar con AI como nunca antes

byKerem Gülen
7 marzo 2025
in Artificial Intelligence, News
Home Artificial Intelligence

Meta Platforms Inc está listo para mejorar sus capacidades de voz con la próxima versión de su inteligencia artificial, Llama 4, según lo informado por el Financial Times. Este desarrollo se alinea con la estrategia de Meta para centrarse en los agentes de IA conversacionales en lugar de las interacciones tradicionales basadas en texto.

Meta’s Llama 4: Transformando la IA con capacidades de voz

Se espera la introducción de las características de voz mejoradas en Llama 4 en las próximas semanas, con el objetivo de facilitar un diálogo natural bidireccional donde los usuarios puedan interrumpir la IA en lugar de adherirse estrictamente a un formato de preguntas y respuestas. Este cambio demuestra el compromiso de Meta de transformar la interacción del usuario con la tecnología AI.

El CEO Mark Zuckerberg ha esbozado objetivos ambiciosos para la compañía, designando 2025 como un año crucial para su gama de productos de IA, que están en desarrollo en medio de una mayor competencia de compañías como OpenAI, Microsoft y Google. Para sustituir estas iniciativas, Meta planea invertir hasta $ 65 mil millones en 2025, centrando principalmente este gasto en la infraestructura del centro de datos.


Meta AI se acerca a 600 millones de usuarios mensuales con Llama 3.3


Junto con los avances en Llama 4, Meta está explorando la posibilidad de suscripciones premium para su asistente de IA, Meta AI, que le permitiría realizar tareas como reservas de reservas y creación de videos. La compañía también está considerando implementar publicidad paga o publicaciones patrocinadas en los resultados de búsqueda de Meta AI.

El director de productos Chris Cox indicó que Llama 4 operaría como un «modelo Omni», lo que permite que el habla funcione de forma nativa dentro del sistema, eliminando así la necesidad de traducir la voz en texto y regreso. Hizo hincapié en la importancia de esta capacidad en la Conferencia Morgan Stanley Technology, Media & Telecom, afirmando: «Creo que todavía estamos envolviendo la cabeza con lo poderoso que es».

Meta ha estado discutiendo activamente las barandillas necesarias para la última producción del modelo de LLAMA al tiempo que evalúa si disminuir estas restricciones. Estas discusiones se presentan en medio de presiones competitivas, ya que los rivales como Operai y el XAI de Elon Musk también hacen avances en la implementación de características de voz, incluidas las ofrendas de personalidad distintas de OpenAI y Grok 3, que presenta un «modo desquiciado» que responde de manera deliberadamente objetable.

El año pasado, Meta abordó las críticas sobre su Modelo de Llama 2que había sido reacio a responder consultas benignas al presentar una versión más flexible en LLAMA 3. La integración de los comandos de voz también es una característica clave de las gafas inteligentes de meta de meta, que han ganado popularidad entre los consumidores, lo que indica aún más la estrategia de la compañía para posicionar a los auriculares livianos como los dispositivos principales de calculación del futuro.


Crédito de imagen destacado: Dima Solomin/Unsplash

Tags: AILLAMA 4MetaPresentado

Related Posts

Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección

Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección

15 mayo 2025
Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad

Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad

15 mayo 2025
La IA de YouTube ahora sabe cuándo estás a punto de comprar

La IA de YouTube ahora sabe cuándo estás a punto de comprar

15 mayo 2025
El CEO de Soundcloud admite que los términos de IA no eran lo suficientemente claros, emiten nuevos compromisos

El CEO de Soundcloud admite que los términos de IA no eran lo suficientemente claros, emiten nuevos compromisos

15 mayo 2025
¿Listo para un chatgpt que realmente te conozca?

¿Listo para un chatgpt que realmente te conozca?

14 mayo 2025
Lightricks presenta el modelo de video 13B LTX para la generación de videos HQ AI

Lightricks presenta el modelo de video 13B LTX para la generación de videos HQ AI

14 mayo 2025

Recent Posts

  • El impacto de las telas inteligentes en el rendimiento de la ropa táctica
  • Databricks apuesta grande en Postgres sin servidor con su adquisición de neón de $ 1 mil millones
  • Alphaevolve: Cómo la nueva IA de Google apunta a la verdad con la autocorrección
  • Tiktok está implementando textos alternativos generados por AI para una mejor acesibilidad
  • Trump obliga a Apple a repensar su estrategia de iPhone de la India

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.