OpenAI ha introducido su nuevo modelo de razonamiento o1 en su API, desplegándolo a desarrolladores seleccionados a partir del 17 de diciembre de 2024. El lanzamiento se produce como parte de una actualización más amplia que también incluye nuevas funciones que mejoran la funcionalidad y la personalización para los desarrolladores. Para calificar para el uso, los desarrolladores deben gastar al menos $1000 y mantener cuentas con más de 30 días de antigüedad.
«Hoy presentamos modelos más capaces, nuevas herramientas de personalización y actualizaciones que mejoran el rendimiento, la flexibilidad y la rentabilidad para los desarrolladores que construyen con IA».
-OpenAI
OpenAI lanza API o1 para desarrolladores seleccionados
El modelo o1 reemplaza a la vista previa o1 anterior y cuenta con capacidades que le permiten verificar sus propias respuestas, una ventaja que no se encuentra comúnmente en los modelos de IA. Como compensación, el modelo de razonamiento tiende a tardar más en generar respuestas. El costo de procesar con o1 es significativo; Cobra a los desarrolladores 15 dólares por cada 750.000 palabras analizadas y 60 dólares por el contenido generado, lo que supone un aumento de seis veces en comparación con el último modelo sin razonamiento. GPT-4o.
El nuevo o1 está diseñado para mejorar las limitaciones anteriores, y OpenAI afirma que ofrece «respuestas más completas y precisas», particularmente para consultas técnicas relacionadas con la programación y los negocios. Incluye mejoras como un parámetro de esfuerzo de razonamiento que permite a los desarrolladores controlar el tiempo de procesamiento de las consultas. Además, el modelo es más adaptable que su predecesor, admite funciones como mensajes de desarrollador para personalizar el comportamiento del chatbot y permite resultados estructurados utilizando un esquema JSON.
Para facilitar interacciones más dinámicas, OpenAI ha mejorado sus capacidades de llamada de funciones, permitiendo que el modelo utilice funciones externas preescritas al generar respuestas. Según se informa, esta iteración de API requiere un 60% menos de tokens para su procesamiento en comparación con o1-vista previay al mismo tiempo logra una tasa de precisión más alta: entre 25 y 35 puntos porcentuales más en puntos de referencia como LiveBench y AIME.
OpenAI también amplió sus capacidades relativas a interacciones en tiempo real a través de su API en tiempo real, y ahora admite WebRTC para una comunicación de audio más fluida. Esta adición tiene como objetivo simplificar la integración para los desarrolladores, reduciendo significativamente la complejidad del código de aproximadamente 250 líneas a aproximadamente una docena. Además, OpenAI ha reducido el coste de los tokens de audio o1 en un 60 % y los mini tokens en un 90 % para fomentar su uso entre los desarrolladores.
«Nuestra integración WebRTC está diseñada para permitir interacciones fluidas y receptivas en condiciones del mundo real, incluso con una calidad de red variable», escribió OpenAI en el blog. «Se encarga de la codificación de audio, la transmisión por secuencias, la supresión de ruido y el control de la congestión».
Otra actualización importante incluye un nuevo método para ajustar los modelos de IA llamado optimización de preferencias directas. Esto permite a los formadores de modelos proporcionar dos resultados y especificar una preferencia sin necesidad de proporcionar ejemplos exactos de entrada/salida para cada escenario. OpenAI afirma que este método mejora la capacidad del modelo para adaptarse a diversas peculiaridades en el estilo, el formato y la utilidad de la respuesta.
Los desarrolladores de lenguajes de programación como Go y Java ahora pueden acceder a nuevos kits de desarrollo de software (SDK) diseñados para una integración API más sencilla. A medida que avanzan estas actualizaciones, OpenAI planea ampliar el acceso y aumentar los límites de velocidad para más desarrolladores más allá de la categoría inicial de nivel 5.
Crédito de la imagen destacada: Abierto AI