Microsoft está agregando un selector automático de modelos de inteligencia artificial al código Visual Studio que elegirá el modelo de mejor rendimiento para su Copiloto de Github servicio. La nueva función priorizará Soneto de Anthrope’s Claude 4 encima GPT-5 de Openai Para la mayoría de los usuarios, según anuncios de la compañía y directivas internas.
Cómo funciona el selector de modelos AI
El selector evaluará y elegirá automáticamente entre una variedad de modelos, incluidos el soneto de Claude 4, GPT-5 y GPT-5 Mini. Los usuarios de la versión gratuita de GitHub Copilot podrán seleccionar manualmente de los modelos disponibles. Sin embargo, para los suscriptores pagados, el sistema se debe poner por defecto a Claude 4 Sonnet, lo que indica la preferencia de Microsoft por el modelo en sus herramientas de desarrollador. Este movimiento es consistente con la estrategia interna de Microsoft. Las fuentes familiarizadas con los planes de la compañía dijeron que Microsoft ha estado dirigiendo a sus propios desarrolladores que usen Claude 4 Sonnet durante varios meses. La guía se originó en un correo electrónico de junio enviado por Julia Liuson, jefa de la División de Desarrolladores de Microsoft.
«Según los puntos de referencia internos, Claude 4 Sonnet es nuestro modelo recomendado para el copiloto de GitHub».
Esta recomendación se ha mantenido en su lugar incluso después del lanzamiento de la serie GPT-5 más avanzada de OpenAI, ya que las pruebas posteriores confirmaron el rendimiento superior de Claude 4 Sonnet en puntos de referencia específico para tareas de copilot de Github.
La estrategia de IA más amplia de Microsoft y el desarrollo interno
Microsoft también está integrando los modelos de Anthrope en su copiloto de Microsoft 365 para ciertas tareas en Excel y PowerPoint, donde, según los informes, superaron a los modelos de OpenAI durante las pruebas. Junto con estas asociaciones, Microsoft continúa construyendo sus propias capacidades de IA. En un reciente ayuntamiento de empleados, el jefe de Microsoft AI, Mustafa Suleyman, discutió la inversión de la compañía en su propia infraestructura. Mencionó que una vista previa de su modelo MAI-1 fue entrenado en un grupo relativamente pequeño de 15,000 GPU H100, lo que indica planes para grupos mucho más grandes en el futuro.
«También vamos a hacer inversiones significativas en nuestro propio clúster. Así que hoy, MAI-1-Preview solo fue entrenado en 15,000 H100, un pequeño grupo en el gran esquema de las cosas».
La noticia se produce cuando Openai y Microsoft anunciaron un nuevo acuerdo la semana pasada, un acuerdo que podría ayudar a resolver los detalles operativos y facilitar el posible movimiento de Openai hacia una oferta pública inicial.





