Pavan Davuluri de Microsoft discutió el futuro de Windows en una nueva entrevista en video, afirmando que la próxima versión será «más ambiente, generalizado y multimodal» a medida que la IA redefine la interacción del usuario con las computadoras.
Pavan Davuluri, Microsoft CVP y Windows Boss, describieron recientemente una visión para el futuro del sistema operativo Windows en una entrevista de video recientemente lanzada. Davuluri detalló cómo la inteligencia artificial (IA) alterará fundamentalmente la interfaz de escritorio, lo que lleva a una experiencia informática ambiental y multimodal. Esta discusión proporcionó información sobre la dirección estratégica de Microsoft para su plataforma insignia.
Durante la entrevista, Davuluri abordó el impacto transformador de la IA en la interacción humana-computadora. Él declaró: «Creo que veremos que la informática se vuelve más ambiente, más generalizada, continúa abarcando factores de forma, y ciertamente se vuelve más multimodal en el arco del tiempo». Davuluri elaboró aún más sobre la naturaleza en evolución de los métodos de entrada, señalando: «Creo que la diversidad de la experiencia es el próximo espacio en el que continuaremos viendo que la voz se vuelva más importante. Esto indica un cambio hacia los sistemas que entienden el contexto ambiental y del usuario a través de capacidades avanzadas de IA.
Microsoft ha indicado previamente un énfasis estratégico en la voz como un método de entrada principal para futuras iteraciones de Windows. Un video «Windows 2030 Vision», lanzado una semana antes de la entrevista de Davuluri, presentó al CVP de Enterprise & Security de Microsoft que discutió conceptos similares con respecto al futuro del sistema operativo. Esta comunicación anterior se alinea con las declaraciones recientes de Davuluri, reforzando el compromiso de la compañía de integrar la voz como una modalidad de interacción central.
Se espera que la próxima versión de Windows eleve la voz a un método de entrada de primera clase, complementando las interfaces tradicionales de mouse y teclado. Según los informes, los usuarios podrán interactuar con Windows usando lenguaje natural, con el sistema operativo diseñado para comprender la intención del usuario en función del contenido que se muestra en la pantalla. Esta integración tiene como objetivo crear una experiencia de usuario más intuitiva y perfecta, permitiendo la comunicación ambiental con el sistema operativo.
Davuluri también sugirió que la apariencia visual y el paradigma de interacción de las ventanas están sujetos a cambios significativos debido a la integración de la IA agente. Observó: «Creo que cómo se ven las interfaces humanas hoy y lo que se ven en cinco años a partir de ahora es una gran área de empuje para nosotros que Windows continúa evolucionando. El sistema operativo es cada vez más agente y multimodal». Esta declaración destaca una inversión sustancial y un esfuerzo de desarrollo continuo para evolucionar el diseño central del sistema operativo y los modelos de interacción de usuario.
La infraestructura en la nube se identifica como un habilitador crítico para estas experiencias avanzadas de Windows. Davuluri explicó: «El cálculo se volverá generalizado, ya que en Windows las experiencias van a utilizar una combinación de capacidades locales y que están en la nube. Creo que es nuestra responsabilidad asegurarnos de que sean perfectas para nuestros clientes». Esto indica un modelo de computación híbrida donde las capacidades de dispositivos locales se integran perfectamente con el procesamiento basado en la nube para ofrecer una funcionalidad mejorada.
La dirección estratégica de Microsoft sugiere un cambio fundamental en cómo los asistentes de IA están integrados en los sistemas operativos. Los asistentes actuales de IA, como Copilot en Windows, Gemini en Android o Siri en macOS, generalmente funcionan como aplicaciones o superposiciones que operan en la parte superior de las plataformas del sistema operativo existentes. Microsoft parece estar preparándose para introducir un sistema operativo donde la IA está intrínsecamente entretejida en su arquitectura fundamental, en lugar de existir como una capa separada. Esta transformación se anticipa en los próximos cinco años, potencialmente coincidiendo con la versión de Windows 12. Múltiples ejecutivos de Microsoft de alto nivel aludieron a esta evolución significativa, enmarcándola como un cambio importante en la computación impulsada por los avances de IA.
Si bien el concepto de voz que se convierte en un método de entrada principal para PCS puede presentar un ajuste para algunos usuarios, se espera que la integración de la IA agente y la capacidad del sistema operativo para comprender la intención del usuario y el lenguaje natural hagan que esta interacción se sienta más intuitiva. Esta evolución se extiende más allá de Microsoft, con Apple desarrollando una característica similar centrada en la voz para iOS 26. Se rumorea que esta próxima característica para los usuarios de iPhone habilita la navegación de aplicaciones únicamente a través de comandos verbales, articulando la intención del usuario directamente al dispositivo.
En la plataforma de Windows, es probable que la entrada de voz aumente, en lugar de reemplazar, los métodos de entrada establecidos. El sistema incorporará tres modos principales de interacción: tipificación, tacto/mouse y voz. Si bien la entrada de voz puede no ser obligatoria para la finalización de la tarea, se espera que su disponibilidad agilice los flujos de trabajo del usuario. Sin embargo, la dependencia de los extensos datos de los usuarios personales para optimizar estas experiencias impulsadas por la IA plantea consideraciones de privacidad. El reconocimiento de Davuluri de un equilibrio necesario entre el cálculo local y la nube para estas experiencias sugiere que estas preocupaciones de privacidad serán un factor significativo en su implementación y recepción pública.





