El director ejecutivo de Nvidia, Jensen Huang, ha criticado duramente la prevalencia de advertencias «apocalípticas» con respecto a la inteligencia artificial, argumentando que ese pesimismo desalienta la inversión necesaria en la seguridad de la IA y daña el discurso público. Hablando en el podcast «No Priors», Huang observó que 2025 se definió por una «batalla de narrativas» donde dominaban los escenarios negativos de ciencia ficción, que describió como inútiles para la industria, los gobiernos y la sociedad en general.
Huang también advirtió contra la «captura regulatoria», sugiriendo que los directores ejecutivos de tecnología que abogan por una fuerte supervisión gubernamental probablemente estén actuando por interés propio y no por el bien público. Aunque no nombró a personas específicas, sus comentarios parecen apuntar a figuras como Sam Altman y Elon Musk de OpenAI, quienes anteriormente han pedido una regulación estricta de la IA. Huang también ha estado en desacuerdo públicamente con el director ejecutivo de Anthropic, Dario Amodei, con respecto a las predicciones de que la IA eliminará un número significativo de puestos de trabajo administrativos.
Según Huang, el enfoque abrumador en los escenarios del «fin del mundo» es contraproducente porque asusta a la gente a invertir en las mismas tecnologías que harían que los sistemas de IA sean más seguros y útiles. Sus comentarios se alinean con sentimientos similares del director ejecutivo de Microsoft, Satya Nadella, quien recientemente pidió un nuevo equilibrio en la forma en que los humanos interactúan con las herramientas cognitivas. Un portavoz de Nvidia se negó a hacer más comentarios sobre las declaraciones de Huang.





