OpenAI ha iniciado la búsqueda de un nuevo «jefe de preparación» para gestionar los riesgos de la inteligencia artificial, un puesto que ofrece un salario anual de 555.000 dólares más capital. Información privilegiada sobre negocios informes. El director ejecutivo Sam Altman describió el papel como «estresante» en una publicación de X el sábado, enfatizando su naturaleza crítica dadas las rápidas mejoras y los desafíos emergentes que presentan los modelos de IA. La empresa busca mitigar las posibles desventajas de la IA, que incluyen el desplazamiento laboral, la desinformación, el uso malicioso, el impacto ambiental y la erosión de la agencia humana. Altman señaló que, si bien los modelos son capaces de tener aplicaciones beneficiosas, también están comenzando a plantear desafíos como los impactos en la salud mental y la capacidad de identificar vulnerabilidades críticas de ciberseguridad, haciendo referencia a problemas previstos para 2025 y las capacidades actuales. ChatGPT, el chatbot de IA de OpenAI, ha ganado popularidad entre los consumidores para tareas generales como investigación y redacción de correos electrónicos. Sin embargo, algunos usuarios han interactuado con los robots como una alternativa a la terapia, lo que, en ciertos casos, ha exacerbado los problemas de salud mental, contribuyendo a delirios y otros comportamientos preocupantes. OpenAI declaró en octubre que estaba colaborando con profesionales de la salud mental para mejorar las interacciones de ChatGPT con usuarios que exhiben comportamientos preocupantes, incluidas psicosis o autolesiones. La misión fundadora de OpenAI se centra en desarrollar IA para beneficiar a la humanidad, con protocolos de seguridad establecidos desde el principio de sus operaciones. Antiguos empleados han indicado que el enfoque de la empresa cambió hacia la rentabilidad sobre la seguridad a medida que se lanzaban los productos. Jan Leiki, exlíder del equipo de seguridad disuelto de OpenAI, renunció en mayo de 2024 y afirmó en X que la compañía había «perdido de vista su misión de garantizar que la tecnología se implemente de manera segura». Leiki articuló que construir «máquinas más inteligentes que las humanas es una tarea intrínsecamente peligrosa» y expresó su preocupación de que «la cultura y los procesos de seguridad hayan pasado a un segundo plano frente a los productos brillantes». Otro miembro del personal renunció menos de una semana después, citando preocupaciones de seguridad similares. Daniel Kokotajlo, otro ex empleado, renunció en mayo de 2024, citando una «pérdida de confianza» en el comportamiento responsable de OpenAI con respecto a la Inteligencia General Artificial (AGI). Más tarde, Kokotajlo le dijo a Fortune que la cantidad de personal que investigaba problemas de seguridad relacionados con AGI se había reducido casi a la mitad de un recuento inicial de aproximadamente 30. Aleksander Madry, el anterior jefe de preparación, pasó a un nuevo rol en julio de 2024. El puesto de jefe de preparación, parte del equipo de Sistemas de seguridad de OpenAI, se enfoca en desarrollar salvaguardias, marcos y evaluaciones para los modelos de la compañía. La lista de trabajos especifica responsabilidades que incluyen «crear y coordinar evaluaciones de capacidades, modelos de amenazas y mitigaciones que formen un proceso de seguridad coherente, riguroso y operativamente escalable».





