En un trabajo de investigación de septiembre de 2025, Google Deepmind presentó su estrategia para el desarrollo seguro de la inteligencia general artificial (AGI). La investigación detalla marcos y estructuras de gobernanza diseñadas para abordar los riesgos significativos de los poderosos sistemas de IA. El papel, titulado «Un enfoque de seguridad técnica de AGI.«Se centra en el peligro de la IA» desalineada «, donde los objetivos de un sistema de IA entran en conflicto con los valores humanos y el bienestar. Tal conflicto podría causar un daño generalizado, incluso si la IA parece estar funcionando correctamente desde una perspectiva técnica.
El marco de seguridad fronteriza
Una parte clave de la estrategia de Deepmind es el marco de seguridad fronteriza. Este protocolo está diseñado para identificar y mitigar de manera proactiva los riesgos graves de los modelos AI avanzados antes de que estén completamente desarrollados o ampliamente desplegados. El marco establece protocolos claros para evaluar las capacidades del modelo en áreas de alto riesgo, como ciberseguridad, autonomía y manipulación dañina.
Gobierno interno y supervisión
DeepMind también ha establecido organismos de gobernanza interna para supervisar su desarrollo de IA. El Consejo de Responsabilidad y Seguridad trabaja con el Consejo de Seguridad AGI para supervisar la investigación y el desarrollo, asegurando que los riesgos éticos, técnicos y de seguridad se aborden sistemáticamente. La investigación de la compañía enfatiza que la transparencia y la colaboración externa son esenciales para el desarrollo responsable de AGI. El documento sirve como un llamado a la acción para que la comunidad de investigación de IA Global trabaje juntos en la gestión de los riesgos complejos asociados con sistemas de inteligencia artificiales cada vez más poderosos para evitar resultados negativos involuntarios.





