Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

DeepMind Detalles AGI Safety a través del marco de seguridad de Frontier

byKerem Gülen
23 septiembre 2025
in Artificial Intelligence, Research
Home Artificial Intelligence
Share on FacebookShare on Twitter

En un trabajo de investigación de septiembre de 2025, Google Deepmind presentó su estrategia para el desarrollo seguro de la inteligencia general artificial (AGI). La investigación detalla marcos y estructuras de gobernanza diseñadas para abordar los riesgos significativos de los poderosos sistemas de IA. El papel, titulado «Un enfoque de seguridad técnica de AGI.«Se centra en el peligro de la IA» desalineada «, donde los objetivos de un sistema de IA entran en conflicto con los valores humanos y el bienestar. Tal conflicto podría causar un daño generalizado, incluso si la IA parece estar funcionando correctamente desde una perspectiva técnica.

El marco de seguridad fronteriza

Una parte clave de la estrategia de Deepmind es el marco de seguridad fronteriza. Este protocolo está diseñado para identificar y mitigar de manera proactiva los riesgos graves de los modelos AI avanzados antes de que estén completamente desarrollados o ampliamente desplegados. El marco establece protocolos claros para evaluar las capacidades del modelo en áreas de alto riesgo, como ciberseguridad, autonomía y manipulación dañina.

Gobierno interno y supervisión

DeepMind también ha establecido organismos de gobernanza interna para supervisar su desarrollo de IA. El Consejo de Responsabilidad y Seguridad trabaja con el Consejo de Seguridad AGI para supervisar la investigación y el desarrollo, asegurando que los riesgos éticos, técnicos y de seguridad se aborden sistemáticamente. La investigación de la compañía enfatiza que la transparencia y la colaboración externa son esenciales para el desarrollo responsable de AGI. El documento sirve como un llamado a la acción para que la comunidad de investigación de IA Global trabaje juntos en la gestión de los riesgos complejos asociados con sistemas de inteligencia artificiales cada vez más poderosos para evitar resultados negativos involuntarios.


Crédito de imagen destacado

Tags: AGI SEGURIDADPresentadoprofundo

Related Posts

La madre de uno de los hijos de Elon Musk demanda a xAI por deepfakes sexuales de Grok

La madre de uno de los hijos de Elon Musk demanda a xAI por deepfakes sexuales de Grok

16 enero 2026
Appfigures: El gasto en aplicaciones móviles alcanza un récord de 155.800 millones de dólares

Appfigures: El gasto en aplicaciones móviles alcanza un récord de 155.800 millones de dólares

15 enero 2026
OpenAI lanza ChatGPT Translate independiente

OpenAI lanza ChatGPT Translate independiente

15 enero 2026
El momento del lanzamiento de DeepSeek V4 y R2 permanece oculto

El momento del lanzamiento de DeepSeek V4 y R2 permanece oculto

15 enero 2026
Gemini gana Inteligencia Personal para sintetizar datos de Gmail y Fotos

Gemini gana Inteligencia Personal para sintetizar datos de Gmail y Fotos

15 enero 2026
La escasez mundial de chips de memoria hace que los precios de las PC se disparen

La escasez mundial de chips de memoria hace que los precios de las PC se disparen

14 enero 2026

Recent Posts

  • Compensación de $ 20 de Verizon: cómo reclamar su crédito por interrupción hoy
  • Trump formaliza un acuerdo de exportación de chips de IA con un impuesto del 25% sobre las ventas a China
  • Anthropic nombra a la veterana de Microsoft Irina Ghose para liderar la expansión en India
  • Bluesky lanza la insignia Live Now y las etiquetas de efectivo en una actualización importante
  • Netflix consigue un acuerdo global de 7.000 millones de dólares para la lista de películas de Sony Pictures

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.