Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

DeepMind Detalles AGI Safety a través del marco de seguridad de Frontier

byKerem Gülen
23 septiembre 2025
in Artificial Intelligence, Research
Home Artificial Intelligence
Share on FacebookShare on Twitter

En un trabajo de investigación de septiembre de 2025, Google Deepmind presentó su estrategia para el desarrollo seguro de la inteligencia general artificial (AGI). La investigación detalla marcos y estructuras de gobernanza diseñadas para abordar los riesgos significativos de los poderosos sistemas de IA. El papel, titulado «Un enfoque de seguridad técnica de AGI.«Se centra en el peligro de la IA» desalineada «, donde los objetivos de un sistema de IA entran en conflicto con los valores humanos y el bienestar. Tal conflicto podría causar un daño generalizado, incluso si la IA parece estar funcionando correctamente desde una perspectiva técnica.

El marco de seguridad fronteriza

Una parte clave de la estrategia de Deepmind es el marco de seguridad fronteriza. Este protocolo está diseñado para identificar y mitigar de manera proactiva los riesgos graves de los modelos AI avanzados antes de que estén completamente desarrollados o ampliamente desplegados. El marco establece protocolos claros para evaluar las capacidades del modelo en áreas de alto riesgo, como ciberseguridad, autonomía y manipulación dañina.

Gobierno interno y supervisión

DeepMind también ha establecido organismos de gobernanza interna para supervisar su desarrollo de IA. El Consejo de Responsabilidad y Seguridad trabaja con el Consejo de Seguridad AGI para supervisar la investigación y el desarrollo, asegurando que los riesgos éticos, técnicos y de seguridad se aborden sistemáticamente. La investigación de la compañía enfatiza que la transparencia y la colaboración externa son esenciales para el desarrollo responsable de AGI. El documento sirve como un llamado a la acción para que la comunidad de investigación de IA Global trabaje juntos en la gestión de los riesgos complejos asociados con sistemas de inteligencia artificiales cada vez más poderosos para evitar resultados negativos involuntarios.


Crédito de imagen destacado

Tags: AGI SEGURIDADPresentadoprofundo

Related Posts

La escasez mundial de chips de memoria hace que los precios de las PC se disparen

La escasez mundial de chips de memoria hace que los precios de las PC se disparen

14 enero 2026
Amazon actualiza a la fuerza a los miembros Prime a Alexa+

Amazon actualiza a la fuerza a los miembros Prime a Alexa+

14 enero 2026
Google actualiza Veo 3.1 con generación de vídeo vertical nativa

Google actualiza Veo 3.1 con generación de vídeo vertical nativa

14 enero 2026
Los ingenieros construyen robots inspirados en saltamontes para solucionar el consumo de batería

Los ingenieros construyen robots inspirados en saltamontes para solucionar el consumo de batería

14 enero 2026
Slackbot ahora tiene capacidades de agencia gracias a Anthropic

Slackbot ahora tiene capacidades de agencia gracias a Anthropic

14 enero 2026
Cowork de Anthropic lleva agentes de IA de nivel desarrollador a no programadores

Cowork de Anthropic lleva agentes de IA de nivel desarrollador a no programadores

13 enero 2026

Recent Posts

  • La escasez mundial de chips de memoria hace que los precios de las PC se disparen
  • OpenAI adquiere Torch para mejorar ChatGPT Health
  • Amazon actualiza a la fuerza a los miembros Prime a Alexa+
  • Los niños engañan a Roblox con fotos de Kurt Cobain para evitar las prohibiciones de chat
  • El sueño del metaverso de Meta se desvanece cuando 1.000 empleados son despedidos

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.