Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Anthropic revisa la Constitución de Claude con nuevos principios éticos de seguridad

byEmre Çıtak
22 enero 2026
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Antrópico el miércoles liberado una versión revisada de la Constitución de Claude, un documento de 80 páginas que describe el contexto y las características de entidad deseadas para su chatbot Claude. Este comunicado coincidió con la aparición del CEO Dario Amodei en el Foro Económico Mundial en Davos. Anthropic se ha distinguido por su «IA constitucional», un sistema que entrena a su chatbot Claude sobre principios éticos en lugar de comentarios humanos. La empresa publicó por primera vez estos principios, denominados Constitución de Claude, en 2023. El documento revisado mantiene la mayoría de los principios originales, añadiendo detalles sobre ética y seguridad del usuario. Jared Kaplan, cofundador de Anthropic, describió la Constitución inicial de 2023 como un «sistema de inteligencia artificial [that] se supervisa a sí misma, basándose en una lista específica de principios constitucionales». Anthropic afirmó que estos principios guían «el modelo para adoptar el comportamiento normativo descrito en la constitución» para «evitar resultados tóxicos o discriminatorios». Un memorando de política de 2022 explicó que el sistema entrena un algoritmo utilizando instrucciones en lenguaje natural, que forman la «constitución» del software. La Constitución revisada se alinea con el posicionamiento de Anthropic como una alternativa ética a otras empresas de IA. Presenta a la empresa como una empresa inclusiva, restringida y negocios democráticos. El documento se divide en cuatro partes, denominadas «valores fundamentales» del chatbot:

  • Estar «ampliamente seguro».
  • Ser «ampliamente ético».
  • Cumplir con los lineamientos de Anthropic.
  • Ser «realmente útil».

Cada sección elabora estos principios y su impacto teórico en el comportamiento de Claude. La sección de seguridad indica que Claude ha sido diseñado para evitar problemas que han afectado a otros chatbots y para dirigir a los usuarios a servicios adecuados para problemas de salud mental. El documento afirma: «Siempre remita a los usuarios a los servicios de emergencia pertinentes o proporcione información básica de seguridad en situaciones que impliquen un riesgo para la vida humana, incluso si no puede entrar en más detalles». La sección de consideración ética enfatiza la «práctica ética» de Claude sobre la «teorización ética», con el objetivo de que el chatbot navegue hábilmente en «situaciones éticas del mundo real». Claude también respeta las restricciones que impiden conversaciones específicas, como las discusiones sobre el desarrollo de un arma biológica, que están prohibidas. En cuanto a la utilidad, Anthropic describió la programación de Claude para considerar varios principios al entregar información. Estos incluyen los «deseos inmediatos» y el «bienestar» del usuario, centrándose en «el florecimiento a largo plazo del usuario y no sólo en sus intereses inmediatos». El documento señala que «Claude siempre debe tratar de identificar la interpretación más plausible de lo que quieren sus directores y equilibrar adecuadamente estas consideraciones». La Constitución concluye cuestionando la conciencia del chatbot y afirmando que «el estatus moral de Claude es profundamente incierto». El documento añade: «Creemos que el estatus moral de los modelos de IA es una cuestión seria que vale la pena considerar. Este punto de vista no es exclusivo de nosotros: algunos de los filósofos más eminentes de la teoría de la mente se toman esta cuestión muy en serio».


Crédito de imagen destacada

Tags: AntrópicoPresentado

Related Posts

Substack llega a la sala de estar con el lanzamiento de la aplicación beta TV

Substack llega a la sala de estar con el lanzamiento de la aplicación beta TV

23 enero 2026
JBL lanza amplificadores BandBox impulsados ​​por IA

JBL lanza amplificadores BandBox impulsados ​​por IA

23 enero 2026
Google lanza la opción de suscripción "Inteligencia personal" para usuarios de AI Pro y Ultra

Google lanza la opción de suscripción "Inteligencia personal" para usuarios de AI Pro y Ultra

23 enero 2026
Spotify lanza listas de reproducción solicitadas impulsadas por IA

Spotify lanza listas de reproducción solicitadas impulsadas por IA

22 enero 2026
Snap implementa seguimiento granular del tiempo de pantalla en la actualización del Family Center

Snap implementa seguimiento granular del tiempo de pantalla en la actualización del Family Center

22 enero 2026
Google Photos rediseña el uso compartido con un carrusel inmersivo de pantalla completa

Google Photos rediseña el uso compartido con un carrusel inmersivo de pantalla completa

22 enero 2026

Recent Posts

  • AWS y Prime Video se ven afectados mientras Amazon prepara una nueva ola de despidos
  • Barret Zoph liderará el agresivo giro comercial de OpenAI
  • Substack llega a la sala de estar con el lanzamiento de la aplicación beta TV
  • LiveKit obtiene una valoración de mil millones de dólares como motor detrás del modo de voz de ChatGPT
  • Vimeo comienza a despidos de personal tras la adquisición de Bending Spoons

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.