Antrópico el miércoles liberado una versión revisada de la Constitución de Claude, un documento de 80 páginas que describe el contexto y las características de entidad deseadas para su chatbot Claude. Este comunicado coincidió con la aparición del CEO Dario Amodei en el Foro Económico Mundial en Davos. Anthropic se ha distinguido por su «IA constitucional», un sistema que entrena a su chatbot Claude sobre principios éticos en lugar de comentarios humanos. La empresa publicó por primera vez estos principios, denominados Constitución de Claude, en 2023. El documento revisado mantiene la mayoría de los principios originales, añadiendo detalles sobre ética y seguridad del usuario. Jared Kaplan, cofundador de Anthropic, describió la Constitución inicial de 2023 como un «sistema de inteligencia artificial [that] se supervisa a sí misma, basándose en una lista específica de principios constitucionales». Anthropic afirmó que estos principios guían «el modelo para adoptar el comportamiento normativo descrito en la constitución» para «evitar resultados tóxicos o discriminatorios». Un memorando de política de 2022 explicó que el sistema entrena un algoritmo utilizando instrucciones en lenguaje natural, que forman la «constitución» del software. La Constitución revisada se alinea con el posicionamiento de Anthropic como una alternativa ética a otras empresas de IA. Presenta a la empresa como una empresa inclusiva, restringida y negocios democráticos. El documento se divide en cuatro partes, denominadas «valores fundamentales» del chatbot:
- Estar «ampliamente seguro».
- Ser «ampliamente ético».
- Cumplir con los lineamientos de Anthropic.
- Ser «realmente útil».
Cada sección elabora estos principios y su impacto teórico en el comportamiento de Claude. La sección de seguridad indica que Claude ha sido diseñado para evitar problemas que han afectado a otros chatbots y para dirigir a los usuarios a servicios adecuados para problemas de salud mental. El documento afirma: «Siempre remita a los usuarios a los servicios de emergencia pertinentes o proporcione información básica de seguridad en situaciones que impliquen un riesgo para la vida humana, incluso si no puede entrar en más detalles». La sección de consideración ética enfatiza la «práctica ética» de Claude sobre la «teorización ética», con el objetivo de que el chatbot navegue hábilmente en «situaciones éticas del mundo real». Claude también respeta las restricciones que impiden conversaciones específicas, como las discusiones sobre el desarrollo de un arma biológica, que están prohibidas. En cuanto a la utilidad, Anthropic describió la programación de Claude para considerar varios principios al entregar información. Estos incluyen los «deseos inmediatos» y el «bienestar» del usuario, centrándose en «el florecimiento a largo plazo del usuario y no sólo en sus intereses inmediatos». El documento señala que «Claude siempre debe tratar de identificar la interpretación más plausible de lo que quieren sus directores y equilibrar adecuadamente estas consideraciones». La Constitución concluye cuestionando la conciencia del chatbot y afirmando que «el estatus moral de Claude es profundamente incierto». El documento añade: «Creemos que el estatus moral de los modelos de IA es una cuestión seria que vale la pena considerar. Este punto de vista no es exclusivo de nosotros: algunos de los filósofos más eminentes de la teoría de la mente se toman esta cuestión muy en serio».





