Antrópico es implementación Nuevos procedimientos de manejo de datos, que requieren que todos los usuarios de Claude decidan antes del 28 de septiembre si sus conversaciones pueden usarse para la capacitación del modelo de IA. La compañía dirigió consultas sobre su publicación de blog sobre los cambios de política, pero los análisis externos han intentado determinar los motivos de las revisiones.
El cambio central implica que Anthrope ahora busque entrenar sus sistemas de IA utilizando conversaciones de usuarios y sesiones de codificación. Anteriormente, Anthrope no utilizó datos de chat del consumidor para la capacitación de modelos. Ahora, la retención de datos se extenderá a cinco años para los usuarios que no optan por no participar en este acuerdo de uso de datos. Esto representa un cambio significativo de las prácticas anteriores.
Anteriormente, los usuarios de los productos de consumo de Anthrope estaban informados de que sus indicaciones y las salidas de conversación resultantes se eliminarían automáticamente de los sistemas de back-end de Anthrope dentro de los 30 días. La excepción ocurrió si los requisitos legales o de póliza dictaban un período de retención más largo o si se marcaba la entrada de un usuario por violar las políticas de la empresa. En tales casos, las entradas y salidas de los usuarios podrían conservarse por hasta dos años.
Las nuevas políticas se aplican específicamente a los usuarios de Claude Free, Pro y Max, incluidos los usuarios del código Claude. Los clientes comerciales que utilizan Claude Gov, Claude for Work, Claude for Education o quienes acceden a la plataforma a través de su API, están exentos de estos cambios. Esto refleja un enfoque similar adoptado por OpenAI, que protege a los clientes empresariales de las políticas de capacitación en datos.
Anthrope enmarcó el cambio afirmando que los usuarios que no optan por no participar «nos ayudarán a mejorar la seguridad del modelo, haciendo que nuestros sistemas para detectar contenido dañino sean más precisos y menos propensos a marcar conversaciones inofensivas». La compañía agregó que estos datos «también ayudarán a los modelos de Claude futuros a mejorar en habilidades como la codificación, el análisis y el razonamiento, lo que, en última instancia, conduce a mejores modelos para todos los usuarios».
Este encuadre presenta el cambio de política como un esfuerzo de colaboración para mejorar el modelo de IA. Sin embargo, el análisis externo sugiere que la motivación subyacente es más compleja, arraigada en presiones competitivas dentro de la industria de la IA. A saber, antrópico, como otras compañías de modelos de idiomas grandes, requiere datos sustanciales para capacitar a sus modelos de IA de manera efectiva. El acceso a millones de interacciones de Claude proporcionaría el contenido del mundo real necesario para mejorar la posición de Anthrope contra competidores como OpenAI y Google.
Las revisiones de políticas también reflejan tendencias más amplias de la industria con respecto a las políticas de datos. Empresas como Anthrope y OpenAI enfrentan un escrutinio creciente con respecto a sus prácticas de retención de datos. Operai, por ejemplo, actualmente está disputando una orden judicial que obliga a la compañía a retener indefinidamente todas las conversaciones de chatgpt de consumidores, incluidos los chats eliminados. Esta orden se deriva de una demanda presentada por el New York Times y otros editores.
En junio, el COO de OpenAi Brad Lightcap describió la orden judicial como «una demanda radical e innecesaria» de que «conflicta fundamentalmente con los compromisos de privacidad que hemos hecho a nuestros usuarios». La orden judicial afecta a los usuarios de chatgpt gratis, plus, pro y del equipo. Los clientes empresariales y aquellos con cero acuerdos de retención de datos no se ven afectados.
Los cambios frecuentes en las políticas de uso han generado confusión entre los usuarios. Muchos usuarios siguen sin darse cuenta de estas políticas en evolución. El ritmo rápido de los avances tecnológicos significa que las políticas de privacidad están sujetas a cambios. Los cambios a menudo se comunican brevemente en medio de otros anuncios de la compañía.
La implementación de Anthrope de su nueva política sigue un patrón que plantea preocupaciones sobre la conciencia del usuario. Los nuevos usuarios podrán seleccionar su preferencia durante el proceso de registro. Sin embargo, los usuarios existentes se presentan con una ventana emergente etiquetada como «Actualizaciones para los términos y políticas del consumidor» en texto grande, acompañado de un botón prominente de «aceptación» negro. Un interruptor de palanca más pequeño para los permisos de entrenamiento se encuentra a continuación, en una impresión más pequeña, y se establece automáticamente en la posición «On».
El diseño plantea preocupaciones de que los usuarios puedan hacer clic rápidamente en «aceptar» sin darse cuenta de que están de acuerdo en compartir datos. Esta observación fue informada inicialmente por el borde. Las apuestas para la conciencia del usuario son significativas. Los expertos han advertido constantemente que la complejidad que rodea la IA dificulta la obtención de un consentimiento significativo de los usuarios.
La Comisión Federal de Comercio (FTC) ha intervenido previamente en estos asuntos. La FTC advirtió a las compañías de IA contra «cambiar subrepticiamente sus términos de servicio o política de privacidad, o enterrar una divulgación detrás de los hipervínculos, en la legalidad o en la letra pequeña». Esta advertencia sugiere un posible conflicto con prácticas que pueden no proporcionar una conciencia o consentimiento adecuado del usuario.
El nivel actual de supervisión de la FTC en estas prácticas sigue siendo incierto. La Comisión actualmente está operando con solo tres de sus cinco comisionados. Se ha enviado una consulta a la FTC para determinar si estas prácticas están actualmente bajo revisión.





