Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Los usuarios de Claude deben optar por no participar en la capacitación de datos antes del plazo del 28 de septiembre

byEmre Çıtak
29 agosto 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

Antrópico es implementación Nuevos procedimientos de manejo de datos, que requieren que todos los usuarios de Claude decidan antes del 28 de septiembre si sus conversaciones pueden usarse para la capacitación del modelo de IA. La compañía dirigió consultas sobre su publicación de blog sobre los cambios de política, pero los análisis externos han intentado determinar los motivos de las revisiones.

El cambio central implica que Anthrope ahora busque entrenar sus sistemas de IA utilizando conversaciones de usuarios y sesiones de codificación. Anteriormente, Anthrope no utilizó datos de chat del consumidor para la capacitación de modelos. Ahora, la retención de datos se extenderá a cinco años para los usuarios que no optan por no participar en este acuerdo de uso de datos. Esto representa un cambio significativo de las prácticas anteriores.

Anteriormente, los usuarios de los productos de consumo de Anthrope estaban informados de que sus indicaciones y las salidas de conversación resultantes se eliminarían automáticamente de los sistemas de back-end de Anthrope dentro de los 30 días. La excepción ocurrió si los requisitos legales o de póliza dictaban un período de retención más largo o si se marcaba la entrada de un usuario por violar las políticas de la empresa. En tales casos, las entradas y salidas de los usuarios podrían conservarse por hasta dos años.

Las nuevas políticas se aplican específicamente a los usuarios de Claude Free, Pro y Max, incluidos los usuarios del código Claude. Los clientes comerciales que utilizan Claude Gov, Claude for Work, Claude for Education o quienes acceden a la plataforma a través de su API, están exentos de estos cambios. Esto refleja un enfoque similar adoptado por OpenAI, que protege a los clientes empresariales de las políticas de capacitación en datos.

Anthrope enmarcó el cambio afirmando que los usuarios que no optan por no participar «nos ayudarán a mejorar la seguridad del modelo, haciendo que nuestros sistemas para detectar contenido dañino sean más precisos y menos propensos a marcar conversaciones inofensivas». La compañía agregó que estos datos «también ayudarán a los modelos de Claude futuros a mejorar en habilidades como la codificación, el análisis y el razonamiento, lo que, en última instancia, conduce a mejores modelos para todos los usuarios».

Este encuadre presenta el cambio de política como un esfuerzo de colaboración para mejorar el modelo de IA. Sin embargo, el análisis externo sugiere que la motivación subyacente es más compleja, arraigada en presiones competitivas dentro de la industria de la IA. A saber, antrópico, como otras compañías de modelos de idiomas grandes, requiere datos sustanciales para capacitar a sus modelos de IA de manera efectiva. El acceso a millones de interacciones de Claude proporcionaría el contenido del mundo real necesario para mejorar la posición de Anthrope contra competidores como OpenAI y Google.

Las revisiones de políticas también reflejan tendencias más amplias de la industria con respecto a las políticas de datos. Empresas como Anthrope y OpenAI enfrentan un escrutinio creciente con respecto a sus prácticas de retención de datos. Operai, por ejemplo, actualmente está disputando una orden judicial que obliga a la compañía a retener indefinidamente todas las conversaciones de chatgpt de consumidores, incluidos los chats eliminados. Esta orden se deriva de una demanda presentada por el New York Times y otros editores.

En junio, el COO de OpenAi Brad Lightcap describió la orden judicial como «una demanda radical e innecesaria» de que «conflicta fundamentalmente con los compromisos de privacidad que hemos hecho a nuestros usuarios». La orden judicial afecta a los usuarios de chatgpt gratis, plus, pro y del equipo. Los clientes empresariales y aquellos con cero acuerdos de retención de datos no se ven afectados.

Los cambios frecuentes en las políticas de uso han generado confusión entre los usuarios. Muchos usuarios siguen sin darse cuenta de estas políticas en evolución. El ritmo rápido de los avances tecnológicos significa que las políticas de privacidad están sujetas a cambios. Los cambios a menudo se comunican brevemente en medio de otros anuncios de la compañía.

La implementación de Anthrope de su nueva política sigue un patrón que plantea preocupaciones sobre la conciencia del usuario. Los nuevos usuarios podrán seleccionar su preferencia durante el proceso de registro. Sin embargo, los usuarios existentes se presentan con una ventana emergente etiquetada como «Actualizaciones para los términos y políticas del consumidor» en texto grande, acompañado de un botón prominente de «aceptación» negro. Un interruptor de palanca más pequeño para los permisos de entrenamiento se encuentra a continuación, en una impresión más pequeña, y se establece automáticamente en la posición «On».

El diseño plantea preocupaciones de que los usuarios puedan hacer clic rápidamente en «aceptar» sin darse cuenta de que están de acuerdo en compartir datos. Esta observación fue informada inicialmente por el borde. Las apuestas para la conciencia del usuario son significativas. Los expertos han advertido constantemente que la complejidad que rodea la IA dificulta la obtención de un consentimiento significativo de los usuarios.

La Comisión Federal de Comercio (FTC) ha intervenido previamente en estos asuntos. La FTC advirtió a las compañías de IA contra «cambiar subrepticiamente sus términos de servicio o política de privacidad, o enterrar una divulgación detrás de los hipervínculos, en la legalidad o en la letra pequeña». Esta advertencia sugiere un posible conflicto con prácticas que pueden no proporcionar una conciencia o consentimiento adecuado del usuario.

El nivel actual de supervisión de la FTC en estas prácticas sigue siendo incierto. La Comisión actualmente está operando con solo tres de sus cinco comisionados. Se ha enviado una consulta a la FTC para determinar si estas prácticas están actualmente bajo revisión.


Crédito de imagen destacado

Tags: AntrópicoPresentadotirar

Related Posts

Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo

Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo

26 diciembre 2025
Bethesda apunta a 600 horas de juego para Fallout 5

Bethesda apunta a 600 horas de juego para Fallout 5

26 diciembre 2025
ASUS defiende el puerto de alimentación HyperX RTX 5090 desalineado como "diseño intencional"

ASUS defiende el puerto de alimentación HyperX RTX 5090 desalineado como "diseño intencional"

26 diciembre 2025
CUDA Tile IR de código abierto de NVIDIA en GitHub

CUDA Tile IR de código abierto de NVIDIA en GitHub

26 diciembre 2025
El CEO de MicroStrategy dice los fundamentos de Bitcoin "no podría ser mejor"

El CEO de MicroStrategy dice los fundamentos de Bitcoin "no podría ser mejor"

26 diciembre 2025
ChatGPT evoluciona hacia una suite ofimática con nuevos bloques de formato

ChatGPT evoluciona hacia una suite ofimática con nuevos bloques de formato

26 diciembre 2025

Recent Posts

  • Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo
  • Bethesda apunta a 600 horas de juego para Fallout 5
  • ASUS defiende el puerto de alimentación HyperX RTX 5090 desalineado como "diseño intencional"
  • CUDA Tile IR de código abierto de NVIDIA en GitHub
  • El CEO de MicroStrategy dice los fundamentos de Bitcoin "no podría ser mejor"

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.