LinkedIn ha optado silenciosamente por permitir que sus usuarios entrenen modelos de IA generativos sin pedirles explícitamente su consentimiento, lo que genera inquietudes sobre la privacidad de los datos en la plataforma. Según un informe de 404MediosLinkedIn modificó su política de privacidad y declaró que los datos de los usuarios pueden usarse para entrenar modelos de IA. Desde entonces, la plataforma actualizó la política y ahora permite a los usuarios optar por no participar en esta práctica.
La política actualizada de LinkedIn revela el uso de datos personales en el entrenamiento de IA
El Política actualizada LinkedIn afirma que LinkedIn puede utilizar datos personales para “mejorar, desarrollar y proporcionar productos y servicios”, así como para entrenar modelos de IA. La IA generativa se utiliza para funciones como los asistentes de escritura, pero LinkedIn afirma que emplea tecnologías que mejoran la privacidad para redactar información personal. Los usuarios que prefieran no participar pueden optar por no participar navegando a la sección “Privacidad de datos” pestaña en la configuración de su cuenta, desactivando la opción “Datos para la mejora de la IA generativa« palanca.
Sin embargo, si opta por no participar, LinkedIn solo dejará de utilizar sus datos para futuros entrenamientos de modelos. Los datos que ya se hayan utilizado no se verán afectados. Además, LinkedIn aclara que los usuarios de la UE, el EEE o Suiza no están incluidos en el entrenamiento de modelos de IA.
Si le preocupan otras herramientas de aprendizaje automático utilizadas para la personalización y moderación, LinkedIn requiere que los usuarios completen un «Formulario de objeción al procesamiento de datos».« optar por no participar en esos usos también.
La decisión de LinkedIn de permitir la inclusión silenciosa se hace eco de acciones similares de Meta, que recientemente admitió haber recopilado datos no privados de usuarios para entrenamiento de IA que se remontan a 2007.
El momento en que LinkedIn toma esta decisión llega en un momento en el que otros actores tecnológicos importantes, como IA abiertatambién se enfrentan a una reacción negativa por prácticas similares. Este patrón de inscribir silenciosamente a los usuarios en el entrenamiento de IA sin notificaciones claras y destacadas crea una sensación de inquietud.
Mira Murati, directora técnica de OpenAI, afirma que Sora se formó con datos públicos y autorizados foto.twitter.com/rf7pZ0ZX00
— Tsarathustra (@tsarnick) 13 de marzo de 2024
No se trata solo de los datos que se utilizan para la IA, sino de quién toma las decisiones y hasta qué punto están fundamentadas. La industria tecnológica lleva mucho tiempo recibiendo críticas por operar en la sombra cuando se trata de la recopilación de datos, y el creciente impulso a la IA generativa no hace más que amplificar esas preocupaciones.
¿Pueden las máquinas olvidar tus datos personales?
Otra cuestión clave es que la exclusión voluntaria solo afecta al uso futuro de los datos personales. Todos los datos que ya se han introducido en los modelos de IA permanecen en el sistema, y esa falta de control retroactivo puede hacer que muchos usuarios se sientan impotentes. La industria también habla de “desaprendizaje automático«Para evitar que esto suceda, se eliminan los datos introducidos en los modelos de IA.
El hecho de que LinkedIn utilice “tecnologías que mejoran la privacidad” para anonimizar los datos es algo tranquilizador, pero no aborda el problema más profundo: la necesidad de estándares de privacidad más proactivos y centrados en el usuario.
En definitiva, esta situación pone de relieve la necesidad de una normativa más estricta y clara que devuelva el control a los usuarios. La idea de que las empresas tecnológicas puedan utilizar nuestros datos personales sin un consentimiento claro no encaja bien en una época en la que la privacidad cobra cada vez más valor.
Crédito de la imagen destacada: Kerem Gülen/Ideograma