ChatGPT ha vuelto a estar en problemas en la Unión Europea (UE) debido a su tendencia a arrojar imprecisiones. Esta vez, el problema se centra en los derechos de privacidad, con una denuncia presentada contra la IA por su incapacidad para corregir la información errónea que genera sobre los individuos.
El lanzamiento de ChatGPT en noviembre de 2022 desató una tormenta de entusiasmo en el mundo de la IA. La gente acudía en masa al chatbot para todo, desde ayuda en la investigación hasta conversaciones informales. Sin embargo, un detalle crucial se esconde debajo de la superficie: OpenAI, los desarrolladores detrás de ChatGPT, admite libremente que el programa simplemente predice las palabras más probables que seguirán una indicación. Esto significa que, a pesar de la gran cantidad de datos de capacitación, no hay garantía de que ChatGPT proporcione información objetiva. De hecho, las herramientas de inteligencia artificial generativa como ChatGPT son famosas por “alucinar”, es decir, fabricar respuestas.
Si bien la información inexacta puede ser tolerable cuando un estudiante usa ChatGPT para la tarea ayuda, se convierte en un problema grave cuando se trata de datos personales. La legislación de la UE, establecida en 1995 y reforzada por Artículo 5 del RGPD (Reglamento General de Protección de Datos), exige que los datos personales deben ser exactos. Además, los individuos tienen derecho a la rectificación (Artículo 16 RGPD) si la información es incorrecta, y puede solicitar su eliminación. Además, el “derecho de acceso” bajo Artículo 15 RGPD obliga a las empresas a revelar los datos que poseen sobre las personas y sus fuentes.
Maartje de Graaf, abogado especializado en protección de datos de noyb, subraya la gravedad de la situación: “La fabricación de información es problemática en sí misma. Pero cuando se trata de datos personales, las consecuencias pueden ser graves. Está claro que la tecnología actual de chatbot, como ChatGPT, tiene dificultades para cumplir con la legislación de la UE al procesar información personal. Si un sistema no puede ofrecer resultados precisos y transparentes, no debería utilizarse para generar datos sobre individuos. La ley dicta el desarrollo de la tecnología y no al revés”.
noyb investiga la alucinación de ChatGPT
Esta última queja proviene de noyb, una organización europea sin fines de lucro centrada en los derechos de privacidad. Representan a una figura pública anónima que descubrió que ChatGPT les proporcionó una fecha de nacimiento incorrecta. Esto pone de relieve un posible choque entre estas herramientas de IA generativa y el Reglamento General de Protección de Datos (GDPR) de la UE.
El RGPD otorga a los ciudadanos de la UE un «derecho de rectificación», que les permite solicitar correcciones de información personal inexacta en poder de las organizaciones. En el contexto del contenido generado por IA, esto plantea una pregunta crucial: ¿se puede responsabilizar a un modelo de lenguaje grande como ChatGPT por la información que produce, especialmente cuando esa información es demostrablemente incorrecta?
@NOYBeu on X ha compartido la siguiente publicación en X sobre la situación:
noyb ha presentado una denuncia contra el creador de ChatGPT, OpenAI
OpenAI admite abiertamente que no puede corregir información falsa sobre personas en ChatGPT. La empresa ni siquiera puede decir de dónde proceden los datos.
Lee todo sobre esto aquí https://t.co/gvn9CnGKOb
—noyb (@NOYBeu) 29 de abril de 2024
¿Es la alucinación de ChatGPT un patrón de desinformación?
Esta no es la primera vez que ChatGPT “problema de alucinaciones“Ha causado preocupación. La tendencia de la IA a fabricar información ha sido bien documentada, lo que plantea dudas sobre su confiabilidad como fuente de verdad.
Aquí hay un flashback de 2023: la autoridad italiana de protección de datos forzó el cierre temporal de ChatGPT después de que surgieran preocupaciones sobre la exactitud de la información que proporcionaba.
Estos incidentes resaltan los desafíos inherentes de trabajar con modelos de lenguaje grandes. Estos sistemas de IA, entrenados con conjuntos de datos masivos de texto y código, pueden tener dificultades para distinguir entre información fáctica y ficción. Esto puede llevar a situaciones en las que generan con confianza contenido incorrecto o engañoso, presentado como verdad.
Medios de comunicación vs OpenAI: las guerras de derechos de autor de la IA han comenzado
La cuestión se vuelve aún más compleja cuando se trata de información personal. Si un usuario interactúa con ChatGPT y la IA produce detalles inexactos sobre ese usuario, puede ser difícil, si no imposible, garantizar que esos errores se corrijan. Esto es preocupante, especialmente para las figuras públicas que pueden depender de la información en línea para mantener su reputación.
Simplemente inventar datos no es una opción
Este problema está profundamente arraigado en la estructura de la IA generativa. Según un reciente Informe del New York Timeslos chatbots “inventan información al menos el 3% de las veces, y hasta el 27%”.
Para ilustrar, considere la figura pública involucrada en la denuncia de noyb contra OpenAI, como se explica en un entrada en el blog. Cuando se le preguntó sobre su cumpleaños, ChatGPT proporcionó constantemente información incorrecta en lugar de reconocer la falta de datos.
¿No existen derechos GDPR para las personas capturadas por ChatGPT?
A pesar de la fecha de nacimiento claramente errónea generada por ChatGPT, OpenAI rechazó la solicitud del denunciante de rectificar o borrar los datos, alegando que era técnicamente imposible. Si bien OpenAI puede filtrar o bloquear datos según indicaciones específicas (como el nombre del denunciante), este enfoque evita que ChatGPT filtre toda la información sobre el individuo. OpenAI tampoco respondió adecuadamente a la solicitud de acceso del denunciante. El RGPD otorga a los usuarios el derecho a solicitar una copia de todos sus datos personales, pero OpenAI no reveló ninguna información sobre los datos procesados, sus fuentes o destinatarios.
Maartje de Graaf reitera: “La obligación de cumplir con las solicitudes de acceso se aplica a todas las empresas. Ciertamente es posible mantener registros de los datos de entrenamiento, ofreciendo al menos alguna idea de las fuentes de información. Parece que con cada supuesta ‘innovación’, las empresas creen que sus productos están exentos de cumplimiento legal”.
Hasta el momento, los esfuerzos infructuosos de las autoridades
El auge de ChatGPT ha llamado la atención de los organismos europeos de vigilancia de la privacidad. La Autoridad Italiana de Protección de Datos (DPA) abordó la inexactitud del chatbot en marzo de 2023 imponiendo una restricción temporal del procesamiento de datos. Poco después, el Consejo Europeo de Protección de Datos (EDPB) estableció un grupo de trabajo específicamente para ChatGPT para coordinar los esfuerzos nacionales.
Sin embargo, el resultado final sigue sin estar claro. Actualmente, OpenAI parece no preocuparse por el cumplimiento del RGPD dentro de la UE.
Un hito potencial
La denuncia de Noyb contra ChatGPT pone de relieve la evolución de la relación entre la IA y las regulaciones de privacidad de datos. El RGPD, implementado en 2018, es anterior al uso generalizado de modelos de lenguaje grandes. A medida que la IA continúa desarrollándose, los reguladores están lidiando con cómo aplicar los marcos existentes a estas nuevas tecnologías.
El resultado de la denuncia de Noyb podría sentar un precedente sobre cómo la UE aborda las implicaciones de privacidad de las herramientas de IA generativa. Si la Autoridad Austriaca de Protección de Datos falla a favor del denunciante, podría obligar a OpenAI a implementar cambios para garantizar que los usuarios tengan un mayor control sobre la información que ChatGPT genera sobre ellos.
Este caso tiene implicaciones más amplias para el desarrollo de la IA en general. A medida que los sistemas de IA se vuelvan más sofisticados y se integren en nuestra vida diaria, será crucial garantizar un desarrollo y una implementación responsables. La queja de Noyb sirve como recordatorio de la importancia de crear herramientas de inteligencia artificial que prioricen la precisión y respeten la privacidad del usuario.
Crédito de imagen destacada: Levart_Fotógrafo/desempaquetar