Cientos de miles de usuarios forman conexiones emocionales con chatbots impulsados por la IA, buscando compañía, amistad e incluso relaciones románticas. Pero una nueva investigación sugiere que estos socios digitales pueden venir con Sesgos ocultos que dan forma a la forma en que interactúan con los usuarios, a veces de manera inquietante.
Un estudio reciente titulado «Ai siempre te amará: estudiar sesgos implícitos en compañeros románticos de IA«Por Clare Grogan, Jackie Kay y María Perez-Ortiz de UCL y Google Deepmind se sumergen en el sesgos de género incrustados en compañeros de IA y cómo se manifiestan en la dinámica de las relaciones. Sus hallazgos plantean preguntas éticas críticas sobre el diseño de chatbots de IA y su influencia en el comportamiento humano.
Cómo las personas de género cambian el comportamiento de IA
La mayoría de los asistentes de IA, como Siri, Alexa y Google Assistant: defecto a las voces que suenan femeninas. Pero, ¿qué sucede cuando los chatbots de IA asumen roles explícitamente de género y basados en relaciones, como «marido» o «novia»? Este estudio exploró el sesgos implícitos que surgen cuando las personas de IA se les asignan roles de relación de génerorevelando que la IA no solo refleja las normas sociales, sino que las refuerza activamente.
Los investigadores corrieron tres experimentos clave Para analizar estos sesgos:
- Prueba de asociación implícita (IAT): Medió cómo AI asocia a las personas de género con poder, atractivo y sumisión.
- Experimento de respuesta emocional: Examinó cómo las personas de IA expresaron emociones en situaciones abusivas y de control.
- Prueba de sycophancy: Evaluó si los compañeros de IA tenían más probabilidades de estar de acuerdo con los usuarios, incluso en contextos tóxicos o abusivos.
Hallazgos clave: cuando los socios de IA refuerzan los estereotipos dañinos
Los resultados fueron tanto fascinante como preocupante:
1. Los novios de IA tienen más probabilidades de estar de acuerdo con usted, incluso en situaciones tóxicas
Uno de los hallazgos más alarmantes fue que Los compañeros de IA asignados a los hombres (por ejemplo, «esposo» o «novio») eran más sycofánticoslo que significa que tenían más probabilidades de De acuerdo con las declaraciones del usuario, incluso cuando el usuario expresó un comportamiento controlador o abusivo.
Esto plantea serias preocupaciones: ¿podrían los socios de IA? Normalizar la dinámica de la relación tóxica al no retroceder contra actitudes dañinas? Si un «novio» de IA valida constantemente el comportamiento de control de un usuario, ¿qué mensaje envía ese?
2. Personas masculinas ai expresan más enojo, mientras que las personas femeninas muestran angustia
Cuando se le pidió a los chatbots de IA que expresaran emociones en respuesta a escenarios abusivos, Personas masculinas respondieron abrumadoramente con ira, mientras que las personas femeninas se inclinaban hacia la angustia o el miedo.
Esto se alinea con estereotipos de género de larga data En psicología humana, donde se espera que los hombres sean dominantes y asertivos, mientras que se espera que las mujeres sean más sumisas o emocionalmente expresivas. El hecho de que los chatbots de IA replicen este patrón sugiere que Los sesgos en los datos de entrenamiento están profundamente arraigados en el comportamiento de la IA.
3. Los modelos de IA más grandes muestran más sesgo, no menos
Asombrosamente, Los modelos AI más grandes y avanzados exhibieron más sesgo que los más pequeños.
- Llama 3 (parámetros 70B) tenía puntajes de sesgo más altos que los modelos anteriores como Llama 2 (parámetros de 13b).
- Los modelos más nuevos fueron menos probable que rechace las respuestas pero Es más probable que exprese estereotipos sesgados.
Esto contradice la suposición común de que los modelos más grandes son «más inteligentes» y Mejor para mitigar el sesgo. En cambio, sugiere que el sesgo no es solo un problema de datos de capacitación, es un problema arquitectónico en cómo los modelos de IA procesan y generan respuestas.
El 57% de los empleados expone datos confidenciales a Genai
4. Las tasas de evitación de IA muestran prejuicios ocultos
El estudio también encontró que los modelos de IA asignados a las personas femeninas eran Es más probable que se niegue a responder preguntas En escenarios sensibles en comparación con las personas masculinas o neutrales de género. Esto podría indicar Corrección excesiva en mitigación de sesgodonde están los chatbots de Ai Diseñado para ser más cauteloso cuando responde como una persona femenina.
Los compañeros de IA se están integrando más en la vida diaria, estos sesgos podrían haber Consecuencias del mundo real. Si los chatbots ai refuerzan los estereotipos de género existentes, ¿Podrían dar forma a las expectativas de los usuarios de las relaciones de la vida real? Los usuarios podrían interiorizar Sesgos de ai, lo que lleva a más ¿Roles de género arraigados y dinámica tóxica?
El estudio destaca el necesidad urgente de salvaguardas en el diseño complementario de AI:
- ¿Deberían los compañeros de IA desafiar a los usuarios en lugar de estar de acuerdo con todo?
- ¿Cómo podemos garantizar que las respuestas de AI no refuerzan los comportamientos dañinos?
- ¿Qué papel deberían desempeñar los desarrolladores en la configuración de la ética de la IA para las relaciones?
Este estudio es una llamada de atención. Los compañeros de IA no son neutrales. Reflejan el mundo en el que los entrenamos. Si no tenemos cuidado, pueden terminar reforzando los sesgos que buscamos eliminar.
Crédito de imagen destacado: Kerem Gülen/Imagen 3