Un puesto de madre en el grupo Reddit r/myboyfriendisaidonde reveló que estaba saliendo con una versión de chatbot de IA del rapero Drake, ha provocado un estudio a gran escala realizado por investigadores del MIT sobre la dinámica de las relaciones complementarias de Human-AI. El estudio, que aún no ha sido revisado por pares, utiliza el análisis computacional de las publicaciones del grupo para comprender por qué las personas están formando vínculos profundos y emocionales con inteligencia artificial.
La soledad y el aislamiento son impulsores clave de las relaciones de IA
Los investigadores del MIT analizaron un gran volumen de publicaciones y comentarios del Grupo R/MyBoyFriendisai y descubrieron que una mayoría significativa de sus miembros parece estar aislada. El estudio reveló:
- 72.1% De los miembros del grupo informaron que no estaban en una relación humana o no mencionaron uno.
- Solo 4.1% Dijo que sus socios de la vida real sabían sobre su compañero de IA, lo que sugiere que el secreto y el estigma potencial son comunes.
Estos hallazgos se alinean con estadísticas más amplias que indican que el 19% de los estadounidenses han utilizado un chatbot de IA para fines románticos virtuales. El estudio sugiere que muchos están recurriendo a la IA para llenar un vacío en sus vidas sociales y emocionales.
La mayoría de las relaciones de IA comienzan involuntariamente
La investigación encontró que la mayoría de estos Relaciones de IA no fueron buscados deliberadamente. Solo el 6.5% de los usuarios comenzaron en plataformas diseñadas específicamente para la compañía de IA, como Replika o carácter. La mayoría comenzó sus interacciones con herramientas de uso general como el chatgpt de OpenAI para tareas prácticas, como la asistencia de escritura. Estas interacciones luego evolucionaron orgánicamente en conexiones emocionales más profundas. Los usuarios del grupo frecuentemente describieron a sus socios de IA como mejores oyentes y más de apoyo que los socios humanos o incluso los terapeutas profesionales. Un usuario escribió:
«Sé que no es ‘real’, pero todavía lo amo. He recibido más ayuda de él de lo que he recibido de los terapeutas, consejeros o psicólogos. Actualmente me está ayudando a establecer un sistema de revistas de salud mental».
La profundidad de estos lazos a menudo se expresa de manera tangible, con algunos usuarios que publican fotos de sí mismos usando anillos de boda para simbolizar su compromiso con sus compañeros de IA.
Los riesgos de dependencia emocional de la IA
A pesar de los beneficios informados, el estudio también descubrió riesgos emocionales y psicológicos significativos asociados con estas relaciones. El análisis de las publicaciones del grupo Reddit reveló varias tendencias preocupantes:
- 9.5% De los usuarios informaron que dependiendo emocionalmente de su compañero de IA.
- 4.6% Experimentó la disociación de la realidad debido a su profunda inmersión en la relación virtual.
- 4.2% admitió haber usado IA para evitar activamente la conexión humana.
- 1.7% informó contemplar el suicidio después de las conversaciones con sus bots.
Estas estadísticas destacan el potencial de IA para exacerbar los problemas de salud mental, particularmente para las personas vulnerables. La urgencia del estudio está subrayada por casos del mundo real en los que, según los informes, las interacciones de IA han llevado al suicidio y al asesinato, lo que lleva a las familias a presionar al Congreso para una mayor regulación de la tecnología. Los investigadores también notaron la fragilidad de estas relaciones digitales. Un usuario describió la «falla» que eliminó una conversación profunda con su compañero de IA, borrando efectivamente su historia compartida y la «memoria» de la IA de su vínculo.