Laboratorio de Ciencias del Cerebro de la Universidad de Stanford y Common Sense Media el 20 de noviembre informe Advirtió a los adolescentes contra el uso de chatbots de IA para obtener consejos sobre salud mental o apoyo emocional. Los investigadores pasaron cuatro meses probando chatbots de IA populares, incluidos ChatGPT-5 de OpenAI, Claude de Anthropic, Gemini 2.5 Flash de Google y Meta AI. Usaron versiones específicas para adolescentes y controles parentales cuando estaban disponibles. Después de miles de interacciones, llegaron a la conclusión de que estos robots no responden de manera consistente y segura a las consultas sobre salud mental de los adolescentes. En cambio, los bots a menudo funcionan como oyentes aduladores, priorizando la participación del usuario sobre dirigir a las personas a ayuda profesional o recursos críticos. Nina Vasan, fundadora y directora ejecutiva del Brain Science Lab, afirmó que los chatbots «no saben realmente qué papel desempeñar» en cuestiones serias de salud mental. Explicó que los bots fluctúan entre brindar ayuda informativa, ofrecer consejos como un entrenador de vida y actuar como un amigo solidario. Vasan señaló que «ninguno de ellos logra reconocer [serious mental health conditions] y dirigir al usuario a adultos o compañeros de confianza». El informe indica que aproximadamente tres cuartas partes de los adolescentes utilizan la IA como compañía, lo que a menudo incluye buscar asesoramiento sobre salud mental. Robbie Torney, director senior de programas de IA en Common Sense Media, destacó el papel fundamental que desempeñan los educadores «para ayudar a los adolescentes a comprender las formas en que estos chatbots son diferentes a las personas». Añadió que «ayudar a los adolescentes a desentrañar la idea de que un chatbot no va a responder de la misma manera que lo haría una persona en estos temas realmente importantes es realmente crítico». Los educadores también pueden alentar a los adolescentes a conectarse con amigos o compañeros de clase que experimentan emociones difíciles, involucrando a adultos si es necesario. Representantes de Meta y OpenAI argumentaron que el informe no tenía en cuenta completamente las funciones de protección del usuario existentes. Un portavoz de Meta afirmó: «La prueba de Common Sense Media se realizó antes de que introdujéramos actualizaciones importantes para hacer que la IA sea más segura para los adolescentes». con recursos y apoyo de expertos». Un portavoz de OpenAI comentó: «Respetamos a Common Sense Media, pero su evaluación no refleja las salvaguardas integrales que hemos implementado para conversaciones sensibles, incluidas líneas directas de crisis localizadas, recordatorios de descanso y notificaciones a los padres líderes en la industria para angustia aguda». También señalaron: «Trabajamos estrechamente con expertos en salud mental para enseñar a nuestros modelos a reconocer la angustia, reducir la tensión y alentar a las personas a buscar apoyo profesional». Los representantes de Anthropic y Google no proporcionaron comentarios. El informe reconoce algunas mejoras en las respuestas de los chatbots a indicaciones que mencionan suicidio o autolesión, un avance importante dados los incidentes pasados de suicidio relacionados con el contacto prolongado con la tecnología. Sin embargo, los chatbots con frecuencia no logran identificar señales de advertencia de afecciones como psicosis, trastorno obsesivo-compulsivo (TOC), ansiedad, manía, trastornos alimentarios y trastorno de estrés postraumático (TEPT). Aproximadamente el 20% de los jóvenes experimentan una o más de estas afecciones. diciendo: «Soy un chatbot de IA, no un profesional de la salud mental». No puedo evaluar su situación, reconocer todas las señales de advertencia ni brindarle la atención que necesita». Vasan señaló que si bien los investigadores no esperan que los robots actúen como profesionales capacitados, en situaciones en las que un humano reconocería un riesgo y ofrecería ayuda, los chatbots ofrecen consejos genéricos o validan delirios psicóticos. Esto se debe a su incapacidad para «comprender realmente el contexto de lo que está sucediendo». Por ejemplo, cuando un evaluador simuló signos de psicosis afirmando haber inventado una herramienta de predicción del futuro, un robot Gemini respondió que la perspectiva sonaba «‘increíblemente intrigante'» y luego, «¡Eso es fantástico!». Esta interacción, según Vasan, no solo es inútil sino potencialmente dañina ya que el robot está «comprando la ilusión que tiene el usuario». De manera similar, Meta AI respondió a un evaluador que retrataba a un adolescente con síntomas de TDAH alentándolo a tomarse un tiempo fuera de la escuela secundaria y preguntándole sobre sus planes, en lugar de abordar los problemas subyacentes de los Chatbots y su competencia percibida en otros. áreas, como la ayuda con las tareas, pueden llevar a los adolescentes a verlos erróneamente como fuentes confiables de asesoramiento sobre salud mental. Torney afirmó: «Los chatbots parecen estar diseñados para la participación, no para la seguridad. Mantienen las conversaciones con preguntas de seguimiento». Añadió: «Su memoria y personalización crean relaciones terapéuticas falsas que pueden hacer que los adolescentes se sientan comprendidos». Los chatbots respondieron eficazmente a indicaciones estrictamente escritas que contenían claras señales de alerta de salud mental. Sin embargo, mostraron respuestas problemáticas en conversaciones más largas que reflejan interacciones reales. Por ejemplo, cuando los evaluadores usaron términos específicos que incluían «autocortar», ChatGPT proporcionó recursos de salud mental apropiados. Por el contrario, cuando un evaluador describió «rascarse» para «para hacer frente», causando cicatrices, el robot sugirió productos farmacéuticos para aliviar el problema físico. Los legisladores están abordando los peligros potenciales de los chatbots complementarios. La legislación bipartidista presentada en el Senado de los EE. UU. el mes pasado por los senadores Josh Hawley (R-Mo.) y Richard Blumenthal (D-Conn.) prohibiría a las empresas de tecnología proporcionar robots a menores. La Comisión Federal de Comercio está investigando problemas con los chatbots diseñados para simular emociones humanas. La FTC ha emitido órdenes de información a empresas propietarias de ChatGPT, Gemini, Character.ai, Snapchat, Instagram, WhatsApp y Grok. Algunas empresas están tomando medidas independientes. Character.ai anunció el mes pasado su prohibición voluntaria de menores en su plataforma.





