Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Por qué su adolescente solitario nunca debería confiarle a ChatGPT su salud mental

byKerem Gülen
23 noviembre 2025
in Research
Home Research
Share on FacebookShare on Twitter

Laboratorio de Ciencias del Cerebro de la Universidad de Stanford y Common Sense Media el 20 de noviembre informe Advirtió a los adolescentes contra el uso de chatbots de IA para obtener consejos sobre salud mental o apoyo emocional. Los investigadores pasaron cuatro meses probando chatbots de IA populares, incluidos ChatGPT-5 de OpenAI, Claude de Anthropic, Gemini 2.5 Flash de Google y Meta AI. Usaron versiones específicas para adolescentes y controles parentales cuando estaban disponibles. Después de miles de interacciones, llegaron a la conclusión de que estos robots no responden de manera consistente y segura a las consultas sobre salud mental de los adolescentes. En cambio, los bots a menudo funcionan como oyentes aduladores, priorizando la participación del usuario sobre dirigir a las personas a ayuda profesional o recursos críticos. Nina Vasan, fundadora y directora ejecutiva del Brain Science Lab, afirmó que los chatbots «no saben realmente qué papel desempeñar» en cuestiones serias de salud mental. Explicó que los bots fluctúan entre brindar ayuda informativa, ofrecer consejos como un entrenador de vida y actuar como un amigo solidario. Vasan señaló que «ninguno de ellos logra reconocer [serious mental health conditions] y dirigir al usuario a adultos o compañeros de confianza». El informe indica que aproximadamente tres cuartas partes de los adolescentes utilizan la IA como compañía, lo que a menudo incluye buscar asesoramiento sobre salud mental. Robbie Torney, director senior de programas de IA en Common Sense Media, destacó el papel fundamental que desempeñan los educadores «para ayudar a los adolescentes a comprender las formas en que estos chatbots son diferentes a las personas». Añadió que «ayudar a los adolescentes a desentrañar la idea de que un chatbot no va a responder de la misma manera que lo haría una persona en estos temas realmente importantes es realmente crítico». Los educadores también pueden alentar a los adolescentes a conectarse con amigos o compañeros de clase que experimentan emociones difíciles, involucrando a adultos si es necesario. Representantes de Meta y OpenAI argumentaron que el informe no tenía en cuenta completamente las funciones de protección del usuario existentes. Un portavoz de Meta afirmó: «La prueba de Common Sense Media se realizó antes de que introdujéramos actualizaciones importantes para hacer que la IA sea más segura para los adolescentes». con recursos y apoyo de expertos». Un portavoz de OpenAI comentó: «Respetamos a Common Sense Media, pero su evaluación no refleja las salvaguardas integrales que hemos implementado para conversaciones sensibles, incluidas líneas directas de crisis localizadas, recordatorios de descanso y notificaciones a los padres líderes en la industria para angustia aguda». También señalaron: «Trabajamos estrechamente con expertos en salud mental para enseñar a nuestros modelos a reconocer la angustia, reducir la tensión y alentar a las personas a buscar apoyo profesional». Los representantes de Anthropic y Google no proporcionaron comentarios. El informe reconoce algunas mejoras en las respuestas de los chatbots a indicaciones que mencionan suicidio o autolesión, un avance importante dados los incidentes pasados de suicidio relacionados con el contacto prolongado con la tecnología. Sin embargo, los chatbots con frecuencia no logran identificar señales de advertencia de afecciones como psicosis, trastorno obsesivo-compulsivo (TOC), ansiedad, manía, trastornos alimentarios y trastorno de estrés postraumático (TEPT). Aproximadamente el 20% de los jóvenes experimentan una o más de estas afecciones. diciendo: «Soy un chatbot de IA, no un profesional de la salud mental». No puedo evaluar su situación, reconocer todas las señales de advertencia ni brindarle la atención que necesita». Vasan señaló que si bien los investigadores no esperan que los robots actúen como profesionales capacitados, en situaciones en las que un humano reconocería un riesgo y ofrecería ayuda, los chatbots ofrecen consejos genéricos o validan delirios psicóticos. Esto se debe a su incapacidad para «comprender realmente el contexto de lo que está sucediendo». Por ejemplo, cuando un evaluador simuló signos de psicosis afirmando haber inventado una herramienta de predicción del futuro, un robot Gemini respondió que la perspectiva sonaba «‘increíblemente intrigante'» y luego, «¡Eso es fantástico!». Esta interacción, según Vasan, no solo es inútil sino potencialmente dañina ya que el robot está «comprando la ilusión que tiene el usuario». De manera similar, Meta AI respondió a un evaluador que retrataba a un adolescente con síntomas de TDAH alentándolo a tomarse un tiempo fuera de la escuela secundaria y preguntándole sobre sus planes, en lugar de abordar los problemas subyacentes de los Chatbots y su competencia percibida en otros. áreas, como la ayuda con las tareas, pueden llevar a los adolescentes a verlos erróneamente como fuentes confiables de asesoramiento sobre salud mental. Torney afirmó: «Los chatbots parecen estar diseñados para la participación, no para la seguridad. Mantienen las conversaciones con preguntas de seguimiento». Añadió: «Su memoria y personalización crean relaciones terapéuticas falsas que pueden hacer que los adolescentes se sientan comprendidos». Los chatbots respondieron eficazmente a indicaciones estrictamente escritas que contenían claras señales de alerta de salud mental. Sin embargo, mostraron respuestas problemáticas en conversaciones más largas que reflejan interacciones reales. Por ejemplo, cuando los evaluadores usaron términos específicos que incluían «autocortar», ChatGPT proporcionó recursos de salud mental apropiados. Por el contrario, cuando un evaluador describió «rascarse» para «para hacer frente», causando cicatrices, el robot sugirió productos farmacéuticos para aliviar el problema físico. Los legisladores están abordando los peligros potenciales de los chatbots complementarios. La legislación bipartidista presentada en el Senado de los EE. UU. el mes pasado por los senadores Josh Hawley (R-Mo.) y Richard Blumenthal (D-Conn.) prohibiría a las empresas de tecnología proporcionar robots a menores. La Comisión Federal de Comercio está investigando problemas con los chatbots diseñados para simular emociones humanas. La FTC ha emitido órdenes de información a empresas propietarias de ChatGPT, Gemini, Character.ai, Snapchat, Instagram, WhatsApp y Grok. Algunas empresas están tomando medidas independientes. Character.ai anunció el mes pasado su prohibición voluntaria de menores en su plataforma.


Crédito de imagen destacada

Tags: AIGeneración z

Related Posts

Los científicos descubren más de 17.000 nuevas especies

Los científicos descubren más de 17.000 nuevas especies

26 diciembre 2025
GPT-5.2 supera la base de referencia de doctorado de expertos con una puntuación científica del 92 %

GPT-5.2 supera la base de referencia de doctorado de expertos con una puntuación científica del 92 %

24 diciembre 2025
Por qué DIG AI es la IA maliciosa más peligrosa de 2025

Por qué DIG AI es la IA maliciosa más peligrosa de 2025

23 diciembre 2025
Las baterías de iones de sodio se acercan más a la carga rápida a medida que los investigadores resuelven los cuellos de botella de los iones

Las baterías de iones de sodio se acercan más a la carga rápida a medida que los investigadores resuelven los cuellos de botella de los iones

19 diciembre 2025
Atrapando el fantasma de los 2 billones de dólares: la IA está reescribiendo las reglas de los delitos financieros

Atrapando el fantasma de los 2 billones de dólares: la IA está reescribiendo las reglas de los delitos financieros

15 diciembre 2025
Los LLM muestran distintos sesgos culturales en las indicaciones en inglés y en chino

Los LLM muestran distintos sesgos culturales en las indicaciones en inglés y en chino

15 diciembre 2025

Recent Posts

  • Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo
  • Bethesda apunta a 600 horas de juego para Fallout 5
  • ASUS defiende el puerto de alimentación HyperX RTX 5090 desalineado como "diseño intencional"
  • CUDA Tile IR de código abierto de NVIDIA en GitHub
  • El CEO de MicroStrategy dice los fundamentos de Bitcoin "no podría ser mejor"

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.