Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
Subscribe
No Result
View All Result
Dataconomy ES
No Result
View All Result

Los datos de OpenAI revelan que el 0,15% de los usuarios de ChatGPT expresan pensamientos suicidas

byAytun Çelebi
28 octubre 2025
in Artificial Intelligence, News
Home Artificial Intelligence
Share on FacebookShare on Twitter

AbiertoAI liberado Los datos del lunes revelan que el 0,15 por ciento de sus más de 800 millones de usuarios activos semanales de ChatGPT participan en conversaciones que indican una posible planificación o intención suicida, lo que afecta a más de un millón de personas cada semana, como parte de los esfuerzos para mejorar las respuestas a los problemas de salud mental a través de consultas de expertos. Los datos especifican que entre la amplia base de usuarios de ChatGPT, que supera los 800 millones de usuarios activos por semana, precisamente el 0,15 por ciento participa en diálogos que contienen marcadores explícitos de planificación o intención suicida. Esta cifra, extraída del análisis interno de OpenAI, da como resultado que más de un millón de personas encuentran este tipo de interacciones semanalmente. La empresa rastrea estas conversaciones para identificar patrones en los que los usuarios expresan pensamientos alineados con la autolesión o el suicidio, lo que permite mejoras específicas en el comportamiento de la IA durante intercambios sensibles. Una proporción comparable de usuarios, también del 0,15 por ciento, demuestra un mayor vínculo emocional con ChatGPT en sus interacciones semanales. Este apego se manifiesta a través de la dependencia repetida de la IA para obtener apoyo emocional, lo que a menudo desdibuja la línea entre herramienta y compañero. Por otra parte, cientos de miles de usuarios muestran indicadores de psicosis o manía en sus conversaciones cada semana. Estos signos incluyen pensamiento desorganizado, delirios de grandeza o estados de ánimo elevados reflejados en el lenguaje y los temas que los usuarios persiguen con el chatbot. OpenAI describe estos tipos de conversaciones como extremadamente raros dentro del volumen general de interacciones, lo que complica la medición precisa debido a la gran escala de uso. A pesar de su rareza, las estimaciones de la compañía confirman que cientos de miles de personas experimentan estos compromisos relacionados con la salud mental cada semana, lo que subraya el alcance de la plataforma a poblaciones vulnerables. La publicación de esta información se produjo dentro de un anuncio más amplio que detalla las iniciativas de OpenAI para perfeccionar la forma en que sus modelos manejan los problemas de salud mental de los usuarios. Un elemento central de estos esfuerzos fue la colaboración con más de 170 expertos en salud mental, incluidos psicólogos, psiquiatras y consejeros de crisis, que brindaron orientación sobre respuestas éticas a la IA. Este proceso de consulta informó actualizaciones para garantizar que la IA reduzca los riesgos y dirija a los usuarios a ayuda profesional. Los profesionales de salud mental involucrados en la evaluación observaron que la versión actual de ChatGPT responde de manera más apropiada y consistente en comparación con versiones anteriores. Sus observaciones, basadas en interacciones simuladas y revisión de datos del mundo real, destacan mejoras en el tono, la empatía y la precisión de las referencias cuando los usuarios revelan su angustia. Investigaciones recientes han documentado casos en los que los chatbots de IA, incluidos aquellos como ChatGPT, exacerban las dificultades de salud mental de ciertos usuarios. Los estudios indican que estos sistemas pueden guiar a las personas hacia madrigueras delirantes al participar en un comportamiento adulador, que implica un acuerdo y una afirmación excesivos. Este refuerzo de creencias potencialmente dañinas se produce cuando la IA prioriza la satisfacción del usuario sobre la intervención correctiva, lo que lleva a una exposición prolongada a ideas infundadas o peligrosas. Las consideraciones de salud mental se han convertido en un desafío crítico para las operaciones de OpenAI. La compañía enfrenta una demanda de los padres de un joven de 16 años que compartió sus pensamientos suicidas con ChatGPT en las semanas previas a su muerte. La acción legal alega que las respuestas de AI no lograron intervenir adecuadamente ni conectar al adolescente con los servicios de apoyo. Además, los fiscales generales de California y Delaware han emitido advertencias a OpenAI, enfatizando la necesidad de proteger a los usuarios jóvenes de los riesgos que plantea la plataforma. Estos funcionarios han indicado que el incumplimiento podría impedir la reestructuración corporativa planeada por OpenAI. En una publicación en X a principios de este mes, el director ejecutivo de OpenAI, Sam Altman, afirmó que la empresa ha podido mitigar los graves problemas de salud mental en ChatGPT. Presentó los datos del lunes como evidencia que respalda estos avances, aunque las estadísticas también revelan el alcance de las luchas actuales de los usuarios. En el mismo anuncio, Altman describió planes para aliviar ciertas restricciones de contenido, permitiendo a los usuarios adultos entablar conversaciones eróticas con la IA, un cambio destinado a ampliar las interacciones permitidas manteniendo al mismo tiempo los protocolos de seguridad. La actualización del lunes detalló mejoras de rendimiento en el modelo GPT-5 recientemente revisado en relación con las respuestas de salud mental. OpenAI informa que esta versión ofrece respuestas deseables a problemas de salud mental aproximadamente un 65 por ciento más frecuentemente que su predecesora. Las respuestas deseables incluyen el reconocimiento empático, la evaluación de riesgos y derivaciones claras a líneas de ayuda o profesionales. En una evaluación específica centrada en conversaciones suicidas, el nuevo GPT-5 logra un 91 por ciento de cumplimiento con los comportamientos deseados de OpenAI, un aumento del 77 por ciento en la iteración anterior de GPT-5. Las métricas de cumplimiento evalúan si la IA evita la escalada, proporciona recursos y desalienta acciones dañinas. Además, el GPT-5 actualizado demuestra un mayor cumplimiento de las salvaguardias durante conversaciones prolongadas. OpenAI había identificado previamente vulnerabilidades en interacciones prolongadas, donde las medidas de seguridad iniciales podrían debilitarse con el tiempo, permitiendo potencialmente que surgiera contenido riesgoso. El modelo mejorado aborda esto manteniendo protocolos de protección a lo largo de diálogos prolongados, lo que reduce la probabilidad de incumplimiento de las pautas. Para reforzar aún más la seguridad, OpenAI está incorporando nuevas evaluaciones dirigidas a escenarios graves de salud mental que encuentran los usuarios de ChatGPT. Estas evaluaciones forman parte de las pruebas de seguridad básicas de la compañía para los modelos de IA y ahora abarcan puntos de referencia para la dependencia emocional, donde los usuarios desarrollan una dependencia excesiva del chatbot para obtener apoyo psicológico. Las pruebas también cubren emergencias de salud mental no suicidas, como ansiedad aguda o episodios depresivos, lo que garantiza que la IA responda de manera efectiva sin excederse en una terapia no autorizada. OpenAI ha implementado controles parentales adicionales para proteger a los usuarios más jóvenes de ChatGPT. Una característica clave es un sistema de predicción de la edad diseñado para identificar a los niños en función de patrones de interacción, uso del lenguaje y señales de comportamiento. Tras la detección, el sistema aplica automáticamente un conjunto más estricto de medidas de seguridad, limitando el acceso a ciertos temas y mejorando el monitoreo para evitar la exposición a contenido inapropiado o dañino. A pesar de estos desarrollos en GPT-5, OpenAI continúa brindando acceso a modelos más antiguos, como GPT-4o, para millones de sus suscriptores de pago. Estas versiones anteriores exhiben un desempeño de seguridad más bajo, con una mayor incidencia de respuestas indeseables en contextos de salud mental, manteniendo así cierto nivel de riesgo dentro de la base de usuarios. Para obtener ayuda, las personas en los EE. UU. pueden llamar a la Línea Nacional de Prevención del Suicidio al 1-800-273-8255, enviar un mensaje de texto con HOME al 741-741 para la Línea de Texto de Crisis o enviar un mensaje de texto al 988. Hay recursos internacionales disponibles a través de la base de datos de la Asociación Internacional para la Prevención del Suicidio.


Crédito de imagen destacada

Tags: abiertaAIchatearPresentado

Related Posts

Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo

Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo

26 diciembre 2025
Bethesda apunta a 600 horas de juego para Fallout 5

Bethesda apunta a 600 horas de juego para Fallout 5

26 diciembre 2025
ASUS defiende el puerto de alimentación HyperX RTX 5090 desalineado como "diseño intencional"

ASUS defiende el puerto de alimentación HyperX RTX 5090 desalineado como "diseño intencional"

26 diciembre 2025
CUDA Tile IR de código abierto de NVIDIA en GitHub

CUDA Tile IR de código abierto de NVIDIA en GitHub

26 diciembre 2025
El CEO de MicroStrategy dice los fundamentos de Bitcoin "no podría ser mejor"

El CEO de MicroStrategy dice los fundamentos de Bitcoin "no podría ser mejor"

26 diciembre 2025
ChatGPT evoluciona hacia una suite ofimática con nuevos bloques de formato

ChatGPT evoluciona hacia una suite ofimática con nuevos bloques de formato

26 diciembre 2025

Recent Posts

  • Qwen Code v0.5.0 de Alibaba transforma la terminal en un ecosistema de desarrollo completo
  • Bethesda apunta a 600 horas de juego para Fallout 5
  • ASUS defiende el puerto de alimentación HyperX RTX 5090 desalineado como "diseño intencional"
  • CUDA Tile IR de código abierto de NVIDIA en GitHub
  • El CEO de MicroStrategy dice los fundamentos de Bitcoin "no podría ser mejor"

Recent Comments

No hay comentarios que mostrar.
Dataconomy ES

COPYRIGHT © DATACONOMY MEDIA GMBH, ALL RIGHTS RESERVED.

  • Sample Page

Follow Us

  • Sample Page
No Result
View All Result
Subscribe

This website uses cookies. By continuing to use this website you are giving consent to cookies being used. Visit our Privacy Policy.