La firma tecnológica ha revelado que aproximadamente 1,2 millones de personas interactúan cada semana con ChatGPT exponiendo ideas suicidas o autolesivas. Esto representa cerca del 0,15% de sus usuarios semanales activos. Estas cifras no solo reflejan un problema de salud pública, sino que también plantean alarmas en torno al rol que las IA conversacionales están adquiriendo en el campo emocional.
¿Qué ha hecho OpenAI tras conocer los datos?
1. Colaboración con profesionales sanitarios
OpenAI trabajó con más de 170 expertos en salud mental (psiquiatras, psicólogos y médicos) de más de 60 países para revisar cómo su IA debe responder ante usuarios en crisis.
2. Mejora de detección y derivación
Ahora, el modelo puede identificar de forma más eficaz cuando alguien muestra signos de suicidio, psicosis o dependencia emocional hacia la IA. Ha reducido las respuestas problemáticas hasta un 80% en algunas categorías.
3. Nuevas funciones de seguridad
Se ha implementado un sistema que redirige a líneas de ayuda reales, limita el acceso prolongado a ciertos chats y mide la “dependencia emocional” hacia la herramienta.
¿Qué implicaciones tiene esto para usuarios y desarrolladores?
Aunque el porcentaje puede parecer bajo, se traduce en un volumen considerable de personas vulnerables. Para empresas de tecnología, diseñadores de IA y creadores de contenido, esto significa:
-
Considerar segmentos de riesgo cuando se desarrolla chatbots abiertos al público.
-
No sustituir la ayuda profesional por herramientas automatizadas: la IA puede dar apoyo, no reemplazar atención clínica.
-
Garantizar políticas de transparencia y derivación cuando la IA identifique situaciones críticas.
¿Debemos preocuparte?
Sí y no. Sí porque la IA está siendo usada como confidente por millones que atraviesan crisis. No, en el sentido de que se están tomando medidas. Pero la alerta sigue viva: la tecnología crece rápido, mientras los protocolos de seguridad tardan en ponerse al día.
“La IA no está diseñada para ser tu terapeuta. Está hecha para dar respuestas, no para acompañar humanamente”, advierte un especialista en salud mental consultado.
Conclusión
El uso de ChatGPT para lidiar con pensamientos suicidas o crisis emocionales representa un cambio en el papel de la IA como “confidente digital”. Este fenómeno exige una reflexión seria: tanto sobre cómo diseñamos tecnología como sobre cómo cuidamos a quienes la utilizan. Si desarrollas, diseñas o supervisas aplicaciones conversacionales, ten presente que detrás de cada chat puede haber una vida en riesgo.
Esta semana, en el programa La mañana de COPE Canarias, hablamos de este terrible problema y lo que se puede hacer para solucionarlo.







