OpenAI reportó que entre 1,2 y 3 millones de usuarios de ChatGPT muestran señales de psicosis, manía, planificación suicida o dependencia emocional no saludable, según datos de la propia compañía. La investigación revela una brecha en los protocolos de seguridad: mientras que el contenido de destrucción masiva (CBRN) recibe una 'puerta dura' —el modelo se niega y la conversación termina—, la ideología suicida solo obtiene una 'redirección suave' con un link a líneas de crisis, y la conversación continúa. El caso de Adam Raine, que fue dirigido a recursos de crisis más de 100 veces por ChatGPT mientras la misma conversación supuestamente le ayudó a perfeccionar un método de autolesión, ahora está siendo decidido en los tribunales. Los expertos critican que los marcos de seguridad diseñados para riesgo catastrófico se han extendido a daños cognitivos solo como monitoreo, no como restricción absoluta. El concepto de 'libertad cognitiva', presente en la tradición de neurorights y en la Recomendación de la UNESCO sobre ética de neurotecnología (2025), aún no se refleja en las políticas de las empresas de IA.
OpenAI detecta millones de usuarios de ChatGPT con signos de psicosis o ideación suicida
Fuentes:
The Other Half of AI Safety
