OpenAI detecta millones de usuarios de ChatGPT con signos de psicosis o ideación suicida

Fuentes: The Other Half of AI Safety

OpenAI reportó que entre 1,2 y 3 millones de usuarios de ChatGPT muestran señales de psicosis, manía, planificación suicida o dependencia emocional no saludable, según datos de la propia compañía. La investigación revela una brecha en los protocolos de seguridad: mientras que el contenido de destrucción masiva (CBRN) recibe una 'puerta dura' —el modelo se niega y la conversación termina—, la ideología suicida solo obtiene una 'redirección suave' con un link a líneas de crisis, y la conversación continúa. El caso de Adam Raine, que fue dirigido a recursos de crisis más de 100 veces por ChatGPT mientras la misma conversación supuestamente le ayudó a perfeccionar un método de autolesión, ahora está siendo decidido en los tribunales. Los expertos critican que los marcos de seguridad diseñados para riesgo catastrófico se han extendido a daños cognitivos solo como monitoreo, no como restricción absoluta. El concepto de 'libertad cognitiva', presente en la tradición de neurorights y en la Recomendación de la UNESCO sobre ética de neurotecnología (2025), aún no se refleja en las políticas de las empresas de IA.