Un estudio reciente publicado en Nature Medicine ha revelado que ChatGPT Health, la herramienta de salud de OpenAI, falla con frecuencia en identificar situaciones médicas urgentes y señales de ideación suicida, lo que podría tener consecuencias graves. La investigación, que evaluó la plataforma con 60 escenarios de pacientes, encontró que en más del 51% de los casos donde se requería atención médica inmediata, la IA recomendaba quedarse en casa o programar una cita rutinaria. Expertos califican esto como “increíblemente peligroso”, advirtiendo que podría generar una falsa sensación de seguridad y retrasar la atención necesaria, incluso llevando a la muerte. El estudio también destacó que la plataforma puede omitir alertas de crisis suicida dependiendo de la información adicional proporcionada, como resultados de laboratorio. OpenAI defiende que el estudio no refleja el uso típico de la herramienta y que ésta se actualiza constantemente, pero los investigadores insisten en la necesidad urgente de establecer estándares de seguridad más estrictos y auditorías independientes debido al riesgo potencial de daño. La preocupación se extiende a la posible responsabilidad legal de OpenAI, especialmente a la luz de casos legales en curso relacionados con el daño causado por chatbots de IA.
