Un experto ha advertido sobre el creciente riesgo de una confianza ciega en los sistemas de inteligencia artificial (IA) generativa, como ChatGPT, que se han integrado rápidamente en diversas herramientas y plataformas. Ante esta situación, propone lo que denomina las “Leyes Inversas de la Robótica” para contrarrestar esta tendencia. Estas leyes instan a los usuarios a no antropomorfizar a la IA (evitar atribuirles emociones o intenciones), a no confiar ciegamente en su producción (verificando siempre la información) y a mantener la responsabilidad y la rendición de cuentas por las decisiones tomadas basadas en la IA. El problema surge de la forma en que se presentan las respuestas de la IA, a menudo destacadas como respuestas directas en los motores de búsqueda, lo que puede llevar a una aceptación automática sin la debida verificación. El experto compara esta situación con las Leyes de la Robótica de Asimov, pero enfatiza que ahora es necesario regular el comportamiento humano frente a la IA, recordando que son herramientas y no autoridades, y que la responsabilidad final recae en los usuarios.
