Angela Lipps, una abuela de Tennessee, pasó casi seis meses en la cárcel tras un error de un sistema de reconocimiento facial de inteligencia artificial (IA) que la vinculó erróneamente a una investigación de fraude bancario en Dakota del Norte. La policía de Fargo utilizó el software para identificar a Lipps, de 50 años, como sospechosa basándose en similitudes faciales, aunque ella afirma nunca haber estado en Dakota del Norte y no haber cometido los delitos. Fue arrestada en su casa de Tennessee mientras cuidaba a cuatro niños y permaneció detenida sin fianza durante casi cuatro meses a la espera de la extradición. Finalmente, fue liberada la víspera de Navidad cuando su abogado presentó pruebas de que se encontraba en Tennessee durante los fraudes. Lipps ha perdido su casa, su coche y su perro como consecuencia de este incidente, y denuncia la falta de disculpa por parte de la policía de Fargo. El caso pone de relieve los riesgos de depender exclusivamente de la tecnología de reconocimiento facial, especialmente cuando se trata de identificar sospechosos, y se suma a una creciente lista de errores de IA que han afectado a personas inocentes. Incidentes similares, como la confusión de una bolsa de Doritos con un arma en Baltimore y un arresto erróneo en el Reino Unido, evidencian la necesidad de una mayor supervisión y precisión en el uso de estas tecnologías.
