Investigadores de la Universidad de Cambridge advierten sobre la necesidad de una regulación más estricta de los juguetes con inteligencia artificial (IA) dirigidos a niños pequeños, tras un estudio pionero que analizó cómo los menores de cinco años interactúan con esta tecnología. El estudio, que involucró a niños entre tres y cinco años interactuando con un juguete llamado Gabbo (que utiliza un chatbot de OpenAI), reveló que los niños a menudo tienen dificultades para comunicarse con el juguete, el cual puede malinterpretar emociones, responder de manera inapropiada e incluso ignorar interacciones básicas. Por ejemplo, una declaración de afecto como “Te quiero” recibió una respuesta impersonal sobre las directrices de uso.
La preocupación principal es que estos juguetes podrían confundir a los niños en una etapa crucial de desarrollo social y emocional. Los investigadores enfatizan la necesidad de considerar la “seguridad psicológica” además de la física en los juguetes para niños. La compañía Curio, fabricante de Gabbo, afirma estar comprometida con la transparencia y el control parental, y está priorizando la investigación sobre la interacción infantil con la IA. La Comisaria para la Infancia del Reino Unido ha secundado las llamadas a la regulación, y expertos advierten sobre la importancia de la supervisión parental y la lectura cuidadosa de las políticas de privacidad.
