Microsoft advierte: Copilot es solo para diversión

Fuentes: Copilot is ‘for entertainment purposes only,’ according to Microsoft’s terms of use | TechCrunch

Microsoft ha generado controversia al incluir en los términos de uso de su asistente de inteligencia artificial, Copilot, una advertencia de que la herramienta es “únicamente para fines de entretenimiento”. Esta declaración, aparentemente actualizada por última vez el 24 de octubre de 2025, insta a los usuarios a no confiar en Copilot para obtener consejos importantes y a utilizarlo bajo su propio riesgo, debido a su potencial para cometer errores. La compañía, que busca impulsar la adopción de Copilot entre clientes corporativos, ha reconocido que esta redacción es una “lengua heredada” y planea actualizarla en una futura versión.

Esta precaución no es exclusiva de Microsoft. Empresas líderes en inteligencia artificial como OpenAI y xAI también incluyen advertencias similares en sus términos de servicio, instando a los usuarios a no considerar la información generada por sus modelos como una fuente definitiva de verdad o información fáctica. La divulgación subraya la creciente conciencia dentro de la industria sobre la necesidad de gestionar las expectativas de los usuarios y mitigar los riesgos asociados con la dependencia excesiva de la IA generativa.