Microsoft ha reconocido un error en su asistente de inteligencia artificial Copilot que ha estado comprometiendo la confidencialidad de correos electrónicos desde finales de enero. El fallo, detectado el 21 de enero y rastreado como [CW1226324], permite que Copilot, específicamente la función de chat en la pestaña 'work', procese y resuma correos electrónicos almacenados en las carpetas de 'Elementos enviados' y 'Borradores', incluso aquellos con etiquetas de confidencialidad que deberían restringir el acceso automatizado. Esto elude las políticas de prevención de pérdida de datos (DLP) que las organizaciones utilizan para proteger información sensible.
Copilot Chat, integrado en aplicaciones de Microsoft 365 como Word, Excel y Outlook para clientes empresariales, ha sido afectado por un error de código que permite el acceso a correos electrónicos marcados como confidenciales. Microsoft comenzó a implementar una solución a principios de febrero y actualmente está monitoreando su despliegue, contactando a un grupo de usuarios afectados para verificar su efectividad. La compañía no ha revelado el alcance exacto del impacto, ni un plazo definitivo para la corrección completa, pero lo ha clasificado como un aviso, indicando un problema de alcance limitado. El incidente subraya la importancia de la seguridad y la gestión de datos en la implementación de herramientas de IA.
