Microsoft confirmó que ya solucionó un error crítico en su asistente de inteligencia artificial, Microsoft 365 Copilot, identificado bajo el código CW1226324. La falla permitía que la herramienta leyera y generara resúmenes de correos electrónicos marcados explícitamente como confidenciales dentro de entornos empresariales.

Según los reportes técnicos, la vulnerabilidad afectó principalmente la «pestaña de trabajo» de Copilot Chat. Durante ese periodo, el sistema logró acceder a mensajes almacenados en las carpetas de borradores y elementos enviados, pasando por alto las políticas diseñadas para prevenir la fuga de datos sensibles.

Aunque el asistente está concebido para excluir información protegida, en este caso su comportamiento no se ajustó a los protocolos de seguridad establecidos por la compañía. El incidente encendió las alertas internas sobre la necesidad de reforzar los controles en funciones automatizadas que interactúan con información sensible.

Microsoft aclaró que el fallo no abrió la puerta a usuarios no autorizados, ya que el acceso ocurrió dentro de los permisos ya existentes en cada entorno empresarial. Sin embargo, la empresa decidió actuar con rapidez y desplegó una actualización de configuración a nivel global para corregir la causa raíz del problema.

Actualmente, el nuevo código ya resguarda la mayoría de los entornos afectados. Con esta corrección, los correoselectrónicos que cuentan con etiquetas de sensibilidad mantienen su privacidad frente a las funciones automáticas del asistente, reforzando así las garantías de seguridad para los usuarios corporativos.

Fuente: Medios digitales

360°/AR/OBP