Confidencialidad en Peligro: Bug de Microsoft Copilot Exponía Emails Secretos de Usuarios de Office

Feb 18, 2026

Microsoft ha confirmado una grave vulnerabilidad en su suite Office que permitía a la IA Copilot acceder, leer y resumir correos electrónicos confidenciales de clientes, violando sus propias políticas de protección de datos. El fallo de seguridad, que ya ha sido corregido, afectaba a usuarios de las versiones de pago del servicio, planteando serias dudas sobre la privacidad en la era de la IA integrada en herramientas empresariales.

Según el comunicado de la compañía, el bug permitía que el asistente de IA «leyera y resumiera correos electrónicos confidenciales de clientes que pagaban, omitiendo las políticas de protección de datos». Esto significa que información sensible, que debería haber estado aislada de los sistemas de IA, estaba siendo procesada por Copilot sin el conocimiento ni consentimiento de los usuarios afectados.

El incidente llega en un momento crítico donde empresas y gobiernos están evaluando los riesgos de implementar IA generativa en entornos corporativos. La exposición de correos confidenciales no solo representa una violación de confidencialidad, sino que podría tener implicaciones legales y regulatorias significativas, especialmente para organizaciones que manejan datos sensibles bajo normativas como GDPR o HIPAA.

Microsoft no ha especificado cuántos usuarios se vieron afectados ni durante cuánto tiempo estuvo activa la vulnerabilidad. Tampoco ha detallado si los datos procesados fueron almacenados o utilizados para entrenar sus modelos de IA. La compañía solo confirmó que «el error ha sido solucionado» y que están «tomando medidas adicionales para prevenir incidentes similares».

Este caso resalta los desafíos de seguridad que enfrentan las empresas al integrar IA avanzada en productos existentes. La tensión entre funcionalidad y privacidad se vuelve cada vez más evidente, especialmente cuando herramientas diseñadas para mejorar la productividad pueden convertirse en vectores de exposición de información sensible.

Expertos en ciberseguridad ya están alertando sobre la necesidad de auditorías más rigurosas para sistemas de IA empresariales, mientras los usuarios corporativos reevalúan su dependencia de estas tecnologías emergentes.