La comunidad informó que Copilot, el asistente de IA desarrollado por Microsoft, leyó y resumió el contenido de correos electrónicos marcados como confidenciales. La compañía achacó ese comportamiento indeseado de la aplicación a un error de programación y ya lanzó un parche para abordar el problema técnico, que despertó preocupaciones serias en materia de seguridad y privacidad.
Para bien o para mal, resulta evidente que la IA representa la punta de lanza del avance tecnológico. Todas las grandes corporaciones del sector quieren una rebanada del pastel y trabajan contrarreloj para desarrollar e implementar sus propios modelos de inteligencia artificial en sus ecosistemas.
El problema es que la velocidad con la que las empresas compiten para agregar nuevas funciones de IA abre la puerta a que se pasen por alto errores que puedan afectar a los usuarios. Como prueba está el reciente caso de Microsoft, que expuso emails confidenciales a su herramienta de inteligencia artificial.
Más de Copilot
Copilot resumía correos electrónicos confidenciales sin permiso
La apuesta de la compañía en el mercado de la IA es Copilot, un asistente que está integrado en los programas de Office, como Word, Excel y PowerPoint. También forma parte del navegador web Edge, el servicio de correo Outlook, el ecosistema de gaming Xbox y otras aplicaciones. El objetivo es crear un entorno inteligente.
Si bien estas herramientas pueden ser muy útiles, hace poco se dio a conocer que una falla puso potencialmente en riesgo la privacidad de los clientes empresariales.
El error en cuestión afectó específicamente a Copilot Chat, la vertiente de la aplicación que permite mantener conversaciones con la IA, resumir documentos, redactar correos electrónicos, analizar datos y generar contenido.

Un aviso reciente en el port de administración de Microsoft advirtió que Copilot resumió por error los correos electrónicos de algunos usuarios. El problema real es que el asistente de trabajo impulsado por inteligencia artificial también tuvo acceso a los emails marcados como confidenciales.
La compañía abordó la polémica e informó que dicho comportamiento fue imprevisto y que es fruto de un error de programación, aunque no entró en detalles técnicos. La falla afectó principalmente a los mensajes almacenados en las carpetas “Elementos enviados” y “Borradores”, que se enviaban a Copilot Chat para resumir el contenido.
El problema en cuestión, identificado con el código CW1226324, se detectó por primera vez el pasado 21 de enero de 2026. El gigante tecnológico puntualizó que empezó a implementar una solución a principios de este mes, aunque no se reveló cuántos clientes se vieron afectados por esta situación.
Microsoft aborda la polémica
La solución a esta falla se integró de forma escalonada a partir del 10 de febrero, pero no llegó a todos los usuarios. En aquel entonces, la compañía con sede en Redmond se puso en contacto con los usuarios afectados y efectuó pruebas para medir el impacto de las medidas de remediación para garantizar que el parche funcione correctamente.
“Un problema de código permitió que Copilot recoja elementos en las carpetas de enviados y borradores a pesar de que se han establecido etiquetas confidenciales”, agregó Microsoft.
Pocos días después de que este incidente salió a luz y desató el pánico entre la comunidad, Microsoft se pronunció públicamente y envió comunicados a diversos medios de noticias para aclarar el asunto con detalles adicionales.

Un portavoz afirmó que los controles de acceso y políticas de protección de datos de la empresa permanecieron intactos, pero reconoció que el comportamiento de la herramienta no cumplió con la experiencia Copilot prevista, diseñada para excluir el acceso a contenido protegido y confidencial.
“Identificamos y solucionamos un problema por el cual Microsoft 365 Copilot Chat podía devolver contenido de correos electrónicos etiquetados como confidenciales, creados por un usuario y almacenados en sus Borradores y Elementos enviados en Outlook para escritorio. Esto impide que alguien acceda a información que no está autorizado a ver”.
Finalmente, Microsoft afirma que se implementó una actualización en todo el mundo para los clientes empresariales. Aunque esta historia llegó a su final, el caso puso en relieve los riesgos latentes que existen alrededor de la inteligencia artificial y su implementación cada vez más invasiva en todos los sistemas operativos.
Programa gratuito elimina Copilot de Windows 11 en 3 pasos: Copias un comando, das Enter y se borra todo para siempre→ Microsoft paga hasta $600,000 dólares a influencers para promocionar Copilot, pero algunos rechazan la oferta por miedo a las críticas y al hate→
