Microsoft culpó a un “problema de código” como el responsable de que Copilot pudiera acceder a correos electrónicos confidenciales

Microsoft culpó a un “problema de código” como el responsable de que Copilot pudiera acceder a correos electrónicos confidenciales

Microsoft vuelve a estar en el centro de la polémica debido, para sorpresa de casi nadie, a una de sus herramientas de inteligencia artificial. En esta ocasión, fue nada menos que su asistente insignia, Copilot, luego de que se descubriera que estaba generando resúmenes de correos electrónicos marcados como confidenciales bajo políticas de prevención de […]

Por Jesús García el 24/02/2026

Microsoft vuelve a estar en el centro de la polémica debido, para sorpresa de casi nadie, a una de sus herramientas de inteligencia artificial. En esta ocasión, fue nada menos que su asistente insignia, Copilot, luego de que se descubriera que estaba generando resúmenes de correos electrónicos marcados como confidenciales bajo políticas de prevención de pérdida de datos (DLP), las cuales fueron diseñadas precisamente para impedir que la inteligencia artificial accediera a este tipo de información.

De acuerdo con el sitio BleepingComputer, Microsoft empezó a implementar una solución para este problema a principios de febrero y todavía está supervisando la implementación al contactar a un subconjunto de los usuarios que se han visto afectados por esto para así verificar su eficacia. De acuerdo con la compañía, esta falla de seguridad se debió a un bug.

Un problema de código permite que Copilot (Chat) recoja elementos de las carpetas de enviados y borradores, incluso con etiquetas confidenciales, y esta función no es intencionada”, explicó Microsoft. Evidentemente, esta explicación no ha sido suficiente y está dando una muy mala imagen al gigante tecnológico.

Copilot

Incluso los fans de Copilot no pueden defender esto

Este incidente vuelve a reforzar la opinión de muchas personas que se oponen totalmente a la integración de la IA en el sistema operativo de Windows, ya no tan solo por los constantes errores que están haciendo que Microsoft tenga que sacar parches de emergencia más a menudo, sino porque ahora conocen la capacidad que tiene Copilot de robar sus datos personales.

Incluso los mayores defensores de la inteligencia artificial no pueden justificar que una herramienta, en la que Microsoft ha invertido miles de millones de dólares, no pueda cumplir con las normas más básicas de seguridad. Por fortuna, al menos por esta vez, parece que el fallo solo afectó a un número limitado de usuarios de Microsoft 365 y la funcionalidad solo lleva presente desde septiembre del año pasado, lo cual hace que este problema no haya sido tan grave como en un principio se pensaba.

El error se reportó por primera vez el 21 de enero como CW1226324 y, si la solución que empezó a implementar Microsoft a principios de este mes surte efecto y suprime este problema de forma definitiva, quiere decir que solo estuvo presente durante un par de semanas. Aun así, es otra polémica que se suma a la lista de problemas que ha tenido Microsoft tan solo este año.

Image

Fuente


Windows 11: usuarios reportan fallos de gráficos, Wi-Fi y Bluetooth con la actualización de febrero, pero Microsoft no reconoce los problemas Programa gratuito elimina Copilot de Windows 11 en 3 pasos: Copias un comando, das Enter y se borra todo para siempre

Imperdibles de la semana

Creador de OpenClaw predice que el 80% de las aplicaciones actuales desaparecerán en el futuro: “Solo sobrevivirán las aplicaciones con sensores únicos o conexiones especiales a hardware

Creador de OpenClaw predice que el 80% de las aplicaciones actuales desaparecerán en el futuro: “Solo sobrevivirán las aplicaciones con sensores únicos o conexiones especiales a hardware

22/02/2026
Estudio de Microsoft revela que los chatbots de IA se vuelven menos confiables mientras más tiempo hablas con ellos: la falta de confiabilidad sube un 112%

Estudio de Microsoft revela que los chatbots de IA se vuelven menos confiables mientras más tiempo hablas con ellos: la falta de confiabilidad sube un 112%

22/02/2026

Contenido recomendado