
Microsoft підтвердила помилку в сервісі Microsoft 365 Copilot, через яку ШІ-помічник міг узагальнювати конфіденційні електронні листи, попри налаштовані політики захисту даних. Про це повідомляє Bleeping Computer.
Йдеться про корпоративний сегмент Microsoft 365, де функції штучного інтелекту інтегровані в робочі процеси компаній. Помилка потенційно створювала ризики для обробки чутливої інформації.
У чому суть проблеми
Згідно з повідомленням Microsoft, виявила баг 21 січня, який вплинув на функцію чату у вкладці «Work» сервісу Microsoft 365 Copilot. Через програмну помилку система могла зчитувати та узагальнювати листи з папок «Надіслані» та «Чернетки», навіть якщо на них було застосовано мітки конфіденційності.

Такі мітки зазвичай працюють разом із політиками Data Loss Prevention (DLP), які обмежують доступ автоматизованих інструментів до чутливих даних. Однак у цьому випадку Copilot некоректно обробляв повідомлення з активованими обмеженнями.
У компанії пояснили, що причиною став невказаний збій у коді, який дозволяв елементам із захищених папок потрапляти в поле аналізу ШІ.
Виправлення багу
Microsoft повідомила, що почала робота над виправленням багу на початку лютого 2026 року та продовжує стежити за його ефективністю, зокрема зв’язуючись із частиною користувачів для перевірки результатів. Водночас компанія не називає точних термінів повного усунення проблеми й не розкриває кількість постраждалих організацій або клієнтів, зазначаючи, що масштаб інциденту може уточнюватися в межах подальшого розслідування.

