Когда Microsoft впервые анонсировала свой набор функций с искусственным интеллектом, некоторые пользователи обоснованно выразили обеспокоенность вопросами безопасности и конфиденциальности. Основная критика была направлена на функцию Recall, которая была способна искать вообще всё, что вы когда-либо делали на своём ПК. Волна возмущения заставила Microsoft отложить выпуск Recall для доработки, однако теперь на свет появилась новая проблема, на этот раз связанная с ИИ-ассистентом Copilot.
Тревожная статистика утечек
Исследование, проведённое компанией Concentric AI и опубликованное в рамках Доклада о рисках данных за 2025 год, показало шокирующие данные: только за первое полугодие 2025 года Copilot получал доступ почти к трём миллионам конфиденциальных документов в рамках одной организации. Эти цифры были собраны на основе данных клиентов Concentric AI и включают компании из таких сфер, как здравоохранение, финансовые услуги и государственный сектор.
Именно эти отрасли традиционно работают с огромным массивом личных данных, включая медицинские и финансовые записи. Отчёт наглядно демонстрирует, что сотрудники, имеющие дело с такой информацией, являются активными пользователями агентского ИИ, такого как Copilot. В среднем, по данным отчёта, в исследуемых организациях фиксировалось около 3000 взаимодействий с Copilot.
Что говорит Microsoft?
На своем официальном сайте Microsoft заявляет, что Copilot «соответствует нашим текущим обязательствам в области конфиденциальности, безопасности и соответствия требованиям, включая Общий регламент по защите данных (GDPR) и правила обработки данных в границах Европейского союза».
Компания также подчёркивает, что Copilot функционирует в рамках многоуровневой системы защиты. Однако ключевая проблема заключается в том, что если компания или организация не имеет специально разработанных правил и средств защиты, ИИ-ассистент потенциально может получить доступ к чувствительной информации. Это связано с тем, что данные о взаимодействиях между ИИ и пользователем сохраняются, включая конкретные запросы (промпты) и ответы Copilot.
Реальные риски для бизнеса и пользователей
По мере того как генеративный и агентский ИИ всё глубже внедряется в бизнес-процессы, Copilot может превратиться в канал для катастрофической утечки данных. Избежать этого можно только при условии, что компании разработают и внедрят специальные комплексные меры противодействия.
Недавние кибератаки на такие известные компании, как Marks & Spencer и Jaguar Land Rover, наглядно продемонстрировали уязвимость хранимых ими данных, которые могут включать домашние адреса, электронную почту, банковские реквизиты и пароли. Эти инциденты также показали, насколько даже крупнейшие корпорации могут быть парализованы на дни или даже недели из-за подобных взломов.
Если в будущем Copilot окажется точкой входа для подобных атак, это может нанести колоссальный ущерб ритейлерам, производителям и другим сервисным компаниям. Косвенными жертвами станут сотни тысяч людей, которые могут стать мишенью для мошенничества и кражи личных данных.
Экспертное мнение и рекомендации
С точки зрения ИТ-безопасности, основная проблема агентских ИИ-помощников, включая Copilot, заключается в их стремлении к максимальному контексту. Для того чтобы давать релевантные ответы, системе необходимо анализировать данные пользователя, что создаёт inherent conflict (внутренний конфликт) между удобством и конфиденциальностью.
Для российских компаний и пользователей эта новость является особенно актуальным предупреждением. Массовый переход на продукты с интегрированным ИИ требует пересмотра подходов к корпоративной безопасности. Недостаточно просто использовать сам инструмент — необходимо выстраивать целую инфраструктуру политик, регламентирующих его применение для работы с критически важной информацией.
Практическая рекомендация для бизнеса: прежде чем масштабировать использование Copilot или его аналогов, необходимо провести аудит безопасности, определить классификацию данных, к которым будет иметь доступ ИИ, и настроить соответствующие политики разграничения доступа. Для рядовых пользователей правило остаётся неизменным: не доверяйте персональные и чувствительные данные любому облачному ИИ-сервису без крайней необходимости и понимания того, как эти данные будут храниться и обрабатываться.
Ожидается, что давление со стороны регуляторов и общественности заставит вендоров, включая Microsoft, продолжать ужесточать настройки конфиденциальности по умолчанию. Однако главная ответственность за защиту данных по-прежнему лежит на конечном пользователе — как на корпоративном, так и на частном.