Главная НовостиИсследование: Copilot хранит массу конфиденциальных бизнес-данных

Исследование: Copilot хранит массу конфиденциальных бизнес-данных

by admin

Когда Microsoft впервые анонсировала свой набор функций с искусственным интеллектом, некоторые пользователи обоснованно выразили обеспокоенность вопросами безопасности и конфиденциальности. Основная критика была направлена на функцию Recall, которая была способна искать вообще всё, что вы когда-либо делали на своём ПК. Волна возмущения заставила Microsoft отложить выпуск Recall для доработки, однако теперь на свет появилась новая проблема, на этот раз связанная с ИИ-ассистентом Copilot.

Тревожная статистика утечек

Исследование, проведённое компанией Concentric AI и опубликованное в рамках Доклада о рисках данных за 2025 год, показало шокирующие данные: только за первое полугодие 2025 года Copilot получал доступ почти к трём миллионам конфиденциальных документов в рамках одной организации. Эти цифры были собраны на основе данных клиентов Concentric AI и включают компании из таких сфер, как здравоохранение, финансовые услуги и государственный сектор.

Именно эти отрасли традиционно работают с огромным массивом личных данных, включая медицинские и финансовые записи. Отчёт наглядно демонстрирует, что сотрудники, имеющие дело с такой информацией, являются активными пользователями агентского ИИ, такого как Copilot. В среднем, по данным отчёта, в исследуемых организациях фиксировалось около 3000 взаимодействий с Copilot.

Что говорит Microsoft?

На своем официальном сайте Microsoft заявляет, что Copilot «соответствует нашим текущим обязательствам в области конфиденциальности, безопасности и соответствия требованиям, включая Общий регламент по защите данных (GDPR) и правила обработки данных в границах Европейского союза».

Компания также подчёркивает, что Copilot функционирует в рамках многоуровневой системы защиты. Однако ключевая проблема заключается в том, что если компания или организация не имеет специально разработанных правил и средств защиты, ИИ-ассистент потенциально может получить доступ к чувствительной информации. Это связано с тем, что данные о взаимодействиях между ИИ и пользователем сохраняются, включая конкретные запросы (промпты) и ответы Copilot.

Реальные риски для бизнеса и пользователей

По мере того как генеративный и агентский ИИ всё глубже внедряется в бизнес-процессы, Copilot может превратиться в канал для катастрофической утечки данных. Избежать этого можно только при условии, что компании разработают и внедрят специальные комплексные меры противодействия.

Недавние кибератаки на такие известные компании, как Marks & Spencer и Jaguar Land Rover, наглядно продемонстрировали уязвимость хранимых ими данных, которые могут включать домашние адреса, электронную почту, банковские реквизиты и пароли. Эти инциденты также показали, насколько даже крупнейшие корпорации могут быть парализованы на дни или даже недели из-за подобных взломов.

Если в будущем Copilot окажется точкой входа для подобных атак, это может нанести колоссальный ущерб ритейлерам, производителям и другим сервисным компаниям. Косвенными жертвами станут сотни тысяч людей, которые могут стать мишенью для мошенничества и кражи личных данных.

Экспертное мнение и рекомендации

С точки зрения ИТ-безопасности, основная проблема агентских ИИ-помощников, включая Copilot, заключается в их стремлении к максимальному контексту. Для того чтобы давать релевантные ответы, системе необходимо анализировать данные пользователя, что создаёт inherent conflict (внутренний конфликт) между удобством и конфиденциальностью.

Для российских компаний и пользователей эта новость является особенно актуальным предупреждением. Массовый переход на продукты с интегрированным ИИ требует пересмотра подходов к корпоративной безопасности. Недостаточно просто использовать сам инструмент — необходимо выстраивать целую инфраструктуру политик, регламентирующих его применение для работы с критически важной информацией.

Практическая рекомендация для бизнеса: прежде чем масштабировать использование Copilot или его аналогов, необходимо провести аудит безопасности, определить классификацию данных, к которым будет иметь доступ ИИ, и настроить соответствующие политики разграничения доступа. Для рядовых пользователей правило остаётся неизменным: не доверяйте персональные и чувствительные данные любому облачному ИИ-сервису без крайней необходимости и понимания того, как эти данные будут храниться и обрабатываться.

Ожидается, что давление со стороны регуляторов и общественности заставит вендоров, включая Microsoft, продолжать ужесточать настройки конфиденциальности по умолчанию. Однако главная ответственность за защиту данных по-прежнему лежит на конечном пользователе — как на корпоративном, так и на частном.

Источник

Вам также может понравиться

оставить комментарий