Запретить нельзя использовать: как сотрудники передают секреты компаний нейросетям
Благие намерения, опасные последствия
Сотрудники российских компаний, сами того не подозревая, стали главными каналами утечек корпоративных секретов. По данным исследования ГК «Солар», за последний год объем служебной информации, отправляемой в публичные нейросети, вырос в 30 раз, пишут «Известия». При этом 60% организаций не имеют регламентов по использованию ИИ.
Согласно одному из опросов, каждый пятый работник делился с искусственным интеллектом конфиденциальной информацией. Данные исследования приводил ТАСС в ноябре 2025 года.
Так, программисты отправляют фрагменты кода и служебные ключи, бухгалтеры и юристы загружают финансовые отчеты и договоры, маркетологи делятся базами клиентов и стратегиями продвижения, а аналитики используют ИИ для работы с внутренними презентациями и расчетами. Отмечается, что специалисты в сфере информационных технологий, которые должны лучше всех понимать риски, нарушают правила чаще других. При этом почти половина всех утечек (46%) проходит через ChatGPT. Эксперты подчеркивают, что в основе проблемы лежит не злой умысел, а желание работать эффективнее.
Причин утечек несколько. Во-первых, у компаний часто нет своих безопасных нейросетей, которые можно было бы использовать вместо публичных. Во-вторых, на сотрудников давит необходимость быстро выполнять задачи. В-третьих, у людей возникает ошибочное чувство безопасности — сотрудники могут тщательно охранять персональные данные клиентов, но не видят угрозы в загрузке коммерческой стратегии или фрагмента кода.
В итоге компании столкнулись с парадоксальной ситуацией: сотрудник, стремясь работать эффективнее, сам создает главную угрозу безопасности бизнеса, безвозвратно отправляя конфиденциальные данные за корпоративный периметр.
Куда уходят секреты, переданные ИИ
Попав в публичные сервисы, конфиденциальная информация начинает жить собственной жизнью. В итоге секреты могут оказаться в разных местах.
- У владельцев сервиса
По условиям использования публичных нейросетей, например, ChatGPT или Gemini, запросы и файлы пользователей могут применяться для дообучения моделей, а уникальный код, формулировки договоров или структура отчета становятся частью знаний ИИ. Удалить эту информацию из модели невозможно. Более того, эти данные могут использоваться в исследовательских и маркетинговых целях.
- У других пользователей
Информация, попавшая в модель, может появиться в ответе другому пользователю. Технически нейросеть может сгенерировать цитату из внутреннего документа в ответ на чужой запрос.
- У киберпреступников
Злоумышленники активно используют техники «инъекций промптов». Они задают нейросети специально составленные запросы, чтобы обойти ее этические ограничения и извлечь из нее конфиденциальные сведения, которые ранее загрузили другие пользователи. Это превращает публичный ИИ-сервис в потенциальный архив корпоративных секретов.
«Иногда такие утечки бывают, и защититься сложно. Промпт составляется таким образом, что информация запрашивается обезличенно, но все вводные данные при этом указывают на ту или иную организацию», — пояснил «Ямал-Медиа» эксперт по информационным технологиям Павел Мясоедов.
- В интернете
Риски усугубляются ошибками в самих платформах, и информация может утечь в общий доступ из-за сбоев. Например, в корпоративном ИИ-помощнике Copilot из-за ошибок в настройках прав доступа конфиденциальные документы стали доступны не тем сотрудникам внутри организаций. В масштабах публичного сервиса подобные инциденты могут иметь серьезные последствия.
Реальные примеры уже есть. Инженеры Samsung трижды за 2023 год загружали в ChatGPT секретный исходный код и протоколы совещаний, что привело к временному запрету ИИ в компании. В 2025 году исполняющий обязанности главы американского агентства по кибербезопасности выложил в публичный ChatGPT служебные документы.
Почему запрет ИИ — тупик
Генеративный ИИ уже стал рабочим инструментом, как когда-то интернет или Excel. Полная блокировка доступа к публичным нейросетям не решает проблему утечек, а усугубляет ее. Такой запрет лишает компании инструментов повышения эффективности и провоцирует сотрудников искать обходные пути, создавая новую, еще более опасную «теневую IT-инфраструктуру».
«ФСТЭК (Федеральная служба по техническому и экспортному контролю — Прим. ред.) пока рекомендует госорганам просто блокировать обращение к нейросетям, компании же начинают задумываться о более гибких политиках», — сказала руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник.
Сотрудники, привыкшие к ChatGPT для решения рабочих задач, не откажутся от него. Вместо этого они начнут использовать личные устройства и публичные сети для доступа к нейросетям, что сделает утечки данных полностью неконтролируемыми. «Блокировка, конечно, является кардинальным решением проблемы, но, с другой стороны, можно понять и бизнес, перед которым сейчас стоит масса вызовов и задач по сокращению затрат», — добавила Хвещеник.
Три элемента защиты
Эксперты по кибербезопасности сходятся во мнении, что для защиты от утечек через ИИ необходим комплексный подход. Он должен включать три обязательных элемента.
- Правила и обучение
Без этого технические средства не будут работать эффективно. Необходимо создать и внедрить четкие внутренние регламенты, которые прямо запрещают загружать конфиденциальную информацию (код, отчеты, клиентские данные) в публичные нейросети. Важно не просто издать приказ, а регулярно обучать сотрудников на реальных кейсах.
- Технический контроль
DLP-системы нового поколения могут анализировать трафик и блокировать попытки отправить конфиденциальные данные в ИИ-сервисы. Дополнительный уровень защиты обеспечивают прокси-шлюзы, которые централизуют и фильтруют весь корпоративный трафик с нейросетями.
- Безопасная альтернатива
Чтобы сотрудники не искали обходные пути, компаниям нужны легальные инструменты. Так, подойдут отечественные сервисы (GigaChat, YaLM), которые отвечают требованиям закона 152-ФЗ о локализации данных. Для более серьезной защиты можно развернуть корпоративную нейросеть. Доступным компромиссом считается гибридная модель: данные хранятся у компании, а вычислительные мощности — у провайдера. Максимальную безопасность дает полное локальное развертывание, когда и данные, и модель находятся на своих серверах. Это дорого, но дает полный контроль.
Будущее ИИ в России
Правовая база для ИИ в России только формируется. В августе 2025 года Министерство цифрового развития представило проект Концепции регулирования искусственного интеллекта до 2030 года.
В ней предлагается «гибридный подход», то есть часть правил будет писать государство, а часть — сами технологические компании. Также планируется расширить так называемые «песочницы». Это экспериментальные правовые режимы, в которых разработчикам временно упрощают требования законодательства, чтобы они могли быстрее и проще тестировать новые технологии. Однако проектом пока не решен главный вопрос: кто и как будет отвечать, если действия ИИ причинят кому-то ущерб.
Этот проект дополнит уже действующие документы: Национальную стратегию развития ИИ и закон 152-ФЗ «О персональных данных», требующий хранить данные россиян в России. Для госучреждений и важных объектов уже вводят стандарты безопасности. В будущем их могут обязать устанавливать «красную кнопку» для аварийного отключения ИИ и «черный ящик» для записи всех его решений.
Что говорит эксперт
Эксперт по информационным технологиям, директор и партнер компании «ИТ-Резерв» Павел Мясоедов подтвердил «Ямал-Медиа», что данные, попавшие в большую языковую модель, остаются в ней навсегда. «Вытащить ее оттуда теоретически возможно, но на практике это нереализуемо», — уточнил эксперт.
Объем корпоративных запросов к ИИ вырос в десятки раз, но бизнес не всегда понимает, как совместить рост эффективности с безопасностью. «Утекает все — от персональных данных, в нарушение закона 152-ФЗ, до информации для служебного пользования, потому что сотрудники закачивают туда целые документы», — говорит Мясоедов.
Основной получатель этих данных — операторы моделей, такие как OpenAI или Яндекс, которые могут использовать информацию не только для обучения ИИ, но и в маркетинговых целях. Особую опасность эксперт видит в загрузке целых файлов: «Люди запрашивают у ИИ, чтобы она разобрала информацию внутри. Они решают свой какой-то узкий вопрос, но ИИ передается весь массив информации».
Наиболее эффективным способом защиты Мясоедов также считает DLP-системы. «Это универсальная система защиты, и она помогает в вопросах, связанных с работой с ИИ», — говорит он. Полная блокировка нейросетей тоже применяется, но может снижать эффективность работы, поэтому нужен «баланс и маневрирование между крайностями».
Пока потери чаще репутационные, так как доказать утечку именно через ИИ сложно. «Очень тяжело доказать, что ИИ эту информацию в себя впитало. Практически случаев финансовых потерь мы не видим, но они точно будут появляться в будущем», — прогнозирует эксперт. Отдельно он отметил, что говорить о большей безопасности отечественных нейросетей нельзя. «Сказать, что какая-то опаснее, какая-то безопаснее — вряд ли. Нейросети — это автономные механизмы, которые иногда в своей автономности могут зайти слишком далеко».
Эксперт отметил, что в ближайший год количество запросов к ИИ продолжит расти, регуляторы будут искать инструменты контроля, а компаниям придется активнее внедрять меры защиты данных.
Ранее «Ямал-Медиа» рассказывал про Теорию мертвого интернета — что это такое, как распознать живого собеседника, а также собрали основные признаки, по которым можно вычислить бота.
Самые важные и оперативные новости — в нашем телеграм-канале «Ямал-Медиа».