http://Top.Mail.Ru
Как сотрудники сливают секреты ИИ: коммерческая тайна используется нейросетями | Ямал-Медиа
10 февраля 2026, 06:21 (обновлено: 10 февраля 2026, 06:55)

Запретить нельзя использовать: как сотрудники передают секреты компаний нейросетям

Объем корпоративных данных, которые сотрудники российских компаний отправляют на публичные ИИ-сервисы, за последний год вырос в 30 раз. Каждый пятый работник признается, что делился с ИИ конфиденциальными данными. Почему желание работать быстрее оборачивается главной угрозой безопасности и как решить эту проблему — в материале «Ямал-Медиа».

Благие намерения, опасные последствия

Сотрудники российских компаний, сами того не подозревая, стали главными каналами утечек корпоративных секретов. По данным исследования ГК «Солар», за последний год объем служебной информации, отправляемой в публичные нейросети, вырос в 30 раз, пишут «Известия». При этом 60% организаций не имеют регламентов по использованию ИИ.

Согласно одному из опросов, каждый пятый работник делился с искусственным интеллектом конфиденциальной информацией. Данные исследования приводил ТАСС в ноябре 2025 года.

Так, программисты отправляют фрагменты кода и служебные ключи, бухгалтеры и юристы загружают финансовые отчеты и договоры, маркетологи делятся базами клиентов и стратегиями продвижения, а аналитики используют ИИ для работы с внутренними презентациями и расчетами. Отмечается, что специалисты в сфере информационных технологий, которые должны лучше всех понимать риски, нарушают правила чаще других. При этом почти половина всех утечек (46%) проходит через ChatGPT. Эксперты подчеркивают, что в основе проблемы лежит не злой умысел, а желание работать эффективнее.

Фото: Summit Art Creations/Shutterstock/Fotodom
Фото: Summit Art Creations/Shutterstock/Fotodom

Причин утечек несколько. Во-первых, у компаний часто нет своих безопасных нейросетей, которые можно было бы использовать вместо публичных. Во-вторых, на сотрудников давит необходимость быстро выполнять задачи. В-третьих, у людей возникает ошибочное чувство безопасности — сотрудники могут тщательно охранять персональные данные клиентов, но не видят угрозы в загрузке коммерческой стратегии или фрагмента кода.

В итоге компании столкнулись с парадоксальной ситуацией: сотрудник, стремясь работать эффективнее, сам создает главную угрозу безопасности бизнеса, безвозвратно отправляя конфиденциальные данные за корпоративный периметр.

Куда уходят секреты, переданные ИИ

Попав в публичные сервисы, конфиденциальная информация начинает жить собственной жизнью. В итоге секреты могут оказаться в разных местах.

  • У владельцев сервиса

По условиям использования публичных нейросетей, например, ChatGPT или Gemini, запросы и файлы пользователей могут применяться для дообучения моделей, а уникальный код, формулировки договоров или структура отчета становятся частью знаний ИИ. Удалить эту информацию из модели невозможно. Более того, эти данные могут использоваться в исследовательских и маркетинговых целях.

  • У других пользователей

Информация, попавшая в модель, может появиться в ответе другому пользователю. Технически нейросеть может сгенерировать цитату из внутреннего документа в ответ на чужой запрос.

  • У киберпреступников

Злоумышленники активно используют техники «инъекций промптов». Они задают нейросети специально составленные запросы, чтобы обойти ее этические ограничения и извлечь из нее конфиденциальные сведения, которые ранее загрузили другие пользователи. Это превращает публичный ИИ-сервис в потенциальный архив корпоративных секретов.

«Иногда такие утечки бывают, и защититься сложно. Промпт составляется таким образом, что информация запрашивается обезличенно, но все вводные данные при этом указывают на ту или иную организацию», — пояснил «Ямал-Медиа» эксперт по информационным технологиям Павел Мясоедов.

Фото: Golden Dayz/Shutterstock/Fotodom
Фото: Golden Dayz/Shutterstock/Fotodom
  • В интернете

Риски усугубляются ошибками в самих платформах, и информация может утечь в общий доступ из-за сбоев. Например, в корпоративном ИИ-помощнике Copilot из-за ошибок в настройках прав доступа конфиденциальные документы стали доступны не тем сотрудникам внутри организаций. В масштабах публичного сервиса подобные инциденты могут иметь серьезные последствия.

Реальные примеры уже есть. Инженеры Samsung трижды за 2023 год загружали в ChatGPT секретный исходный код и протоколы совещаний, что привело к временному запрету ИИ в компании. В 2025 году исполняющий обязанности главы американского агентства по кибербезопасности выложил в публичный ChatGPT служебные документы.

Почему запрет ИИ — тупик

Генеративный ИИ уже стал рабочим инструментом, как когда-то интернет или Excel. Полная блокировка доступа к публичным нейросетям не решает проблему утечек, а усугубляет ее. Такой запрет лишает компании инструментов повышения эффективности и провоцирует сотрудников искать обходные пути, создавая новую, еще более опасную «теневую IT-инфраструктуру».

«ФСТЭК (Федеральная служба по техническому и экспортному контролю — Прим. ред.) пока рекомендует госорганам просто блокировать обращение к нейросетям, компании же начинают задумываться о более гибких политиках», — сказала руководитель продукта Solar webProxy ГК «Солар» Анастасия Хвещеник.

Фото: NMStudio789/Shutterstock/Fotodom
Фото: NMStudio789/Shutterstock/Fotodom

Сотрудники, привыкшие к ChatGPT для решения рабочих задач, не откажутся от него. Вместо этого они начнут использовать личные устройства и публичные сети для доступа к нейросетям, что сделает утечки данных полностью неконтролируемыми. «Блокировка, конечно, является кардинальным решением проблемы, но, с другой стороны, можно понять и бизнес, перед которым сейчас стоит масса вызовов и задач по сокращению затрат», — добавила Хвещеник.

Три элемента защиты

Эксперты по кибербезопасности сходятся во мнении, что для защиты от утечек через ИИ необходим комплексный подход. Он должен включать три обязательных элемента.

  • Правила и обучение

Без этого технические средства не будут работать эффективно. Необходимо создать и внедрить четкие внутренние регламенты, которые прямо запрещают загружать конфиденциальную информацию (код, отчеты, клиентские данные) в публичные нейросети. Важно не просто издать приказ, а регулярно обучать сотрудников на реальных кейсах.

  • Технический контроль

DLP-системы нового поколения могут анализировать трафик и блокировать попытки отправить конфиденциальные данные в ИИ-сервисы. Дополнительный уровень защиты обеспечивают прокси-шлюзы, которые централизуют и фильтруют весь корпоративный трафик с нейросетями.

Фото: Sittipol sukuna/Shutterstock/Fotodom
Фото: Sittipol sukuna/Shutterstock/Fotodom
  • Безопасная альтернатива

Чтобы сотрудники не искали обходные пути, компаниям нужны легальные инструменты. Так, подойдут отечественные сервисы (GigaChat, YaLM), которые отвечают требованиям закона 152-ФЗ о локализации данных. Для более серьезной защиты можно развернуть корпоративную нейросеть. Доступным компромиссом считается гибридная модель: данные хранятся у компании, а вычислительные мощности — у провайдера. Максимальную безопасность дает полное локальное развертывание, когда и данные, и модель находятся на своих серверах. Это дорого, но дает полный контроль.

Будущее ИИ в России

Правовая база для ИИ в России только формируется. В августе 2025 года Министерство цифрового развития представило проект Концепции регулирования искусственного интеллекта до 2030 года.

В ней предлагается «гибридный подход», то есть часть правил будет писать государство, а часть — сами технологические компании. Также планируется расширить так называемые «песочницы». Это экспериментальные правовые режимы, в которых разработчикам временно упрощают требования законодательства, чтобы они могли быстрее и проще тестировать новые технологии. Однако проектом пока не решен главный вопрос: кто и как будет отвечать, если действия ИИ причинят кому-то ущерб.

Фото: Gorodenkoff/Shutterstock/Fotodom
Фото: Gorodenkoff/Shutterstock/Fotodom

Этот проект дополнит уже действующие документы: Национальную стратегию развития ИИ и закон 152-ФЗ «О персональных данных», требующий хранить данные россиян в России. Для госучреждений и важных объектов уже вводят стандарты безопасности. В будущем их могут обязать устанавливать «красную кнопку» для аварийного отключения ИИ и «черный ящик» для записи всех его решений.

Что говорит эксперт

Эксперт по информационным технологиям, директор и партнер компании «ИТ-Резерв» Павел Мясоедов подтвердил «Ямал-Медиа», что данные, попавшие в большую языковую модель, остаются в ней навсегда. «Вытащить ее оттуда теоретически возможно, но на практике это нереализуемо», — уточнил эксперт.

Объем корпоративных запросов к ИИ вырос в десятки раз, но бизнес не всегда понимает, как совместить рост эффективности с безопасностью. «Утекает все — от персональных данных, в нарушение закона 152-ФЗ, до информации для служебного пользования, потому что сотрудники закачивают туда целые документы», — говорит Мясоедов.

Основной получатель этих данных — операторы моделей, такие как OpenAI или Яндекс, которые могут использовать информацию не только для обучения ИИ, но и в маркетинговых целях. Особую опасность эксперт видит в загрузке целых файлов: «Люди запрашивают у ИИ, чтобы она разобрала информацию внутри. Они решают свой какой-то узкий вопрос, но ИИ передается весь массив информации».

Фото: metamorworks/Shutterstock/Fotodom
Фото: metamorworks/Shutterstock/Fotodom

Наиболее эффективным способом защиты Мясоедов также считает DLP-системы. «Это универсальная система защиты, и она помогает в вопросах, связанных с работой с ИИ», — говорит он. Полная блокировка нейросетей тоже применяется, но может снижать эффективность работы, поэтому нужен «баланс и маневрирование между крайностями».

Пока потери чаще репутационные, так как доказать утечку именно через ИИ сложно. «Очень тяжело доказать, что ИИ эту информацию в себя впитало. Практически случаев финансовых потерь мы не видим, но они точно будут появляться в будущем», — прогнозирует эксперт. Отдельно он отметил, что говорить о большей безопасности отечественных нейросетей нельзя. «Сказать, что какая-то опаснее, какая-то безопаснее — вряд ли. Нейросети — это автономные механизмы, которые иногда в своей автономности могут зайти слишком далеко».

Эксперт отметил, что в ближайший год количество запросов к ИИ продолжит расти, регуляторы будут искать инструменты контроля, а компаниям придется активнее внедрять меры защиты данных.

Ранее «Ямал-Медиа» рассказывал про Теорию мертвого интернета — что это такое, как распознать живого собеседника, а также собрали основные признаки, по которым можно вычислить бота.

Самые важные и оперативные новости — в нашем телеграм-канале «Ямал-Медиа».


Загрузка...