http://Top.Mail.Ru
«Раздевающие» нейросети и порно-дипфейки: когда и какие ИИ-сервисы хотят закрыть | Ямал-Медиа
30 января 2026, 06:19 (обновлено: 30 января 2026, 07:37)

Темная сторона ИИ: в России планируют запретить «раздевающие» нейросети

Депутаты Госдумы обратились в Роскомнадзор с инициативой ограничить работу нейросетей, создающих интимные изображения людей без их согласия. Парламентарии считают, что такие сервисы представляют серьезную угрозу для общества, поскольку могут использоваться для травли в школах и дискредитации учителей.

«Раздевающие» нейросети как угроза психологической безопасности

С предложением ограничить работу «раздевающих» нейросервисов обратился в Роскомнадзор вице-спикер Госдумы Борис Чернышов, пишут «Известия». Парламентарии бью тревогу — нейросети могут представлять серьезную угрозу для общества. При помощи искусственного интеллекта создаются картинки и видео, далекие от реальности, но очень похожие на нее, а иногда и неотличимые.

Наибольшую опасность такое «творчество» представляет в среде подростков или в учебных заведениях. Подобные технологии легко становятся орудием травли одноклассников, поскольку сгенерированные изображения можно использовать для унижения и психологического давления, говорится в депутатском обращении в Роскомнадзор.

Создание «голых» видео или фото может быть направлено на дискредитацию учителей, что способно подорвать авторитет педагогов и нанести ущерб воспитательной среде. Генерация и распространение такого контента без согласия человека приводит к психологическим травмам и создает риск для жизни и здоровья пострадавших, считает Борис Чернышов.

В Национальной родительской ассоциации признают наличие проблемы и просят запретить растлевающие ИИ-технологии. К вопросу подключился комитет Госдумы по защите семьи, вопросам отцовства, материнства и детства, который готовит свое обращение в Роскомнадзор с требованием скорейшего запрета «раздевающих» сервисов.

Чтобы реализовать инициативу, необходимо внести поправки в закон «О защите информации». Сами интернет-ресурсы предлагается вносить в черные списки, куда уже попадают сайты, пропагандирующие наркотики или детскую порнографию.

Кто виноват и что делать

Сейчас в Уголовном кодексе РФ предусмотрено наказание по статье 128 («Клевета»). Злоумышленника можно привлечь к ответственности за создание видео, порочащего честь и достоинство человека. Наказание по этой статье предусматривает до двух лет лишения свободы.

Статья 242 УК РФ («Изготовление порнографических материалов») предполагает более строгую ответственность — от двух до шести лет лишения свободы. Но о блокировке подобных ресурсов в законодательстве ничего не говорится. Специфика нейросетевых технологий сегодня не учтена в действующем законодательстве, что не позволяет эффективно пресекать работу подобных сервисов и создает условия для их безнаказанного распространения, считают в Госдуме.

Фото: ImageFlow/Shutterstock/Fotodom
Фото: ImageFlow/Shutterstock/Fotodom

Сегодня активно распространяются фейки — сгенерированные ИИ голоса или изображения, пояснил «Известиям» руководитель направления «Разрешение IT&IP споров» юридической фирмы «Рустам Курмаев и партнеры» Ярослав Шицле. Однако из-за отсутствия в законодательстве возможности дополнительной квалификации таких деяний не всех злоумышленников удается привлечь к ответственности.

Еще в 2024 году в Госдуму был внесен законопроект, который предполагал введение уголовной ответственности за подмену голоса или изображения человека, но он не был поддержан правительством и Верховным судом.

Сейчас для защиты россиян предлагается ограничить по всей стране распространение, рекламу и организацию доступа к онлайн-ресурсам, которые специализируются на создании изображений интимного характера человека без его согласия.

Уязвимые места искусственного интеллекта

В большинство сервисов-раздеваторов и чат-ботов для создания фейковых фото без одежды можно без оплаты за одну минуту загрузить снимок любого человека и получить результат. Для более качественного фото потребуется заплатить от 200 до 5 тысяч рублей в зависимости от количества снимков. Связаться с представителями этих сервисов невозможно, поскольку у многих из них работают боты.

Фото: VesnaArt/Shutterstock/Fotodom
Фото: VesnaArt/Shutterstock/Fotodom

У ИИ сегодня есть много различных направлений: нейросети, генерация фото и видео, анализ большого объема данных и другие, пояснил в беседе с «Ямал-Медиа» эксперт по информационным технологиям, директор и партнер «ИТ-Резерв» Павел Мясоедов. «Сейчас искусственный интеллект условно делят на несколько слоев. Генеративный ИИ создает контент на основе информации, которую долго изучал. Чем лучше прописана формула и построена логика, тем качественнее будет контент», — говорит он.

Генеративный искусственный интеллект — это первый слой, который функционирует на базе Big Data (больших данных). Примерно год назад Илон Маск заявил, что человечество подошло к пределу развития этого направления, напомнил ИТ-эксперт.

«Следующий концептуальный слой ИИ — это лингвистические модели, делающие его удобным для пользователя. Благодаря им работают, например, «умные» колонки. Именно лингвистические модели создают иллюзию того, что искусственный интеллект очень умный. Задавая вопрос ИИ, мы получаем красиво завернутый текст с правильными знаками препинания и интересными оборотами речи, но при некорректных запросах или отсутствии данных он может выдать чушь», — отмечает Павел Мясоедов.

Нейросети, «раздевающие» людей, работают по сходному принципу. Только подключаются формулы, способствующие созданию графических изображений, пояснил специалист. «Хорошо пропиарился Grok, просто сняв на некоторое время определенные ограничения в системе, чтобы она делала что-то вирусное, что окажется у всех на слуху. А потом работу сервиса привели к стандартам, соответствующим нормам морали. Но цель достигнута — все услышали и заговорили про нейросеть Маска», — напомнил эксперт о недавнем скандале.

Фото: metamorworks/Shutterstock/Fotodom
Фото: metamorworks/Shutterstock/Fotodom

По словам эксперта, в интернет-моделях есть определенные барьеры. Специалисты ставят их искусственному интеллекту и указывают, в какую сторону ему надо двигаться и развиваться. Если бы этого не происходило, искусственный интеллект мог бы генерировать призывы к противоправным действиям.

«Благодаря специально созданным преградам ИИ не развивается в направлениях, опасных для человечества. Он не будет отвечать на провокационные вопросы — для получения такого отклика потребуется действовать в обход его логики. Однако установленные барьеры можно снимать».

Павел Мясоедов

эксперт по информационным технологиям, директор и партнер компании «ИТ-Резерв»

Генерация картинок имеет встроенную цензуру, поэтому нет тотальной деградации этой отрасли, отмечает специалист. «Некоторые нейросети настраивают индивидуально под задачи компании, к ним можно получить доступ через открытые API. Поэтому можно делать доработки поверх уже существующей логики либо получать более профессиональные версии, где ограничений будет меньше. Раздевать искусственный интеллект, скорее всего, больше никого не будет. Однако вполне может сохраниться логика, недоступная для всех», — считает Павел Мясоедов.

Мировая практика

Распространение порнодипфейков достигло значительных масштабов. На начало 2024 года насчитывалось более 9 тысяч онлайн-ресурсов, предоставляющих доступ к такому контенту, рассказал «Известиям» директор департамента расследований T.Hunter Игорь Бедеров.

По его словам, только с I по III квартал 2025 года объем подобных материалов в российском сегменте увеличился втрое по сравнению с аналогичным периодом 2024-го. Причем произошел резкий рост: с 500 тысяч в 2023-м до 8 млн два года спустя. Особенно настораживает экспертов появление уникальных токенов (NFT) с изображением ненастоящих интимных сцен, где главными героями становятся известные личности.

Фото: Ipatov/Shutterstock/Fotodom
Фото: Ipatov/Shutterstock/Fotodom

Ситуация с распространением таких ИИ-технологий вызывает тревогу и в других странах. Причиной послужила серия скандалов, связанных с нейросетью Grok от xAI, которая начала использовать технологию по «раздеванию» людей. В Индонезии и Малайзии доступ к инструменту Grok уже заблокирован. В ЕС рассматривают введение запрета на подобные приложения. В США одобрен законопроект, позволяющий жертвам обращаться в суды против создателей фальшивых интимных изображений. В Великобритании ввели уголовное наказание за изготовление таких материалов без разрешения владельца внешности. 

По мнению главного редактора IT-издания Runet Владимира Зыкова, для регулирования деятельности таких ресурсов необходимо внести поправки в закон «О защите информации» и заносить эти сервисы в черные списки наряду с пропагандирующими наркотики или детскую порнографию.

Важно предусмотреть, чтобы под блокировки не попали обычные сервисы для редактирования фото и видео, предостерегает Зыков. Стоит отдельно указать, что меры касаются именно сервисов, предназначенных для создания «взрослого» контента.

Ранее мы писали о том, что Роскомнадзор намерен блокировать VPN и фильтровать трафик при помощи ИИ.

Самые важные и оперативные новости — в нашем телеграм-канале «Ямал-Медиа».


Загрузка...