http://Top.Mail.Ru
Браузеры могут оснастить автопроверкой на дипфейки в 2022 году. Что это значит | Ямал-Медиа
02 мая 2022, 12:27

Браузеры могут оснастить автопроверкой на дипфейки в 2022 году. Что это значит

Инструменты для автоматического распознавания контента, сгенерированного с помощью дипфейк-технологий, могут появиться в браузерах и социальных сетях уже в 2022 году. «Ямал-Медиа» разбирался, чем опасны дипфейки и почему нам критически необходимы технологии по защите от них.

Автоматическая проверка

Российские IT-специалисты работают над созданием инструментов, которые позволят автоматически распознавать видеозаписи, созданные с помощью дипфейк-технологий, в браузерах и социальных сетях. Такую функцию планируют запустить в тестовом режиме в этом году, сообщил ТАСС.

Директор регионального инжинирингового центра SafeNet Национальной технологической инициативы (НТИ) Денис Кувиков рассказал, что сама технология распознавания дипфейков на рынке уже есть. Разработчики постоянно развивают сервисы и совершенствуют алгоритмы, чтобы сделать их более эффективными. Следующий этап — оснащение браузеров и соцсетей инструментами, которые позволяют автоматически проверить подлинность контента.

Это вопрос скорейшего времени. Функция такого рода может появиться в тестовом режиме уже в 2022 году, вполне вероятно, что менее чем через полгода мы увидим первые продукты

Денис Кувиков

директор регионального инжинирингового центра SafeNet Национальной технологической инициативы (НТИ)

Что такое дипфейк?

Слово «дипфейк» (deepfake) — производное от английских deep learning (глубокое обучение) и fake (подделка). Компьютерные алгоритмы научились «оживлять» изображения, совмещать их между собой, синтезировать голос человека. В результате появляются поддельные фото, видео и аудиозаписи, практически неотличимые от настоящих. Технология позволяет не только изменять изображения и голос существующих людей, но и создавать полностью синтетические личности, которых нет в реальности.

Теоретически программа может использоваться в благих целях, например, в киноиндустрии. С помощью искусственного интеллекта и нейросетей можно состарить или омолодить актера без помощи гримеров или синхронизировать движение губ при дубляже. Но чаще дипфейки применяют для создания фейковых новостей, финансового мошенничества, политического шантажа, порномести. Или в юмористических целях, как на видео ниже, где у актрисы Шарлиз Терон в рекламе Diоr голова мистера Бина с очень натуральной мимикой.

Чем опасны дипфейки?

Эксперт в области IT Артем Геллер объяснил «Ямал-Медиа», что дипфейк-технологии позволяют изменять любую графическую и аудиоинформацию. Это чревато тем, что людей можно легко ввести в заблуждение с разными целями.

В 2019 году мошенники провернули аферу с аудиофейком в Великобритании, написала газета The Wall Street Journal. С помощью искусственного интеллекта они сымитировали голос исполнительного директора крупной энергетической компании и поручили одному из сотрудников срочно перевести на сторонний счет 220 тысяч евро. Подделка была насколько удачной, что работник не усомнился в том, что говорил с начальником. В итоге деньги исчезли, а злоумышленников так и не удалось найти.

А вот еще один пример. Три года назад миллионы просмотров на YouTube набрало видео со спикером Палаты представителей США Нэнси Пелоси. Авторы фейка замедлили звуковую дорожку так, что Пелоси казалась пьяной. Фейк ретвитнул даже президент Дональд Трамп. Как написала Тhе Nеw Yоrk Тimеs, видео появилось в сети «на фоне особенно интенсивной публичной вражды между Трампом и Пелоси».

Артем Геллер добавил, что дипфейк-технологии сейчас активно применяют для создания фейковых новостей.

Эти инструменты настолько доступны для простых пользователей, не говоря о профессионалах, что мы уже видим фейки на каждом шагу. Особенно в условиях непростой информационной повестки, в частности спецоперации России, технология deepfake приобрела дополнительную силу. Значительная часть фейковых новостей, которые сейчас есть и которые сопровождаются визуальным контентом, созданы на основе дипфейк-технологий

Артем Геллер

эксперт в области IT

Внимание к проблеме привлекали уже не раз. Широко известно фейковое видео, которое создал режиссер Джордан Пил («Прочь», «Мы»). На нем экс-президент США Барак Обама говорит об опасности распространения ложных новостей и называет Дональда Трампа «полным кретином». На деле авторы создали цифрового двойника Обамы на основе его реальных выступлений. В конце видео Пил голосом Обамы призвал зрителей критически относиться ко всему, что они видят.

«На данном этапе дипфейк может вычислить профессионал, который работает в этой области. С видеороликами это монтажеры, с фотографиями — дизайнеры. Но для простого пользователя в свободном доступе таких инструментов сейчас нет, и это действительно хорошая инициатива, если они станут доступны широкому кругу пользователей. Я не удивлюсь, если гиганты индустрии, даже вне зависимости от браузера, станут помечать дипфейки в интернете, потому что технологически это возможно. Google, „Яндекс“, Mail.ru теоретически даже сейчас могут это делать», — заключил Артем Геллер.

Самые важные и оперативные новости — в нашем Telegram-канале «Ямал-Медиа».


Загрузка...