Минцифры научится разоблачать дипфейки. Чем опасны цифровые клоны людей?
Аналитик Ульянов объяснил, как специалисты распознают дипфейки
Минцифры найдет инструменты борьбы
Премьер-министр России Михаил Мишустин поручил Минцифры разработать способы выявления недостоверных фото, видео и текстов, созданных с помощью искусственного интеллекта. Министерство предложит свои наработки к 19 марта, сообщили «Известия».
Тему стремительного развития ИИ затронул и президент России Владимир Путин во время прямой линии. С вопросом о дипфейках к главе государства обратился студент из Петербурга. В ролике молодой человек изменил свою внешность с помощью ИИ, добившись поразительного сходства с главой государства. Путин отметил, что развитие искусственного интеллекта неизбежно, а значит, России нужно возглавить этот процесс.
Вполне возможно, что кабмин занялся разработкой способов разоблачения дипфейков после именно этого заявления президента, предположил главный специалист отдела комплексных систем защиты информации компании «Газинформсервис» Дмитрий Овчинников. Вероятно, кто-то из правительства разглядел риски для государства со стороны дипфейков, а в области ИИ именно власти должны задавать тренд на развитие, добавил он.
Чем опасны цифровые клоны
Опасность дипфейков в том, что они позволяют использовать облики известных личностей в интересах злоумышленников, объяснил «Ямал-Медиа» руководитель аналитического центра Zecurion Владимир Ульянов.
«Это не обязательно будет политик или какой-то бизнесмен, это может быть просто популярный блогер. Просто человек, за которым следят массы, большое количество других людей, подписчики. Более того, они, наверное, доверяют мнению этого известного человека», — отметил он.
Именно уровень доверия — краеугольный камень в этом вопросе. Любой мошенник мог бы сам попросить перевести ему деньги в видеоролике или призвать скачать определенное приложение, если бы завоевать признание было просто. Но на никому не известного человека никто не отреагирует, подчеркнул Ульянов.
«Если мы включаем публичную личность, то в любом случае, будет масса последователей. Именно поэтому публичные личности, известные люди снимаются в рекламе. <…> При этом, в уста дипфейка можно вложить вообще какие угодно посылы, вплоть до экстремистских и явно мошеннических».
Владимир Ульянов
руководитель аналитического центра Zecurion
Поэтому такая технология представляет серьезную угрозу. А, когда речь идет об известных людях с миллионной аудиторией, то такие проблемы заслуживают внимания со стороны государства.
Как выявляют дипфейки
Гарантированного способа выявить дипфейк пока нет. Но у специалистов есть технологии, которые замечают неестественные моменты в видеороликах, которые неуловимы для человеческого глаза, объяснил Ульянов. Но люди тоже занимаются такой работой.
«При этом может использоваться опыт эксперта, который внимательно наблюдает и замечает особенности, которые есть при создании видео и аудио, несоответствия, так и технические возможности. Например, программа находит какие-то нетипичные частоты, которые человек в принципе не может воспроизводить. Они сигнализируют о том, что это дипфейк. Или какие-то движения на видео, артефакты встречающиеся, позволяют с какой-то долей вероятности сказать, что это может быть подделка», — рассказал специалист.
Механизмы есть, но пока ясного единого алгоритма, который позволяет выявить дипфейк за несколько шагов, не создали. Технологии создания таких подделок тоже постоянно развиваются — если некачественную фальшивку легко определить, то результат серьезной работы практически неотличим от реального видео, обратил внимание Ульянов.
Если появится какая-то система, в которой обычные россияне смогут проверять контент на достоверность, будет хорошо. Однако пока непонятно, как ее создать, чтобы она работала эффективно и быстро.
«Теоретически, это возможно. К примеру, есть какой-то ресурс, куда загружаешь какой-то файл или даешь ссылку, он проверяет и выдает ответ, вердикт с какой-то вероятностью. Это нормальная техническая задача, над которой стоит подумать, как ее реализовать».
Владимир Ульянов
руководитель аналитического центра Zecurion
Проблема с постоянным изменением алгоритмов создания дипфейков все равно остается. Получается, что спустя какое-то время эти программы перестанут корректно отвечать на запросы. Владельцы сервисов для проверки должны будут нести ответственность за неправильные ответы, а со стороны пользователей может возникнуть негатив.
«Я воспользовался сервисом, он официальный, он должен был мне наверняка сказать, а из-за вас меня обманули. Тут может быть еще и юридически тонкий момент. <…> Поэтому неочевидно, как это сделать (создать общедоступный сервис для проверки дипфейков — прим. ред.)», — заключил Владимир Ульянов.
Самые важные и оперативные новости — в нашем телеграм-канале «Ямал-Медиа».