Самозащита от фейков: как распознать следы нейросетей в текстах, фото и видео
IT-эксперт Геллер: самостоятельно почти невозможно распознать качественный ИИ-контент
Глаз наметан
Общедоступность технологий искусственного интеллекта привела к тому, что студенты начали использовать нейросети при написании научных работ. В России уже был подобный случай, когда студент успешно защитил выпускной диплом, написанный ChatGPT.
Ученые из РТУ МИРЭА провели эксперимент, чтобы выяснить, как развитие технологий искусственного интеллекта повлияло на оценку знаний студентов. В исследовании участвовали 20 преподавателей и более 200 студентов, сообщил сайт RT.
Половине учащихся нужно было написать научную работу с помощью ИИ-сервисов: ChatGPT, TurboText, AI Search, Gerwin AI, «Балабола». В 96% случаев преподаватели поняли, что тексты писал не человек. А материалы, в которых они не заметили участия ИИ, как оказалось, были хорошо отредактированы авторами.
Как распознать ИИ-контент
В ходе исследования МИРЭА преподаватели обращали внимание на орфографические и стилистические особенности текстов. О том, что к их созданию причастен ИИ, может говорить отсутствие ошибок и опечаток, множество повторов, логические и фактические ошибки. Чаще всего нейросети отвечают на запросы компиляцией чужих текстов, так что в их работах нет авторских суждений и выводов.
Эксперт в области IT, главный разработчик сайта Kremlin.ru Артем Геллер рассказал «Ямал-Медиа», что зачастую на сгенерированных фото и видео можно увидеть признаки работы ИИ, если их создатели не хотели тратить ресурсы на качество результата. Искусственный контент могут выдать нереалистичное поведение или дублирующиеся элементы (вплоть до шести пальцев на руках).
«Если же создатели старались и подходили к процессу серьезно, распознать сгенерированный контент практически невозможно даже профессионалам», — отметил Геллер.
По словам специалиста, в открытом доступе существуют программы и алгоритмы, которые могут распознавать сгенерированный контент. Но не всякий человек может разобраться в них, поскольку для этого необходима IT-подготовка. Это непростой процесс, недоступный обывателю, добавил эксперт.
Вечная борьба
Артем Геллер сравнил процесс распознавания контента, написанного или отредактированного нейросетью, с борьбой с вирусами. Появляются все новые алгоритмы, которые создают такие тексты, фото и видео, и программы, которые распознают сгенерированные элементы по определенным признакам.
«Человечество еще не решило, что с этим делать. Мы открываем ящик Пандоры. Эти элементы и раньше были, например, фальшивомонетчики, да и фотографии в газетах и журналах редактировались. Но это не было в таких масштабах доступно, модно и актуально. Сейчас мы будем сначала всему верить, а потом с большим скепсисом относиться к любой информации, даже правдивой».
Артем Геллер
эксперт в области IT, главный разработчик сайта Kremlin.ru
В будущем, по мнению Геллера, использование сгенерированного контента будет регламентироваться на законодательном уровне. Также эксперт ожидает, что алгоритмы начнут выявлять базовое поведение нейросетей и с большей вероятностью определять ИИ-контент. Не исключено, что такие алгоритмы будут встроены в браузеры, чтобы предупреждать пользователей о возможных фейках.
Самые важные и оперативные новости — в нашем телеграм-канале «Ямал-Медиа».