«Пока надо дать ему развиваться». Пришло ли время ограничивать искусственный интеллект
Евросоюз разрабатывает ограничения для использования ИИ-технологий
Закон об ИИ
Европейский союз готовит закон, регулирующий применение искусственного интеллекта. 11 мая Европарламент поддержал проект, за которым закрепилось название AI Act. Если его в конечном итоге примут, европейские страны введут беспрецедентные меры контроля над стремительно развивающимися технологиями.
Дискуссии о регулировании ИИ идут с 2021 года. Европейские власти признают огромный потенциал новых технологий в здравоохранении, энергетике, кибербезопасности и других общественных сферах, но считают необходимым закрепить стандарты этичного применения ИИ.
Проект предлагает делить все ИИ-системы на четыре категории в зависимости от уровня риска: от минимального до недопустимого. Для каждой группы предусмотрены свои правила и критерии оценки рисков. Например, системы распознавания лиц в ЕС получат высокую степень риска: требования к ним будут наиболее строгими, а сбор биометрии через соцсети и камеры наблюдения могут вообще запретить.
Риски ИИ
Оценить все возможные риски, которые могут заключаться в технологиях искусственного интеллекта, довольно сложно: на эту тему снят не один десяток фильмов, написаны книги и научные статьи. И события недавнего времени доказывают, что многое становится реальностью.
В мае китайские правоохранители задержали мужчину за распространение фейковых новостей, теперь ему грозит до 10 лет тюрьмы. Он создал новость о крушении поезда и гибели людей, она вышла сразу в 20 аккаунтах на блог-платформе Baijahao. Чтобы распространить фейк, китаец воспользовался чат-ботом ChatGPT, сообщило издание The Verge.
Попытки урегулировать применение ИИ были и на уровне корпораций, написало агентство Bloomberg. Так, южнокорейская компания Samsung под угрозой увольнения запретила служащим использовать ChatGPT в работе, опасаясь утечек информации с корпоративных устройств.
Развитие ИИ в России
«Яндекс» первым в мире внедрил большую языковую модель нового поколения YandexGPT в виртуального помощника «Алису». Теперь она может выполнять творческие задачи: сочинять тексты, строить планы путешествий, предлагать идеи. В пресс-службе компании рассказали «Ямал-Медиа», что голосового помощника обучали только на собственных базах данных «Яндекса».
Встроенную в «Алису» нейросеть YandexGPT обучали в два этапа. Сначала ей показали общедоступные тексты: материалы книг, сайтов и статей. Это позволило нейросети впитать знания о мире. Затем нужно было научить нейросеть отвечать просто и понятно, как это сделал бы знающий человек. Для этого мы собрали сотни тысяч примеров содержательных и хорошо написанных ответов с помощью технологий краудсорсинга и команды AI-тренеров.
Виктория Малярова
пресс-служба компании «Яндекс»
На вопрос о том, предусмотрены ли в YandexGPT какие-либо механизмы защиты от создания фейков, в «Яндексе ответили, что «Алиса» помогает человеку придумать различные варианты ответов на его запрос, но решение о том, как их применить, принимает сам пользователь.
Эксперт по кибербезопасности Алексей Курочкин выразил мнение, что тема с ChatGPT и другими языковыми моделями «раздута».
«Читая новостные ленты, я вижу, где писал искусственный интеллект, а где человек. Нотки машинного текста все равно проскакивают. Мне кажется, это просто модная тема, на которой все пытаются создавать информационные поводы. Этот чат не настолько уникален, чтобы его как-то ограничивать. Пока надо дать ему развиваться», — отметил Курочкин.
Однако он признал, что регулировать использование ИИ так или иначе придется.
«Для этого у нас существует законодательная власть, которая следит за развитием жизни и постепенно принимает регулирующие акты», — заключил эксперт.
Самые важные и оперативные новости — в нашем телеграм-канале «Ямал-Медиа».