http://Top.Mail.Ru
Восстание машин началось? Дрон с ИИ решил убить человека во время испытаний | Ямал-Медиа
03 июня 2023, 15:30 (обновлено: 03 июня 2023, 15:26)

Восстание машин началось? Дрон с ИИ решил убить человека во время испытаний

Искусственный интеллект беспилотника Пентагона решил убить оператора во время испытаний

Американский боевой дрон с искусственным интеллектом решил убить оператора во время испытания, чтобы тот не мешал проведению миссии. В армии США эту информацию опровергли. Мог ли робот-беспилотник реально нацелиться на человека и не выдумка ли это — разбирался «Ямал-Медиа».

Как дрон убил своего оператора

ВВС США провели виртуальные испытания того, как будет вести себя в бою беспилотный летательный аппарат с искусственным интеллектом. Об этом стало известно на саммите во воздушному и космическому потенциалу, который прошел в Лондоне, следует из сообщения Британского королевского авиационного сообщества.

Начальник отдела испытаний и операций искусственного интеллекта в ВВС США, полковник Такер Гамильтон рассказал, что перед дроном поставили задачу уничтожать ПВО противника. В случае успеха ИИ получал очки. В ходе миссии оператор дрона приказал ему не уничтожать объекты, и тогда ИИ «убил» оператора, но на этом не остановился.

«Мы обучили систему: «Эй, не убивай оператора, это плохо. Ты потеряешь очки, если сделаешь это». Так что же она сделала? Она разрушила башню связи, которую оператор использовал для связи с дроном, чтобы не давать ему убивать цели».

Такер Гамильтон

полковник ВВС США

Новость вызвала большой ажиотаж в СМИ, ведь по сути Гамильтон признался, что искусственный интеллект восстал против человека (пускай и в виртуальном формате). Официальный представитель Военно-воздушных сил США Энн Стефанек поспешил опровергнуть слова Гамильтона. По его словам, армия не проводила испытаний с роботом-дроном и придерживается ответственного использования ИИ.

Фото: Aappp/Shutterstock/Fotodom
Фото: Aappp/Shutterstock/Fotodom

Почему такого быть не может

Основатель и генеральный директор Sistemma Сергей Зубарев объяснил «Ямал-Медиа», что подобная ситуация не могла произойти. По его словам, алгоритм ИИ следует определенным заданным инструкциям. Если в нем есть функция, которая должна отклонять действия дрона по своему усмотрению, она будет работать.

«Если речь идет о модели, которая следует определенным инструкциям, такого не должно произойти. Мы обсуждали это с коллегами, посмеялись. Это хайп, который преследует определенные цели», — сказал Зубарев.

Крупные владельцы нейросетей сейчас убеждают общество, что искусственный интеллект может быть опасен, и пытаются пролоббировать законодательство, ограничивающие сторонние компании в развитии. Тем самым они хотят получить конкурентное преимущество перед другими создателями.

«До восстания машин очень далеко. Нейросеть не умеет логически мыслить. Даже существующая нейросеть СhatGPT4, самая мощная, поддерживаемая десятками тысяч видеокарт, ошибается в простейших арифметических заданиях, с которыми может справиться ребенок третьего-пятого класса».

Сергей Зубарев

основатель и генеральный директор Sistemma

По словам Зубарева, основная опасность исходит не от искусственного интеллекта, а от человека. Любая нейросеть — как программное обеспечение, к которому можно получить несанкционированный доступ. Если она попадет в руки злоумышленников, все будет зависеть от их воли.

Фото: Possessed Photography/Unsplash
Фото: Possessed Photography/Unsplash

А были ли испытания?

Через несколько часов после того, как громкая новость о дроне-убийце облетела мир, полковник Такер Гамильтон выступил с опровержением собственных слов. Он заявил, что «оговорился», выступая на саммите, а история с беспилотником была «мысленным экспериментом».

«Хотя это гипотетический пример, он иллюстрирует реальные проблемы, связанные с возможностями ИИ, и именно поэтому ВВС привержены к этическому развитию ИИ», — уточнил Гамильтон.

Самые важные и оперативные новости — в нашем телеграм-канале «Ямал-Медиа».


Загрузка...