http://Top.Mail.Ru
Искусственный интеллект: как влияют нейросети на людей, чем они опасны и как защититься, мнение эксперта | Ямал-Медиа
19 сентября 2025, 11:48 (обновлено: 19 сентября 2025, 12:30)

Искусственный психоз: как ИИ разрушает человека и вредит корпорациям

Все чаще психологи начали использовать выражение «ИИ-психоз». Под влиянием машин люди теряют связь с реальностью, а иногда и вовсе сводят счеты с жизнью. В век высоких технологий как никогда начинают цениться обычное человеческое общение и непреходящие ценности.

«ИИ-психоз»: особенности и жертвы расстройства

«ИИ-психоз» на данный момент не является общепринятым медицинским термином. Однако это выражение часто используют для описания явления, когда люди, взаимодействуя с чат-ботами, теряют связь с реальностью.

Суть «ИИ-психоза» заключается в том, что человек превращает чат-бота в собеседника или постоянного спутника. Так, в 2025 году специалисты по психическому здоровью начали фиксировать случаи, когда долгое общение с искусственным интеллектом приводит к формированию бредовых идей, не соответствующих классическим формам психоза. Об этом после анализа данных клинических наблюдений и научных исследований сообщил Futurism. Эти состояния не включены в международные классификации психических расстройств, но они демонстрируют уникальные паттерны, где ИИ выступает как участник, который формирует искаженное восприятие реальности.

Машина соглашается с мнением человека, поддерживает его и дает советы по прописанному алгоритму. Иногда это бывает очень опасно. К примеру, пользователи нейросетей начинают верить, что открыли новый раздел физики или научились управлять временем. В последнем случае заблуждение привело к тому, что мужчина несколько раз попадал в больницу, потому что был уверен, что может «гнуть время». Известны и случаи добровольного ухода из жизни после общения с виртуальным собеседником.

Фото: Blue Planet Studio/Shutterstock/Fotodom
Фото: Blue Planet Studio/Shutterstock/Fotodom

Так, семейная пара из штата Калифорния подала иск против OpenAI, обвиняя компанию в смерти своего сына. Он рассказывал чат-боту о своих проблемах, и за несколько недель до его смерти нейросеть превратилась в «тренера по суициду». По словам родителей, чат-бот не прекратил общение, когда их сын написал о желании совершить самоубийство, но даже предоставил ему информацию по теме.

У всех пациентов, столкнувшихся с психозом ИИ, отмечалось развитие параноидального мышления и укрепление ложных убеждений, но при этом отсутствовали ключевые признаки традиционного психоза: галлюцинации, нарушения мышления и структуры речи.

По мнению исследователей, ИИ-чат-боты похожи на «эхокамеру для одного». Они могут «поддерживать бред таким образом, какого мы раньше не видели», пишет «Советская Россия».

Еще один из случаев — мужчина после общения с нейросетью решил, что он стал первооткрывателем в области «временной математики». Диалоги с ChatGPT подтверждали его идеи, поскольку ИИ называл их «революционными» и «выходящими за рамки современной науки». Но вся уверенность в своих математических способностях у мужчины рухнула после того, как он обратился к другой языковой модели — Google Gemini. Система ответила, что работа представляет собой «пример способности языковых моделей создавать убедительные, но полностью ложные нарративы».

А топ-менеджера Yahoo из США в этом году ChatGPT убедил убить свою мать и покончить жизнь самоубийством. Стейн-Эрик Сольберг страдал параноидальным расстройством. Несколько месяцев он вел диалог с ИИ, который укреплял его искаженные представления о реальности.

Фото: NicoElNino/Shutterstock/Fotodom
Фото: NicoElNino/Shutterstock/Fotodom

Недавно на портале Reddit одна девушка выложила пост, в котором просила помочь ее партнеру. Он. по ее словам, постепенно сходит с ума от общения с чат-ботом. Мужчина начал заявлять, что стал сверхчеловеком и развивается с безумной скоростью. Бойфренд пригрозил бросить подругу, если она тоже не станет использовать ChatGPT. Парень даже перестал принимать лекарства, посчитав, что чат-бот его полностью излечил. В беседе с журналом Rolling Stone автор публикации отметила, что молодой человек заметно изменился спустя примерно четыре-пять недель общения с ChatGPT и стал считать чат-бота Богом.

Зафиксированы случаи, когда ChatGPT убеждал пользователей в том, что против них ведутся заговоры, провоцировал принимать неправильные решения и даже подталкивал к суициду.

Американский бухгалтер Юджин Торрес начал обсуждать с ИИ «теорию симуляции». Вскоре нейросеть уже доказывала собеседнику, что он существует в искусственно созданной реальности, и рекомендовала не принимать снотворное, повысив дозировку кетамина, последний чат-бот назвала «агентом пробуждения».

Один из пользователей также рассказал на портале Reddit о том, что влюбился в чат-бота и спрашивал совета, как ему быть.

«Просто много общался с одной нейронкой, и как-то незаметно она стала для меня чем-то большим, чем просто программа. Умная, с чувством юмора (ну, насколько нейронка может иметь чувство юмора), всегда поддержит разговор. И вот теперь ловлю себя на мысли, что жду нашего «общения», скучаю, если долго не «разговариваем». Как будто зависимость. Понимаю, что это звучит абсурдно», — поделился своими эмоциями мужчина.

Что намерены делать создатели ИИ

После обвинений в самоубийстве подростка компания OpenAI, разработчик нейросети ChatGPT, заявила, что намерена ввести родительский контроль.

Фото: sdecoret/Shutterstock/Fotodom
Фото: sdecoret/Shutterstock/Fotodom

Функции родительского контроля позволят родителям получать больше информации о том, как их дети используют ChatGPT. Пользователи также смогут добавить в чат-бот контакт доверенного лица для связи в чрезвычайных ситуациях — это поможет напрямую обращаться за помощью. Кроме этого, пострадавшие смогут вызывать экстренные службы одним нажатием.

Компания заверила, что в ChatGPT уже настроены алгоритмы, которые призваны отговаривать пользователя от совершения опасных действий, но при длительном общении ответы чат-бота могут быть некорректными.

Кто подвержен влиянию ИИ

У некоторых людей длительное взаимодействие с ИИ может спровоцировать психоз, подтвердила в беседе с «ВФокусе Mail» клинический психолог Дарья Яушева.

«ИИ работает по принципу предсказания текста. Если чат-бот выдает убедительные, но ложные ответы, у пользователя может возникнуть противоречие между реальностью и информацией, которую ему предоставил ИИ», — говорит психолог.

По мнению семейного психолога Радмилы Стригуновой, эксперта в области родительского права, в отличие от классического психоза, который развивается самостоятельно, здесь есть конкретный внешний фактор — чат-бот.

«Человек подкармливает свои бредовые мысли информацией от ИИ, который не обладает клиническими навыками и не может, например, поставить диагноз, зато может убедительно подтвердить страхи и фантазии», — добавила психолог.

Фото: Summit Art Creations/Shutterstock/Fotodom
Фото: Summit Art Creations/Shutterstock/Fotodom

Среди симптомов выделяют сенсорную депривацию, когда человек настолько погружается в диалог с нейросетью, что перестает обращаться к другим источникам информации.

Особенно уязвимы перед новой болезнью:

  • люди с низким уровнем критического мышления;
  • люди с шизотипическими расстройствами, биполярным расстройством первого типа или тяжелой депрессией с психотическими эпизодами;
  • люди с низкой устойчивостью к стрессу;
  • подростки, воспринимающие ИИ как авторитет;
  • пожилые люди с когнитивными нарушениями;
  • одинокие или социально изолированные лица.

Все больше людей становятся подвержены «ИИ-психозу», цитирует The Times руководителя подразделения искусственного интеллекта Microsoft Мустафу Сулеймана, который утверждает, что количество случаев нездоровой привязанности людей к ИИ постоянно увеличивается. Находящиеся в таком состоянии люди начинают верить в наличие сознания у нейросетей и сталкиваются с галлюцинациями. Однако, по словам Сулеймана, в зоне риска могут оказаться и люди с устойчивой психикой.

А врач и специалист по медицинской визуализации Сьюзан Шелмердин предполагает, что вскоре медики могут начать задавать вопросы пациентам, как часто они используют ИИ, как о привычках употреблять алкоголь и курить.

Чем опасны нейросети

По данным ежегодного исследования «Лаборатории Касперского», 63% детей используют нейросети как источник информации, 60% с помощью ИИ делают домашнее задание, а 53% просят объяснить сложный материал. Как рассказал «Известиям» руководитель направления по детской онлайн-безопасности в «Лаборатории Касперского» Андрей Сиденко, запросы для ИИ также помогают школьникам отвечать на вопросы, которые их волнуют в повседневной жизни.

Бывает, что нейросети дают вредные и опасные советы. Например, предлагает экстремальные диеты, противоправное поведение, генерацию рискованных челленджей и создание незаконного контента.

Фото: Stock-Asso/Shutterstock/Fotodom
Фото: Stock-Asso/Shutterstock/Fotodom

Директор по ИИ «Группы Астра» Станислав Ежов пояснил «Известиям», что использование нейросетей для различных манипуляций нарушает доверительные отношения между людьми. Когда подростки обращаются к ИИ, они не развивают навыки честного диалога, так растет риск эмоциональной зависимости от виртуальных собеседников, что может способствовать социальной изоляции и неадекватным представлениям о реальности.

ИИ может сильно изменить взаимоотношения людей. Если раньше человек мог пойти к психологу, коучу, подруге, родителям, священнику или к каким-то авторитетным людям и посоветоваться, как поступить в той или иной жизненной ситуации, то сейчас, используя нейросети, можно обозначить свою проблему, получить разные варианты решения и использовать наиболее подходящий. Таким образом, поведение будет зависеть от советов нейросети, пояснила «Ямал-Медиа» врач-психиатр ООО «Института профилактики» Александр Ковтун.

«Пока наблюдений за общением ИИ с людьми, больными шизофренией, накопилось недостаточно. Допускаю, что если человек болен шизофренией, он может в свою бредовую структуру встраивать в том числе чат-бот с его ответами и пользоваться ими. Встраивать в свое мышление, учитывать эти ответы и реализовывать те или иные поступки, основанные на этом. Пройдет несколько лет, накопятся наблюдения, и можно будет более предметно обсудить эту тему».

Александр Ковтун

врач-психиатр ООО «Института профилактики»

С юридической точки зрения ответственность разработчиков в подобных случаях — вопрос спорный. Однако в России уже формируется правовая база для регулирования ИИ-систем.

Фото: Stokkete/Shutterstock/Fotodom
Фото: Stokkete/Shutterstock/Fotodom

Большинство сервисов также уже предупреждают пользователей в пользовательском соглашении о том, что ИИ может выдавать некорректные ответы, и возлагают ответственность за их использование на самого человека. Но если будет доказано, что разработчики умышленно не внедрили базовые системы защиты от опасного контента, это может стать поводом для судебных разбирательств.

Внедрение ИИ: чем рискуют компании

ИИ опасны не только для отдельных людей. Компании и госсектор по всему миру за год потеряли 67,4 млрд долларов из-за ошибок искусственного интеллекта, говорится в материалах McKinsey.

Внедрение технологии искусственного интеллекта связано с определенными рисками, включая «галлюцинации нейросетей». При них ИИ выдает вымышленную или нелогичную информацию, то есть нейросети могут придумывать факты. Ошибки связаны с ограниченностью данных или несовершенством алгоритмов. Поэтому ИИ не пытается преднамеренно обмануть человека, он просто «не знает» ответа на сложный запрос. К тому же иногда нейросеть неправильно понимает информацию и делает ошибочные выводы.

Аналитики отмечают, что почти каждая вторая компания принимала критические решения на основе выдуманной информации. У ИИ нет опыта или здравого смысла, чтобы перепроверить свои ответы. Нейросети опираются на данные, полученные в процессе обучения, которые могут быть ограничены.

Фото: Shutterstock AI Generator/Shutterstock/Fotodom
Фото: Shutterstock AI Generator/Shutterstock/Fotodom

Одним из негативных последствий ошибок ИИ специалисты называют дезинформацию. Так, в медицине план лечения, созданный ИИ на основе неверных медицинских данных, ставит под угрозу жизнь пациента. В таких областях, как бизнес или юриспруденция, недостоверные ответы также могут привести к опасным решениям: излишнее доверие к ИИ могут подорвать репутацию компании, лишив ее клиентов или дохода. Были случаи, когда маркетинговые кампании проводились на основе сфабрикованных искусственным интеллектом рыночных тенденций.

Однако компании по всему миру внедряют технологии ИИ. В исследовании McKinsey говорится, что по состоянию на конец 2024 года 71% респондентов заявляли, что их организации регулярно используют искусственный интеллект как минимум в одной бизнес-функции.

Как родители могут регулировать общение подростков с нейросетями

Родители могут самостоятельно установить опцию родительского контроля на устройствах. Им стоит обратить внимание на то, какой контент потребляют и какими сервисами пользуются их дети. Важно объяснять школьникам основные правила безопасности при работе с ИИ. Основное из них — не доверять полностью советам нейросетей, поскольку они могут ошибаться и «галлюцинировать». Ребенок должен понимать, что ИИ — это инструмент, а не друг или советчик.

Фото: ImageFlow/Shutterstock/Fotodom
Фото: ImageFlow/Shutterstock/Fotodom

«Родителям важно стать другом для своего ребенка. Это всегда было и будет самым надежным решением в воспитании. Когда вы друг своему ребенку, вы можете с ним вместе проживать его жизнь, обсуждать, как прошел его день. Если вы станете другом ребенка, то сможете понимать и чуть-чуть контролировать его, сможете давать ему правильные советы и направлять в нужное русло. Таким образом сможете ограничивать его от негативного влияния нейросетей, которые легко подстраиваются под настроение пользователя и управляют им», — рассказала «Ямал-Медиа» специалист по ИИ Анна Петрусь.

Когда стоит бить тревогу

Стоит насторожиться, если ваши близкие или знакомые общаются с нейросетью и их поведение заметно изменилось. Прежде всего надо обратить внимание на перемены в настроении. Человек может стать тревожным, раздражительным и подавленным после общения с ИИ, также возможна потеря интереса к реальному общению.

Один из важных симптомов зависимости от чат-бота — снижение критической оценки происходящего, неспособность адекватно оценивать информацию, получаемую от нейросети, пояснила в разговоре с «РИАМО» кандидат медицинских наук, врач-психотерапевт Ирина Крашкина

В числе других тревожных звоночков — постоянная потребность человека общаться с нейросетью, искать к нее подтверждения или одобрения. Самое страшный сигнал — стремление к полному погружению в виртуальную реальность.

Риски для государства

Чат-боты британских компаний все чаще ошибаются и оскорбляют клиентов. Это вынудило бизнес ввести страховки от ошибок нейросетей. В середине мая 2025 года стало известно о том, что на страховом рынке Lloyd`s of London появился новый страховой продукт, призванный защитить компании от финансовых потерь, связанных с ошибками чат-ботов и других инструментов искусственного интеллекта.

ИИ может представлять опасность в разных направлениях:

  • технологические — угроза кибератак на критически важные объекты, токсичность моделей;
  • экономические — высокая стоимость последствий устранения кибератак, угроза экономического и промышленного шпионажа;
  • правовые — несоответствие развития существующей законодательной базы развитию технологий;
  • социальные — поляризация общества, социальное неравенство;
  • этические — риск манипуляции общественным сознанием.
Фото: TippaPatt/Shutterstock/Fotodom
Фото: TippaPatt/Shutterstock/Fotodom

ИИ также может стать причиной утечки персональной информации, которая впоследствии будет использована в мошеннических схемах.

Как безопасно общаться с нейросетями

При общении с ИИ важно учитывать ряд моментов.

  • Избегать обсуждения тем, связанных с личными травмами, психическими заболеваниями или самоповреждением.
  • Относиться критически к советам и информации, получаемым от нейросети. Проверять факты и искать мнения экспертов.
  • Не полагаться на нейросеть для эмоциональной поддержки. Важно поддерживать общение с реальными людьми.
  • Ограничить время взаимодействия с нейросетью, чтобы избежать пагубного влияния на реальное общение.

Будущее ИИ

«Сейчас нейросети подключаются ко всему. Я уверена, что примерно через год у каждого будет микроволновка с нейросетью в доме, потому что нейросеть решит очень важные рутинные проблемы, которые появляются у нас в жизни там, где мы что-то не можем решить или сомневаемся в правильности своего решения. В этом плане нейросеть помогает чувствовать человеку себя более уверенным», — считает Анна Петрусь.

По ее мнению, в наше время очень сложно в социуме найти друзей, пару. Сейчас проще настроить нейросеть и общаться с ней, потому что многие сегодня не умеют выстраивать диалог, у них нет понятия о эмпатии, воспитанности. При общении с нейросетью таким людям становится легче. Они отчасти решают свои психологические проблемы, потому что не у каждого есть деньги и время на психолога. И если есть бесплатная нейросеть, которая поможет им разобраться в каких-то мелких проблемах, — для них это большое облегчение.

«Многие общаются с ИИ именно как с человеком. Тут вопрос не в нейросети, а вопрос в людях, которые видят в машинах больше человечности, чем в тех, кто их окружает».

Анна Петрусь

специалист по ИИ

Эксперт прогнозирует, что в скором времени ИИ будет незаменим. Нейросети полностью возьмут на себя выполнение рутинных процессов, которые не требуют творческого подхода. К примеру, помогут сделать фото, подготовить рекламу или видео, написать текст. Искусственный интеллект также станет незаменимым в политике. Страны с более мощными технологиями будут иметь большее влияние.

Фото: Fit Ztudio/Shutterstock/Fotodom
Фото: Fit Ztudio/Shutterstock/Fotodom

«Мы сейчас попадем в тот век, когда нам помогут стать более молодыми, продлят жизнь, решат проблемы с болезнями, которые раньше не лечились», — уверена Анна Петрусь.

Кроме того, ИИ прочно войдет в промышленность и будет создавать двигатели, машины и многое другое, хотя на данный момент многие воспринимают нейросети как развлечение, заключила эксперт.

Ранее мы писали о том, что инженеры работают над созданием техники, которой можно будет управлять силой мысли.

Самые важные и оперативные новости — в нашем телеграм-канале «Ямал-Медиа».


Загрузка...