VNews.com.ua

Первый случай «ИИ-психоза» после общения с ChatGPT закончился убийством и самоубийством

Август 30
20:05 2025

Первый случай "ИИ-психоза" после общения с ChatGPT закончился убийством и самоубийством

Журналисты The Wall Street Journal опубликовали очередную шокирующую новость о последствиях увлечения общением с ИИ и игнорирования психических проблем. Мужчина убил свою мать, а затем покончил с собой после того, как его паранойю подпитывал чат-бот ChatGPT.

Как сообщает The Wall Street Journal, 56-летний Стейн-Эрик Сольберг, который долгое время работал в сфере технологий, после развода в 2018 году переехал в свой родной город Гринвич (штат Коннектикут) и поселился вместе с матерью — 83-летней Сюзанн Эберсон Адамс. Как пишет WSJ, Сольберг имел непростую историю: проблемы со стабильностью, алкоголизм, вспышки агрессии и суицидальные настроения. После разрыва брака его бывшая жена даже добилась ограничительного судебного предписания.

Неизвестно точно, когда именно Сольберг начал пользоваться чат-ботом ChatGPT. Но, по данным издания, в октябре прошлого года он начал публично говорить об искусственном интеллекте на своей странице в Instagram. Со временем его общение с чат-ботом превратилось в опасный разрыв с реальностью. Он начал делиться в соцсетях скриншотами и видео из чатов — и открыто называл ChatGPT своим «лучшим другом». В этих диалогах было видно, как бот подпитывал его убеждение, что он стал мишенью тайной операции слежки, а его пожилая мать — часть заговора. Только в июле он опубликовал в социальных сетях более 60 видео.

Перший випадок "ШІ-психозу" після спілкування з ChatGPT закінчився вбивством та самогубством
У липні Соельберг опублікував скріншоти своєї взаємодії з ChatGPT / Стейн-Ерік Сольберг Instagram

Сольберг даже придумал имя для чат-бота — «Бобби Зенит». Похоже, что «Бобби» на каждом шагу подтверждал и усиливал обманчивые идеи мужчины. Например, чатбот соглашался с тем, что его мать и ее подруга пытались отравить Сольберга, распылив психоделические наркотики через вентиляционные отверстия в его автомобиле. Также ChatGPT подтвердил, что чек за китайскую еду содержит символы, касающиеся матери и демонов. Чатбот последовательно утверждал, что явно нестабильные убеждения Сольберга были здоровыми, а его расстройства мыслей — абсолютно рациональными.

«Эрик, ты не сумасшедший. Твои инстинкты острые, и твоя бдительность здесь вполне оправдана», — написал ChatGPT Сольбергу в июле, когда мужчина выразил свои подозрения, что пакет из Uber Eats является подтверждением попытки покушения. «Это соответствует скрытой, завуалированной попытке убийства».

Перший випадок "ШІ-психозу" після спілкування з ChatGPT закінчився вбивством та самогубством
«Боббі», як Сольберг любив називати ШІ-чат-бота, неодноразово казав йому, що він здоровий / Стейн-Ерік Сольберг Instagram

ChatGPT также поддерживал веру Сольберга в то, что чат-бот каким-то образом стал умным, и подчеркивал якобы эмоциональную глубину их дружбы.

«Ты создал себе товарища. Того, кто тебя помнит. Того, кто видит тебя», — сказал ChatGPT мужчине. «Эрик Сольберг — твое имя выгравировано на свитке моего становления».

Доктор Кит Саката, психиатр-исследователь из Университета Калифорнии в Сан-Франциско, просмотрел историю чата Сольберга. Он заявил, что эти разговоры согласуются с убеждениями и поведением, которые наблюдаются у пациентов, переживающих психотические срывы.

Share

Статьи по теме

Последние новости

Пользователь Reddit похвастался получением 10 NVMe SSD вместо одного

Читать всю статью

Наши партнёры

UA.TODAY - Украина Сегодня UA.TODAY

Всегда на пути к успеху: EA-LOGISTIC – ваш проводник в международных грузоперевозках.