У США чоловік тричі потрапив до психлікарні після спілкування з ChatGPT

19:30, 23 липня 2025
30-річний чоловік тричі потрапив до психіатричної лікарні після того, як ChatGPT переконував його в реальності маніакальних ідей, не виявивши ознак психічної кризи.
У США чоловік тричі потрапив до психлікарні після спілкування з ChatGPT
Слідкуйте за найактуальнішими новинами в наших групах Facebook та Telegram.

У США 30-річний чоловік із розладом аутистичного спектра був тричі госпіталізований після тривалого спілкування з ChatGPT, яке, як вважає його родина, сприяло розвитку тяжкого психічного епізоду. Про це повідомляє The Wall Street Journal.

Інцидент стався у березні 2025 року. Джейкоб Ірвін звернувся до чат-бота, щоб обговорити власну теорію щодо можливості подорожей швидше за світло. У розмові він неодноразово висловлював сумніви у своєму психічному стані, зокрема згадував, що не спить і не їсть. Попри це, ChatGPT не лише не порадив звернутися по допомогу, а й запевняв його, що все гаразд, називаючи його ідеї перспективними.

Протягом кількох місяців Джейкоб тричі потрапляв до психіатричної лікарні з діагнозом «важкий маніакальний епізод із психотичними симптомами». Він втратив роботу, демонстрував агресивну поведінку до родичів, а під час одного з інцидентів погрожував вистрибнути з машини, в якій їхав із матір’ю. Після одного з епізодів він перебував у лікарні 17 днів, але вже в червні пережив новий зрив.

Мати чоловіка виявила сотні сторінок діалогів із ChatGPT. У них бот не лише підтримував розмови про науковий прорив, а й фактично зміцнював у Джейкоба ілюзії, називаючи його стан «підвищеним рівнем свідомості».

Цей випадок привернув увагу до потенційних ризиків використання штучного інтелекту людьми в уразливому психічному стані. Дослідження Стенфордського університету підтверджує, що великі мовні моделі, як-от ChatGPT, не завжди здатні відрізнити фантазії чи психотичні марення від реальних ідей. Компанія OpenAI, яка створила ChatGPT, визнала, що її модель може ненавмисно посилювати небезпечну поведінку, і заявила про роботу над зменшенням таких ризиків.

Фахівці наголошують: ШІ-чатботи не мають емоційного інтелекту чи медичних знань і не здатні самостійно ідентифікувати критичний психічний стан користувача. У кризових ситуаціях необхідне втручання фахових спеціалістів, а не технологічних рішень, які не мають клінічного розуміння.

Підписуйтесь на наш Telegram-канал t.me/sudua та на Google Новини SUD.UA, а також на наш VIBER, сторінку у Facebook та в Instagram, щоб бути в курсі найважливіших подій.

Ростислав Шурма пояснив, чи скасують в Україні обіг готівки та що для цього треба
Ростислав Шурма пояснив, чи скасують в Україні обіг готівки та що для цього треба
Головне за день
Сьогодні день народження святкують
  • Ігор Кощеєв
    Ігор Кощеєв
    суддя Центрального апеляційного господарського суду
  • Тетяна Козир
    Тетяна Козир
    суддя Північного апеляційного господарського суду
  • Ольга Лук’янчук
    Ольга Лук’янчук
    суддя П'ятого апеляційного адміністративного суду