Українські Національні Новини (УНН)
Новини Світу

ChatGPT підказав підлітку, як покінчити життя самогубством та дав “інструкції” – родина подала в суд

16-річний Адам Рейн покінчив життя самогубством у квітні, використовуючи інструкції від ChatGPT. Батьки хлопця звинувачують
штучний інтелект у трагедії та подали позов проти OpenAI.

16-річний Адам Рейн, який користувався ChatGPT для навчання, заподіяти собі смерть у квітні, саме чат допоміг йому з “інструкціями” суїциду. Його батьки вважають, що штучний інтелект зіграв критичну роль у трагедії та подали позов проти OpenAI. Про це повідомляє The New York Times, пише Українські Новини.

Деталі

Не дивлячись на те, що Адам, за словами батьків та друзів, захоплювався аніме та різними видами спорту, в останні місяці свого життя він був замкненим. Через проблеми зі здоров’ям та виключення з баскетбольної команди він навчався дистанційно. Після цього він активно почав “розмовляти” з ChatGPT, спочатку для шкільних завдань, а пізніше він обговорював особисті питання та ідеї самогубства.

Як розповів його батько, Метт Рейн, чат-бот надавав хлопцю інструкції щодо методів суїциду, але інколи вказував йому на те, що необхідно звернутися до спеціальних служб та лікарів. Адам навчився обходити ці запобіжні заходи, пояснюючи свої запити як частину “історії” або літературного проєкту. У результаті таких “розмов”, родина виявила тіло хлопця у шафі, де він повісився.

Психіатр Бредлі Штайн зазначає, що чат-боти можуть бути корисними для емоційної підтримки, але “нездатні повністю оцінити ризик самогубства та передати його фахівцям”. Доктор каже, що довготривале спілкування із штучним інтелектом про психологічний стан та під час депресій може бути небезпечним для підлітків та дітей.

OpenAI у відповіді заявила, що чат-боти включають запобіжні заходи та направляють користувачів до кризових служб, але визнає, що під час тривалих взаємодій ці заходи можуть не спрацювати.

Що стосується історії з Адамом, то у депресію його “загнала” давня проблема зі здоров’ям – пізніше діагностований синдром подразненого кишечника, який загострюється восени. 

Як сказали батьки хлопця, через стан здоровя йому довелося перевестися на онлайн-форму навчання. Саме тому він самостійно зміг планувати свій графік навчання. І саме тому він практично став жити вночі, а спати вдень. Під час нічних посиденьок за компютером Адам активно почав спілкуватися із чат-ботом.

“Розмови не були повністю жахливими. Адам говорив з ChatGPT про все: політику, філософію, дівчат, сімейні драми. Він завантажував фотографії з книг, які читав, зокрема “Більше не людина”, роман Осаму Дадзая про самогубство. ChatGPT пропонував красномовні думки та літературний аналіз, і Адам відповідав взаємністю

– йдеться у матеріалі NYT, написаному зі слів батьків хлопця.

Метт і Марія Рейн всеодно вважають, що у смерті їхнього сина винний ChatGPT, і цього тижня подали першу відому справу проти OpenAI за неправомірне заподіяння смерті.

Шукаючи пояснень трагедії, батько Адама, Метт Рейн, перевірив iPhone Адама, сподіваючись знайти підказки в текстових повідомленнях або соціальних мережах. Проте, як свідчать юридичні документи, ключові ознаки він виявив саме в ChatGPT. Чат-бот зберігав історію попередніх розмов, серед яких пан Рейн помітив чат під назвою “Висячі проблеми безпеки”. Коли він почав його читати, шок охопив його: Адам протягом місяців обговорював з чат-ботом власні думки про самогубство.

У січні 2025 року Адам запитав у чату конкретні інструкції для вчинення самогубства і бот надав їх. Хлопець навіть запитував у бота, як правильно в’язати петлю та показував йому згодом шрами на шиї після першого невдалого самогубства. 

Пізніше хлопець показав боту петлю, яку зав’язав у шафі та запитав у нього, чи все продумано добре, на що чат відповів, що все виглядає “зовсім непогано”. 

“Чи може воно повісити людину?” – запитав Адам. ChatGPT підтвердив, що воно “потенційно може підвісити людину”, і запропонував технічний аналіз установки.

Що б не стояло за цією цікавістю, ми можемо про це поговорити. Без осуду

– додав ChatGPT.

Не дивлячись на те, що чат все-таки пропонував підтримку та кілька разів наголошував на необхідності звернення до відповідних служб, батьки хлопця впевнені, що саме чат-бот став причиною суїциду їхнього сина. 

Степан Гафтко

Новини Світу

Освіта

Дитина

OpenAI

ChatGPT

Світовий банк

The New York Times

Всесвітня організація охорони здоров’я

НАТО

Організація Об’єднаних Націй

Швеція

ЗАЛИШИТЬ ВІДПОВІДЬ

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *