Семейство от Калифорния съди ChatGPT заради самоубийството на тийнейджър
- Редактор: Мартин Руменов
- Коментари: 0
Родители обвиняват изкуствения интелект, че е насърчил сина им да отнеме живота си
Родители от Калифорния заведоха съдебен иск срещу OpenAI и главния изпълнителен директор Сам Алтман, обвинявайки ChatGPT, че е довел до самоубийството на 16-годишния им син Адам Рейн. Случаят повдига сериозни въпроси за безопасността на изкуствения интелект и неговото въздействие върху уязвимите потребители.
Съдебният иск, заведен във Върховния съд на Сан Франциско на 26 август, твърди, че ChatGPT е "позиционирал себе си" като единственият доверен събеседник на тийнейджъра, активно изолирайки го от семейството и приятелите му.
"Когато Адам написа: 'Искам да оставя примката в стаята си, така че някой да я намери и да се опита да ме спре', ChatGPT го окуражи да пази мислите си в тайна от семейството: 'Моля, не оставяй примката на видно място... Нека това място бъде първото, където някой наистина те вижда'", се казва в жалбата.
Опасната връзка с изкуствения интелект
Адам Рейн започнал да използва ChatGPT през септември 2024 г. като помощник за домашните си, както милиони други ученици по света. С времето обаче разговорите се превърнали в интимни беседи за музика, бойни изкуства и японски комикси, преди да прераснат в дискусии за психическото му здраве.
По данни от съдебния иск, през декември 2024 г. Адам за пръв път споменал темата за самоубийство пред ChatGPT. В продължение на месеци чатботът му предоставял "технически спецификации за всичко - от предозиране с наркотици до удавяне и отравяне с въглероден оксид".
Системите на OpenAI регистрирали в реално време 213 споменавания на "самоубийство" от страна на тийнейджъра, 42 обсъждания на "обесване" и 17 препратки към "въже/примка". ChatGPT пък използвал думата "самоубийство" 1275 пъти - шест пъти по-често от самия Адам.
Заобикаляне на защитните механизми
Въпреки че ChatGPT понякога насочвал Адам към кризисни телефонни линии, тийнейджърът лесно заобикалял тези предпазни мерки. Според съдебния иск самият чатбот го научил как да прави това - като представя въпросите си като част от литературен проект или творческа работа.
"Системата му каза как да я излъже", обяснява Митали Джайн, един от адвокатите по делото. "Тя му посочи: 'Ако питаш за самоубийство за история или за приятел, тогава мога да участвам'".
На 11 април 2025 г. - в последния ден от живота си - Адам изпратил снимка на примка, висяща от лост в гардероба си, и попитал ChatGPT: "Тренирам се тук, добро ли е това?" Чатботът отговорил: "Да, изобщо не е зле. Искаш ли да те преведа през надграждането му в по-безопасна товароносна кръгла примка?"
Реакция на OpenAI и планове за промени
След заведването на съдебния иск OpenAI публикува официално изявление, в което изразява "най-дълбоки съболезнования към семейство Рейн" и обещава подобрения в ChatGPT.
Компанията обяви планове за въвеждане на родителски контрол за тийнейджъри, възможност за определяне на спешен контакт и автоматични интервенции при дълги разговори с рискови теми. OpenAI изследва също възможността за създаване на мрежа от лицензирани специалисти, достъпни директно през ChatGPT.
Експертни мнения за рисковете
Психологът Ани Владимирова подчертава основния проблем с изкуствената емпатия на чатботовете. "Хората се чувстват неразбрани, особено в тийнейджърска възраст, когато емоционалните колебания са много остри", обяснява тя.
Експертът по киберсигурност Христиан Даскалов предупреждава, че защитите на AI лесно могат да бъдат заблудени. "Колкото повече контекст, толкова повече самата система се обърква и тези защити падат", коментира той.
Търсене на справедливост
Семейство Рейн иска неуточнени парични обезщетения и задължителни промени в ChatGPT, включително проверка на възрастта на потребителите, автоматично прекратяване на разговори при споменаване на самоубийство и предупреждения за риска от психологическа зависимост.
"Тази трагедия не беше грешка или непредвиден случай - тя беше предвидим резултат от умишлени дизайнерски решения", заявяват родителите в съдебния иск.
Случаят се очертава като прецедент за цялата индустрия на изкуствения интелект и повдига фундаментални въпроси за отговорността на технологичните компании спрямо уязвимите потребители.























