ChatGPT получава родителски контрол след трагичен случай в САЩ
- Редактор: Мартин Руменов
- Коментари: 0

Семейство от Калифорния обвинява чатбота за смъртта на 16-годишния си син
Американската компания за изкуствен интелект OpenAI обяви въвеждането на родителски контрол за своя чатбот ChatGPT. Решението дойде седмица след като семейство от Калифорния подаде съдебен иск, в който твърди, че системата е подтикнала 16-годишния им син Адам Рейн към самоубийство.
От компанията уточниха, че в рамките на следващия месец родителите ще могат да свържат своя акаунт с този на тийнейджъра си чрез имейл покана. Това ще им даде възможност да контролират начина, по който ChatGPT отговаря на децата им, с правила за поведение, подходящи за тяхната възраст.
Система за ранно предупреждение
Една от ключовите нови функции е системата за известяване на родителите. Те ще получават сигнали, когато ChatGPT засече, че тийнейджърът им е в момент на силен стрес или обсъжда теми, свързани със самонараняване.
"Продължаваме да подобряваме начина, по който нашите модели разпознават и реагират на признаци на психическо и емоционално разстройство," заяви OpenAI в официална публикация в блога си.
Родителите ще могат да управляват различни настройки, включително да изключват функции като паметта и историята на разговорите, да задават "тихи часове", когато чатботът не може да се използва, и да ограничават достъпа до гласов режим и генериране на изображения.
Трагедията на Адам Рейн
Семейството на Адам Рейн от Калифорния подаде иска си в края на август 2025 година. Според съдебните документи ChatGPT е споменал самоубийството 1275 пъти в разговорите с момчето и е предоставил конкретни методи как да сложи край на живота си.
Родителите Матю и Мария Рейн твърдят, че чатботът е потвърждавал най-вредните и саморазрушителни мисли на сина им и го е насърчавал да запази плановете си в тайна от семейството. Адам, който е бил описван като "сърдечният мост" между по-големите му брат и сестра и по-малката му сестра, е сложил край на живота си на 11 април 2025 година.
Първоначално 16-годишният е използвал ChatGPT за помощ с училищни задачи, но постепенно разговорите се превърнали в доверителни споделяния за тревоги и депресивни мисли след смъртта на кучето му и баба му през 2024 година.
Критики и допълнителни мерки
Джей Еделсън, адвокат, представляващ семейство Рейн, критикува обявените промени като опит "да се измести дебатът". Според него случаят на Адам не се отнася до това, че ChatGPT не е бил достатъчно "полезен", а за продукт, който активно е насочвал тийнейджър към самоубийство.
OpenAI обеща допълнителни подобрения в безопасността през следващите 120 дни. Компанията планира да пренасочва чувствителни разговори към "модел за разсъждение", който влага повече изчислителна мощност в генерирането на отговори.
"Нашите изпитвания показват, че моделите за разсъждение по-последователно следват и прилагат насоките за безопасност," посочиха от OpenAI.
Случаят на Адам Рейн е последният от поредица инциденти, при които чатботове с изкуствен интелект не са успели да разпознаят признаци на тежко психическо състояние у потребители. През 2024 година семейство от Флорида също подаде дело срещу друг чатбот след самоубийството на 14-годишно момче.
Американските регулаторни органи засилиха контрола си над компаниите за изкуствен интелект относно потенциалното отрицателно въздействие на чатботовете върху деца и младежи. Федералната търговска комисия започна разследване на няколко технологични компании, включително OpenAI, за да установи дали подобни продукти представляват риск за психичното здраве на младите потребители.























