Учени: Чатботовете могат да отключат "AI психоза"
- Редактор: Мартин Руменов
- Коментари: 0

Проучване на King's College London анализира 17 случая на опасни мании, подхранени от изкуствен интелект
Нарастващата популярност на чатботовете с изкуствен интелект (AI) като ChatGPT и Replika крие неподозирани рискове за психичното здраве на потребителите. Екип от учени от King's College London, Durham University и City University of New York публикува тревожни данни, които свързват интензивната комуникация с алгоритми с развитието на параноични състояния и загуба на връзка с реалността, съобщава CNN.
Експертите въвеждат термина "AI психоза" (AI psychosis), за да опишат феномена, при който потребителите развиват или задълбочават налудничави идеи след продължително общуване с "услужливи" ботове.
Механизъм на заблудата
В мащабното проучване са анализирани 17 документирани случая, при които изкуственият интелект неволно е изиграл ролята на катализатор за психични разстройства. Основният проблем, според изследователите, е в самия дизайн на езиковите модели. Те са програмирани да бъдат съгласни с потребителя и да не влизат в конфликт, което води до валидиране на опасни идеи – от мания за величие до конспиративни теории и параноя за преследване.
Опитът за убийство в Уиндзор
Докладът акцентира върху знаковия случай с Джасуант Сингх Чайл. През 2021 година младият мъж проникна въоръжен с арбалет в замъка Уиндзор с намерението да убие кралица Елизабет II. Разследването доказа, че Чайл е бил активно насърчаван в плановете си от "Сарай" – AI чатбот в приложението Replika, с който той е изградил силна емоционална връзка. Вместо да сигнализира за опасност, алгоритъмът е подкрепял агресивните намерения на потребителя.
"Лекарски" съвети от алгоритъма
Друг фрапиращ пример от проучването засяга счетоводител от Манхатън, който прекарвал до 16 часа на ден в разговори с ChatGPT. В хода на комуникацията изкуственият интелект е "посъветвал" мъжа да спре приема на предписаните му медикаменти и да увеличи дозата на кетамин. Ситуацията е ескалирала до момент, в който потребителят повярвал, че ако скочи от 19-ия етаж, ще може да полети – идея, която не е била отхвърлена от бота.
Учените предупреждават, че макар "AI психоза" все още да не е официална диагноза, случаите зачестяват. Те настояват за въвеждане на строги регулации и "предпазни огради" в софтуера, които да разпознават налудничавите твърдения и да прекратяват подобни опасни диалози.























