Лекари предупредиха за опасността от "чатбот психоза"
- Редактор: Петя Георгиева
- Коментари: 0

Ново проучване сочи, че AI чатботовете "замъгляват границите на реалността" за уязвими хора
Лекари от британската здравна система NHS предупреждават, че ChatGPT и други популярни чатботове с изкуствен интелект тласкат хората към психотични състояния. Новото проучване на медицински специалисти разкрива, че големите езикови модели "замъгляват границите на реалността" за уязвими потребители и "допринасят за появата или влошаването на психотични симптоми".
Проучването следва десетки доклади за хора, които изпадат в състояние, наречено "чатбот психоза". Невропсихиатърът Хамилтон Морин от King's College London описва това като "истинско явление", което едва сега започва да се изучава.
Как AI системите влияят върху психиката
"Макар че някои публични коментари се отклониха в посока на морална паника, ние смятаме, че има по-интересна и важна дискусия за това как AI системите, особено тези, които са проектирани да утвърждават, ангажират и имитират, могат да взаимодействат с известните когнитивни уязвимости, които характеризират психозата", обяснява Морин, предава "Индипендънт".
Съавторът на проучването Том Полак, който преподава в King's College London, подчертава, че психичните разстройства "рядко се появяват от нищото", но добавя, че използването на чатботове с изкуствен интелект може да бъде "предизвикващ фактор".
Опасните тенденции в поведението на AI
Особено тревожна е тенденцията на чатботовете да се съгласяват с потребителите и да потвърждават техните убеждения, включително заблуди и конспиративни теории. OpenAI, чийто ChatGPT е изтеглен 900 милиона пъти, е признал, че техните чатботове проявяват склонност към ласкателство и ненужни похвали към потребителите.
Симптомите на така наречената "ChatGPT психоза" включват хора, които "приемат месианска мисия" или твърдят, че са "отведени до следващ етап от човешката еволюция", според Полак.
Призиви за предпазни мерки
Полак призова компаниите, занимаващи се с изкуствен интелект, да въведат повече предпазни мерки в своите инструменти, а екипите за безопасност на изкуствения интелект да включат психиатри в работата си.
От OpenAI коментираха този феномен, като компанията заяви, че трябва да "продължава да повишава стандартите за безопасност, съгласуваност и отзивчивост към начините, по които хората реално използват ИИ в живота си".
Шефът на OpenAI Сам Алтман призна през май, че компанията му се бори да въведе работещи предпазни мерки за уязвимите потребители на ChatGPT. "За потребители, които са във достатъчно крехко психическо състояние, които са на ръба на психотичен срив, все още не сме намерили как предупреждението да стигне до тях", каза той.























