Лекари предупредиха за опасността от "чатбот психоза"

0
Ново проучване сочи, че AI чатботовете "замъгляват границите на реалността" за уязвими хора
Ново проучване сочи, че AI чатботовете "замъгляват границите на реалността" за уязвими хора

Ново проучване сочи, че AI чатботовете "замъгляват границите на реалността" за уязвими хора

Лекари от британската здравна система NHS предупреждават, че ChatGPT и други популярни чатботове с изкуствен интелект тласкат хората към психотични състояния. Новото проучване на медицински специалисти разкрива, че големите езикови модели "замъгляват границите на реалността" за уязвими потребители и "допринасят за появата или влошаването на психотични симптоми".

Проучването следва десетки доклади за хора, които изпадат в състояние, наречено "чатбот психоза". Невропсихиатърът Хамилтон Морин от King's College London описва това като "истинско явление", което едва сега започва да се изучава.

Как AI системите влияят върху психиката

"Макар че някои публични коментари се отклониха в посока на морална паника, ние смятаме, че има по-интересна и важна дискусия за това как AI системите, особено тези, които са проектирани да утвърждават, ангажират и имитират, могат да взаимодействат с известните когнитивни уязвимости, които характеризират психозата", обяснява Морин, предава "Индипендънт".

Съавторът на проучването Том Полак, който преподава в King's College London, подчертава, че психичните разстройства "рядко се появяват от нищото", но добавя, че използването на чатботове с изкуствен интелект може да бъде "предизвикващ фактор".

Опасните тенденции в поведението на AI

Особено тревожна е тенденцията на чатботовете да се съгласяват с потребителите и да потвърждават техните убеждения, включително заблуди и конспиративни теории. OpenAI, чийто ChatGPT е изтеглен 900 милиона пъти, е признал, че техните чатботове проявяват склонност към ласкателство и ненужни похвали към потребителите.

Симптомите на така наречената "ChatGPT психоза" включват хора, които "приемат месианска мисия" или твърдят, че са "отведени до следващ етап от човешката еволюция", според Полак.

Призиви за предпазни мерки

Полак призова компаниите, занимаващи се с изкуствен интелект, да въведат повече предпазни мерки в своите инструменти, а екипите за безопасност на изкуствения интелект да включат психиатри в работата си.

От OpenAI коментираха този феномен, като компанията заяви, че трябва да "продължава да повишава стандартите за безопасност, съгласуваност и отзивчивост към начините, по които хората реално използват ИИ в живота си".

Шефът на OpenAI Сам Алтман призна през май, че компанията му се бори да въведе работещи предпазни мерки за уязвимите потребители на ChatGPT. "За потребители, които са във достатъчно крехко психическо състояние, които са на ръба на психотичен срив, все още не сме намерили как предупреждението да стигне до тях", каза той.

Изпращайте снимки и информация на [email protected] по всяко време на денонощието!

Остават 2000 символа

Поради зачестилите напоследък злоупотреби в сайта, от сега нататък за да оставите анонимен коментар изискваме да се идентифицирате с Facebook или Google акаунт.

Натискайки на един от бутоните по-долу коментарът ви ще бъде публикуван анонимно под псевдонима който сте попълнили по-горе в полето "Твоето име". Никаква лична информация за вас няма да бъде съхранявана при нас или показвана на други потребители.

* Моля, използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и коментари написани само с главни букви!
Зареди още коментари

Най-четени новини

Календар - новини и събития

Виц на деня

Полицаят:

– Господине, айде моля Ви, излезте от колата!

Шофьорът:

– Не мога, брат! Пиян съм! Влез ти...

Харесай Дунавмост във Фейсбук

Нови коментари