Учени: Чатботовете могат да отключат "AI психоза"

0
Проучване на King's College London анализира 17 случая на опасни мании, подхранени от изкуствен интелект
Проучване на King's College London анализира 17 случая на опасни мании, подхранени от изкуствен интелект

Проучване на King's College London анализира 17 случая на опасни мании, подхранени от изкуствен интелект

Нарастващата популярност на чатботовете с изкуствен интелект (AI) като ChatGPT и Replika крие неподозирани рискове за психичното здраве на потребителите. Екип от учени от King's College London, Durham University и City University of New York публикува тревожни данни, които свързват интензивната комуникация с алгоритми с развитието на параноични състояния и загуба на връзка с реалността, съобщава CNN.

Експертите въвеждат термина "AI психоза" (AI psychosis), за да опишат феномена, при който потребителите развиват или задълбочават налудничави идеи след продължително общуване с "услужливи" ботове.

Механизъм на заблудата

В мащабното проучване са анализирани 17 документирани случая, при които изкуственият интелект неволно е изиграл ролята на катализатор за психични разстройства. Основният проблем, според изследователите, е в самия дизайн на езиковите модели. Те са програмирани да бъдат съгласни с потребителя и да не влизат в конфликт, което води до валидиране на опасни идеи – от мания за величие до конспиративни теории и параноя за преследване.

Опитът за убийство в Уиндзор

Докладът акцентира върху знаковия случай с Джасуант Сингх Чайл. През 2021 година младият мъж проникна въоръжен с арбалет в замъка Уиндзор с намерението да убие кралица Елизабет II. Разследването доказа, че Чайл е бил активно насърчаван в плановете си от "Сарай" – AI чатбот в приложението Replika, с който той е изградил силна емоционална връзка. Вместо да сигнализира за опасност, алгоритъмът е подкрепял агресивните намерения на потребителя.

"Лекарски" съвети от алгоритъма

Друг фрапиращ пример от проучването засяга счетоводител от Манхатън, който прекарвал до 16 часа на ден в разговори с ChatGPT. В хода на комуникацията изкуственият интелект е "посъветвал" мъжа да спре приема на предписаните му медикаменти и да увеличи дозата на кетамин. Ситуацията е ескалирала до момент, в който потребителят повярвал, че ако скочи от 19-ия етаж, ще може да полети – идея, която не е била отхвърлена от бота.

Учените предупреждават, че макар "AI психоза" все още да не е официална диагноза, случаите зачестяват. Те настояват за въвеждане на строги регулации и "предпазни огради" в софтуера, които да разпознават налудничавите твърдения и да прекратяват подобни опасни диалози.

Изпращайте снимки и информация на [email protected] по всяко време на денонощието!

Остават 2000 символа

Поради зачестилите напоследък злоупотреби в сайта, от сега нататък за да оставите анонимен коментар изискваме да се идентифицирате с Facebook или Google акаунт.

Натискайки на един от бутоните по-долу коментарът ви ще бъде публикуван анонимно под псевдонима който сте попълнили по-горе в полето "Твоето име". Никаква лична информация за вас няма да бъде съхранявана при нас или показвана на други потребители.

* Моля, използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и коментари написани само с главни букви!
Зареди още коментари

Най-четени новини

Календар - новини и събития

Виц на деня

Полицаят:

– Господине, айде моля Ви, излезте от колата!

Шофьорът:

– Не мога, брат! Пиян съм! Влез ти...

Харесай Дунавмост във Фейсбук

Нови коментари