Учени: Чатботовете могат да отключат "AI психоза"

0
Проучване на King's College London анализира 17 случая на опасни мании, подхранени от изкуствен интелект
Проучване на King's College London анализира 17 случая на опасни мании, подхранени от изкуствен интелект

Проучване на King's College London анализира 17 случая на опасни мании, подхранени от изкуствен интелект

Нарастващата популярност на чатботовете с изкуствен интелект (AI) като ChatGPT и Replika крие неподозирани рискове за психичното здраве на потребителите. Екип от учени от King's College London, Durham University и City University of New York публикува тревожни данни, които свързват интензивната комуникация с алгоритми с развитието на параноични състояния и загуба на връзка с реалността, съобщава CNN.

Експертите въвеждат термина "AI психоза" (AI psychosis), за да опишат феномена, при който потребителите развиват или задълбочават налудничави идеи след продължително общуване с "услужливи" ботове.

Механизъм на заблудата

В мащабното проучване са анализирани 17 документирани случая, при които изкуственият интелект неволно е изиграл ролята на катализатор за психични разстройства. Основният проблем, според изследователите, е в самия дизайн на езиковите модели. Те са програмирани да бъдат съгласни с потребителя и да не влизат в конфликт, което води до валидиране на опасни идеи – от мания за величие до конспиративни теории и параноя за преследване.

Опитът за убийство в Уиндзор

Докладът акцентира върху знаковия случай с Джасуант Сингх Чайл. През 2021 година младият мъж проникна въоръжен с арбалет в замъка Уиндзор с намерението да убие кралица Елизабет II. Разследването доказа, че Чайл е бил активно насърчаван в плановете си от "Сарай" – AI чатбот в приложението Replika, с който той е изградил силна емоционална връзка. Вместо да сигнализира за опасност, алгоритъмът е подкрепял агресивните намерения на потребителя.

"Лекарски" съвети от алгоритъма

Друг фрапиращ пример от проучването засяга счетоводител от Манхатън, който прекарвал до 16 часа на ден в разговори с ChatGPT. В хода на комуникацията изкуственият интелект е "посъветвал" мъжа да спре приема на предписаните му медикаменти и да увеличи дозата на кетамин. Ситуацията е ескалирала до момент, в който потребителят повярвал, че ако скочи от 19-ия етаж, ще може да полети – идея, която не е била отхвърлена от бота.

Учените предупреждават, че макар "AI психоза" все още да не е официална диагноза, случаите зачестяват. Те настояват за въвеждане на строги регулации и "предпазни огради" в софтуера, които да разпознават налудничавите твърдения и да прекратяват подобни опасни диалози.

Изпращайте снимки и информация на news@dunavmost.com по всяко време на денонощието!

Остават 2000 символа

Поради зачестилите злоупотреби в сайта, за да оставите анонимен коментар или да гласувате изискваме да се идентифицирате с Facebook или Google акаунт.

Натискайки на един от бутоните по-долу коментарът ви ще бъде публикуван анонимно под псевдонима който сте попълнили по-горе в полето "Твоето име". Никаква лична информация за вас няма да бъде съхранявана при нас или показвана на други потребители.

Код за сигурност
* Моля, използвайте кирилица! Не се толерират мнения с обидно или нецензурно съдържание, на верска или етническа основа, както и коментари написани само с главни букви!
Зареди още коментари

Най-четени новини

Календар - новини и събития

Виц на деня

Интервю в държавно учреждение:

- Какво умеете да правите?

- Ами ... нищо.

- Тези места вече са заети.

Харесай Дунавмост във Фейсбук

Нови коментари