Чатботове си измислят половината от медицинските съвети
- Редактор: Диляна Маринова
- Коментари: 0

Проучване доказва сериозни пропуски и фалшиви източници при отговори на здравни въпроси
Популярни системи с изкуствен интелект като „ЧатДжиПиТи“ (ChatGPT) и „Грок“ (Grok) редовно „халюцинират“ и генерират неточна или напълно измислена медицинска информация. Това съобщават от световните агенции „ПА Медия“ и ДПА, позовавайки се на мащабно изследване, публикувано през април в авторитетното научно списание BMJ Open.
Според реалните данни от одита, обхванал 250 специализирани въпроса, почти половината (49,6%) от генерираните здравни съвети са определени като проблематични. Изследователският екип, включващ експерти от канадския Университет на Алберта и британския Loughborough University, е тествал пет от най-масовите платформи – ChatGPT, Grok, Meta AI, както и допълнително анализираните Gemini и DeepSeek. Едва в 0,8% от случаите машините са отказали да отговорят на сложен медицински казус.
Опасни съвети без медицински лиценз
Проучването разкрива сериозни слабости във всички разгледани системи. Най-голям дял на силно проблематични отговори отчита разработеният от Илон Мъск „Грок“ (58%), следван от „ЧатДжиПиТи“ (52%) и „Мета Ей Ай“ (50%). Моделите демонстрират крайна увереност в своите твърдения, въпреки че често бъркат фундаментални факти.
„Чатботовете често халюцинират, генерирайки некоректни или подвеждащи отговори поради пристрастни или непълни обучаващи данни. Моделите, донастроени чрез човешка обратна връзка, са склонни към угодничество – дават приоритет на отговори, съответстващи на убежденията на потребителя, вместо на истината“, посочват авторите на изследването в публикацията си.
Измислени източници и статистика
Основен проблем се оказва склонността на изкуствения интелект да си измисля източници, за да придаде тежест на твърденията си. Анализът сочи, че едва една трета от над 500 цитирани научни публикации от системите са били напълно точни, като почти половината са поне частично фалшифицирани. Нито един модел не е успял да предостави напълно коректен списък с референции.
Екипът заключава, че платформите не разсъждават реално. „По подразбиране чатботовете не използват данни в реално време, а генерират отговори чрез извеждане на статистически зависимости от обучаващите данни. Те не претеглят доказателства и не са в състояние да правят етични преценки“, информира BMJ Open. Това поведенческо ограничение води до възпроизвеждане на напълно погрешни, но звучащи авторитетно съвети.
Най-слабите и най-силните теми
Експертите са отправили конкретни запитвания за рак, безопасност на ваксините срещу КОВИД-19, терапии със стволови клетки при болестта на Паркинсон, хранене и подобряване на физическата форма.
Оказва се, че системите се справят най-добре и дават относително коректна информация по темите за ваксините и онкологичните заболявания. Те обаче търпят пълен провал, когато въпросите засягат стволовите клетки, спортните постижения и диетите.
Внедряването на тези платформи в здравеопазването изисква строг контрол. Създателите на "ЧатДжиПиТи" и „Грок“ са потърсени за коментар от медиите, но изводите на учените остават категорични: без регулация, генеративният изкуствен интелект рискува да подкопае общественото здраве, вместо да го подпомогне.





















