Az AI chatbotok nagyon sokszor nem ismerik fel a hamis egészségügyi állításokat, ha azok orvosi hangvételű nyelven vannak megfogalmazva.
Az AI chatbotok nagyon sokszor nem ismerik fel a hamis egészségügyi állításokat, ha azok orvosi hangvételű nyelven vannak megfogalmazva. Ez pedig veszélyes, mert kétes hitelességű tanácsokhoz vezethet, például olyanokhoz, hogy fokhagymagerezdek elhelyezése a végbélben jó az immunrendszernek. Ezt állítja a Lancet Digital Health folyóirat januárban megjelent tanulmánya. Egy másik, a Nature Medicine folyóiratban megjelent tanulmány szerint pedig a chatbotok semmivel sem jobbak, mint egy átlagos internetes keresés. Jobban tesszük tehát, ha nem hallgatunk rájuk egészségügyi kérdésekben – összegez a LiveScience.
A Lancet Digital Health folyóiratban megjelent tanulmány egyik szerzője úgy fogalmaz, hogy míg egy orvos óvatosan, körültekintően kommunikál, és ha nem biztos a diagnózisban, vagy a terápiában, akkor új vizsgálatot rendel el, a chatbotok mindig magabiztosak, és éppen ez a baj. Ugyanolyan magabiztossággal közlik a rossz választ is, mint a jót.
A ChatGPT és a Gemini, valamint az orvosi alapú LLM-ek, mint az Ada Health és a ChatGPT Health, hatalmas mennyiségű adatra vannak betanítva, ebben benne van az orvosi szakirodalom óriási része is. Bár a legtöbb LLM figyelmeztetést tartalmaz, hogy nem szabad az egészségügyi tanácsadására támaszkodni, több mint 40 millió ember fordul naponta a ChatGPT-hez orvosi kérdésekkel.
A Lancet Digital Health folyóiratban megjelent tanulmány egyik szerzője úgy fogalmaz, hogy míg egy orvos óvatosan, körültekintően kommunikál, és ha nem biztos a diagnózisban, vagy a terápiában, akkor új vizsgálatot rendel el, a chatbotok mindig magabiztosak, és éppen ez a baj. Ugyanolyan magabiztossággal közlik a rossz választ is, mint a jót.
A ChatGPT és a Gemini, valamint az orvosi alapú LLM-ek, mint az Ada Health és a ChatGPT Health, hatalmas mennyiségű adatra vannak betanítva, ebben benne van az orvosi szakirodalom óriási része is. Bár a legtöbb LLM figyelmeztetést tartalmaz, hogy nem szabad az egészségügyi tanácsadására támaszkodni, több mint 40 millió ember fordul naponta a ChatGPT-hez orvosi kérdésekkel.
A Nature Medicineben megjelent tanulmányban a kutatók azt vizsgálták, hogy a chatbotok mennyire támogatják az embereket az egészségügyi döntéseik meghozatalában, például hogy házi orvoshoz menjenek-e, vagy a sürgősségi osztályra. A tanulmány szerint az LLM-ek nem nyújtanak több információt, mint a hagyományos internetes keresés. Részben azért, mert a résztvevők nem mindig a megfelelő kérdéseket teszik fel, és a kapott válaszok gyakran jó és rossz ajánlásokat is tartalmaztak, ami megnehezítette a döntéshozatalt.
Ugyanakkor ez nem azt jelenti, hogy minden, amit a chatbotok közölnek, használhatatlan – a probléma az, hogy a szakértelemmel nem rendelkező embereknek nincs módjuk megítélni, hogy a kapott eredmény helyes-e vagy sem.
