ChatGPT in podobna orodja pri postavljanju diagnoz niso zanesljiva

https://www.freepik.com/free-photo/opened-ai-chat-laptop_38259334.htm[Foto: Freepik]

Orodja umetne inteligence, ki so vse pogosteje uporabljena tudi za iskanje zdravstvenih informacij, se v praksi ne izkažejo kot zanesljiva pomoč pri postavljanju diagnoz, opozarja nova raziskava, ki kaže, da pogovorni modeli umetne inteligence pri presoji simptomov ne dosegajo boljših rezultatov kot običajno spletno iskanje.

Raziskava, izvedena na vzorcu 1.300 sodelujočih v Združenem kraljestvu in objavljena v reviji Nature Medicine, je primerjala učinkovitost več uveljavljenih modelov umetne inteligence pri ugotavljanju možnih bolezni na podlagi opisa simptomov. Rezultati so pokazali, da umetna inteligenca pri tej nalogi pogosto odpove, zlasti v primerjavi z dejanskim zdravniškim pregledom.

Sodelujoči v raziskavi v resnici niso bili bolni. Raziskovalci so jim predstavili deset različnih sklopov simptomov, za katere v medicinski stroki obstaja splošno soglasje glede pravilne diagnoze. Naloga udeležencev je bila, da na podlagi teh opisov poiščejo najverjetnejšo razlago zdravstvenih težav, pri čemer so uporabljali bodisi umetno inteligenco bodisi klasično iskanje po spletu.

Natančno diagnozo je uspelo postaviti približno tretjini sodelujočih, kar se ni razlikovalo od rezultatov skupine, ki je informacije iskala brez pomoči umetne inteligence. Raziskovalci opozarjajo, da to kaže na omejitve tovrstnih orodij v realnih okoliščinah.

Soavtorica študije Rebecca Payne z Univerze v Oxfordu je poudarila, da so ti sistemi sicer tehnološko impresivni, vendar še zdaleč niso pripravljeni prevzeti vloge zdravnika. Študija je bila objavljena v znanstveni reviji Nature Medicine.

Razlika med izpiti in resničnim življenjem

V preteklosti so nekatere raziskave pokazale, da se lahko umetna inteligenca zelo dobro odreže pri reševanju zdravniških izpitov ali testov z vnaprej določenimi odgovori. Ko pa se sooči z resničnimi uporabniki, se pokažejo težave.

Raziskovalci menijo, da ljudje pogosto ne znajo natančno opisati svojih simptomov ali izpustijo pomembne podrobnosti, kar umetni inteligenci dodatno oteži pravilno presojo. To potrjuje, da se razmere v praksi bistveno razlikujejo od nadzorovanih testnih okolij.

Previdnost v zdravstvenem sistemu

Ugotovitve raziskave prihajajo v času, ko številne države razmišljajo o večji vlogi umetne inteligence v zdravstvu, tudi zaradi dolgih čakalnih dob za obravnavo pri zdravniku. V Franciji naj bi pristojni zdravstveni organi kmalu podali uradno stališče o neposredni uporabi umetne inteligence s strani pacientov, pri čemer so že prej ocenili, da bi bila lahko ta orodja koristna predvsem kot podpora zdravstvenim delavcem.

Avtorji raziskave opozarjajo tudi na omejitve študije, saj je temeljila na fiktivnih primerih, poleg tega pa so bili nekateri uporabljeni modeli medtem že nadomeščeni z novejšimi različicami. Kljub temu strokovnjaki poudarjajo pomen ugotovitev. Bioetičar David Shaw z Univerze v Maastrichtu je za AFP ocenil, da raziskava jasno opozarja na resna zdravstvena tveganja, ki jih lahko za širšo javnost predstavlja nekritična uporaba klepetalnih robotov.