Kompanija Google uklonila je dio sažetaka o zdravlju koje je generirala umjetna inteligencija, nakon što je istraga The Guardian pokazala da su pojedini korisnici bili izloženi riziku zbog netačnih i obmanjujućih zdravstvenih informacija.
Googleovi tzv. AI Overviews, koji se pojavljuju na vrhu rezultata pretrage i nude kratke preglede tema, kompanija je ranije opisivala kao „korisne“ i „pouzdane“. Međutim, Guardian je utvrdio da su neki od tih sažetaka sadržavali pogrešne zdravstvene podatke koji su mogli dovesti korisnike u zabludu.
U jednom slučaju koji su stručnjaci ocijenili kao „opasan“ i „alarmantan“, Googleov AI prikazivao je netačne informacije o testovima funkcije jetre, što je moglo navesti osobe s ozbiljnim oboljenjima jetre da pogrešno zaključe kako su zdrave. Prilikom pretrage pitanja „koji je normalan raspon za testove krvi jetre“, korisnicima su se prikazivali brojevi bez dodatnog konteksta i objašnjenja o dobi, spolu ili drugim relevantnim faktorima.
Stručnjaci su upozorili da se vrijednosti koje je AI prikazivao kao normalne mogu značajno razlikovati od stvarnih medicinskih referenci, te da bi takvi sažeci mogli odvratiti teško bolesne pacijente od daljnjih pregleda.
Nakon istrage, Google je uklonio AI preglede za ključne pojmove „koji je normalan raspon za testove krvi jetre“ i „koji je normalan raspon za testove funkcije jetre“.
„Ne komentarišemo pojedinačna uklanjanja unutar Pretrage. U slučajevima kada AI pregledi propuštaju određeni kontekst, radimo na poboljšanjima i poduzimamo mjere u skladu s našim politikama“, poručio je glasnogovornik Googlea.
Direktorica za komunikacije i politiku u British Liver Trust, Vanessa Hebditch, pozdravila je odluku o uklanjanju spornih sažetaka. „Ovo su odlične vijesti i drago nam je što vidimo uklanjanje Google AI pregleda u ovim slučajevima“, rekla je, ali je dodala da i dalje postoji zabrinutost jer se slični, potencijalno obmanjujući sažeci mogu pojaviti ako se pitanje drugačije formuliše.
Guardian je, naime, utvrdio da male varijacije upita, poput „lft referentni raspon“, i dalje pokreću AI preglede. „Testovi funkcije jetre su složeni i ne mogu se svesti na puko poređenje nekoliko brojeva. Lažno uvjeravanje da je nalaz normalan može biti vrlo štetno“, upozorila je Hebditch.
Predsjedavajuća Foruma za informacije o pacijentima, Patient Information Forum Sue Farrington, kazala je da je uklanjanje sažetaka dobar korak, ali nedovoljan. „Još uvijek postoji previše primjera u kojima Google AI Overviews pružaju netačne zdravstvene informacije“, naglasila je.
Google je naveo da razmatra dodatne primjere koje mu je dostavio Guardian te da je njihov interni tim kliničara utvrdio kako u nekim slučajevima informacije nisu bile netačne i da su se oslanjale na ugledne izvore.
Ipak, prema riječima Victora Tangermanna, višeg urednika tehnološkog portala Futurism, rezultati istrage pokazuju da Google ima još mnogo posla kako bi spriječio širenje opasnih zdravstvenih dezinformacija putem alata umjetne inteligencije.


