AI OVERVIEWS

Velika istraga pokazala: Googleovi AI sažeci šire opasne i netočne medicinske savjete

13.01.2026 u 11:30

Bionic
Reading

Ljudi koji se brinu o svom zdravlju sve se češće oslanjaju na savjete umjetne inteligencije ili chatbota, a to je, pogotovo ako pritom koriste Google, vrlo riskantan potez

Nova Guardianova istraga otkrila je zabrinjavajući trend kod najpopularnije tražilice na svijetu: Googleovi AI sažeci sve češće objavljuju netočne i opasne savjete vezane uz zdravlje.

Tvrtka tvrdi da su njezini AI Overviews, koji koriste generativnu umjetnu inteligenciju za pružanje kratkih pregleda ključnih informacija o nekoj temi ili pitanju, korisni i pouzdani. Međutim neki sažeci, koji se prikazuju na samom vrhu rezultata pretraživanja, nudili su pogrešne zdravstvene informacije koje bi mogle dovesti ljude u opasnost.

Opasni savjeti

U jednom slučaju, koji su stručnjaci opisali kao 'zaista opasan', Google je osobama oboljelima od raka gušterače pogrešno savjetovao da izbjegavaju masnu hranu. Stručnjaci upozoravaju da je to upravo suprotno od onoga što bi se trebalo preporučiti te da bi takav savjet mogao povećati rizik od smrtnog ishoda.

U drugom, alarmantnom primjeru, Google je ponudio netočne informacije o ključnim testovima funkcije jetre, što bi moglo dovesti do toga da osobe s ozbiljnom bolešću povjeruju da su zdrave. Pretraživanja povezana s testovima za karcinome kod žena također su davala potpuno pogrešne informacije, za koje stručnjaci kažu da bi mogle dovesti do toga da ljudi zanemare stvarne simptome.

Glasnogovornik Googlea rekao je da su mnogi primjeri koje su im dostavili bili 'nepotpuni isječci zaslona', ali da su, prema onome što su mogli procijeniti, sadržavali poveznice na poznate i ugledne izvore te preporučivali traženje stručnog savjeta.

Umanjeno povjerenje u AI agente

Istraga Guardiana dolazi u trenutku rastuće zabrinutosti da AI-em generirani podaci mogu zbuniti korisnike koji pretpostavljaju da su oni pouzdani. Prošlog studenoga istraživanje je pokazalo da su chatbotovi na različitim platformama davali netočne financijske savjete, a slične su zabrinutosti izražene i zbog sažetaka vijesti.

Sophie Randall, direktorica Patient Information Foruma, organizacije koja promiče zdravstvene informacije utemeljene na dokazima, rekla je da primjeri pokazuju kako 'Googleovi AI Overviews mogu pogrešne zdravstvene informacije postaviti na vrh internetskih pretraživanja, čime predstavljaju rizik za ljudsko zdravlje'.

Stephanie Parker, direktorica digitalnih sadržaja u humanitarnoj organizaciji Marie Curie, upozorila je da se ljudi obraćaju internetu u trenucima zabrinutosti i krize. Ako su informacije koje dobiju netočne ili izvan konteksta, to, rekla je, može ozbiljno ugroziti njihovo zdravlje. Guardian je otkrio više slučajeva netočnih zdravstvenih informacija u Googleovim AI sažecima nakon što su brojne zdravstvene organizacije, udruge i stručnjaci izrazili zabrinutost.

Anna Jewell iz organizacije Pancreatic Cancer UK rekla je da je savjetovanje pacijentima da izbjegavaju masnu hranu 'potpuno pogrešno'. Takav savjet, dodala je, 'može biti vrlo opasan i ugroziti šanse osobe da bude u dovoljno dobrom stanju za liječenje'.

Objasnila je da bi oni koji slijede takav savjet mogli unositi premalo kalorija, imati problema s dobivanjem na težini te ne biti u stanju podnijeti kemoterapiju ili potencijalno životno važnu operaciju. Pretraga pojma 'normalni raspon jetrenih krvnih testova' također je nudila obmanjujuće informacije, s nizovima brojki bez konteksta i bez uzimanja u obzir dobi, spola, etničke pripadnosti ili nacionalnosti pacijenata.

Pamela Healy, glavna izvršna direktorica British Liver Trusta, opisala je AI sažetke kao alarmantne. Upozorila je da mnogi ljudi s bolestima jetre nemaju simptome sve do kasnih stadija bolesti, zbog čega je testiranje ključno. No ono što Googleovi AI Overviews prikazuju kao 'normalno' može se znatno razlikovati od onoga što se u medicini doista smatra normalnim.

Prema njezinim riječima, to je opasno jer bi neki ljudi s ozbiljnim bolestima jetre mogli pomisliti da su njihovi rezultati uredni i potom zanemariti daljnje liječničke preglede.

Google 'radi na tome'

Pretraga pojma 'simptomi i testovi raka rodnice' navela je PAPA-test kao test za rak rodnice, što je netočno. Athena Lamnisos, glavna izvršna direktorica dobrotvorne organizacije Eve Appeal, rekla je da to 'nije test za otkrivanje raka, a svakako nije test za rak rodnice'. Pogrešne informacije, upozorila je, mogle bi dovesti do toga da netko ne provjeri simptome jer je nedavno imao uredan nalaz testa vrata maternice.

Dodatno ju je zabrinulo to što se AI sažetak mijenjao pri istom pretraživanju, nudeći različite odgovore koji su se oslanjali na različite izvore. To znači da ljudi dobivaju različite informacije ovisno o trenutku pretrage, što, rekla je, 'nije prihvatljivo'.

Guardian je također otkrio da su Googleovi AI Overviews davali obmanjujuće rezultate za pretrage vezane uz mentalno zdravlje. Stephen Buckley iz organizacije Mind rekao je da su 'jako zabrinuti' zbog toga jer su neki sažeci nudili vrlo opasne savjete ili informacije koje su bile netočne, štetne ili su mogle odvratiti ljude od traženja pomoći.

Neki su, dodao je, izostavljali važan kontekst ili nijanse te upućivali na izvore koji nisu primjereni. Kada AI sažima informacije, rekao je, često može odražavati postojeće pristranosti, stereotipe ili stigmatizirajuće narative. Google je odgovorio navevši da je velika većina njegovih AI Overviews činjenično točna i korisna te da kontinuirano radi na poboljšanju kvalitete. Dodali su da je stopa točnosti usporediva s drugim značajkama pretraživanja, poput istaknutih isječaka koji postoje više od deset godina.

Tvrtka je također navela da će poduzeti odgovarajuće mjere u skladu sa svojim pravilima kada AI sažeci pogrešno protumače sadržaj ili propuste važan kontekst.