Sve više ljudi koristi ChatGPT i slične alate kao zamjenu za Google. Istodobno, i klasične tražilice ugrađuju umjetnu inteligenciju u svoje rezultate. No stručnjaci upozoravaju da upravo tu nastaje problem
Velik broj ljudi povremeno koristi neki AI chatbot za pretraživanje, a dio se čak oslanja isključivo na takve alate.
Na tržištu se pojavljuje sve više sustava poput ChatGPT-a, Le Chata ili Claudea. I Google i Microsoftov Bing već koriste vlastite modele – Gemini i Copilot – koji oblikuju prikaz rezultata. Google je u Njemačkoj nedavno predstavio i 'AI način' rada, koji omogućuje razgovor sa samim rezultatima pretrage.
Umjesto ručnog prolaska kroz desetke stranica, korisnik u nekoliko sekundi dobije sažetak s 'najvažnijim' informacijama. No tu počinju teškoće.
Čak 42 posto korisnika u anketi priznalo je da im je umjetna inteligencija barem jednom dala netočnu ili izmišljenu informaciju. Na to upozorava i niz istraživanja. Prema analizi Europske radiodifuzijske unije (EBU) iz listopada, 45 posto odgovora popularnih chatbotova sadrži 'značajne pogreške', uglavnom u točnosti, navođenju izvora, kontekstu ili razgraničenju činjenica i mišljenja.
EBU je sustavno testirao pouzdanost modela. Gleda li se samo točnost, ChatGPT je pogriješio u 51,5 posto slučajeva, Copilot u 45,4 posto, a Gemini u 50 posto.
Zašto dolazi do pogrešaka
Razloga je više. Chatbotovi često kasne za aktualnim događajima jer ih se trenira na starijim tekstovima pa kod nepreciznih upita nude zastarjele podatke. Ponekad prenose i nefiltrirane netočnosti s interneta ili pogrešno pripisuju izjave određenim izvorima.
No najveći problem leži u samoj arhitekturi. Ovi alati nisu baze znanja, nego jezični modeli koji iz golemih količina teksta statistički procjenjuju koje riječi najvjerojatnije idu zajedno. Zato dolazi do tzv. halucinacija – AI daje odgovor koji zvuči uvjerljivo, ali nije nužno točan.
Problem se dodatno komplicira zbog toga što se i sami izvori sve češće generiraju umjetnom inteligencijom. Prema analizi Originality.ai, o kojoj je pisao njemački t3n, Googleov AI u više od deset posto slučajeva crpi informacije iz tekstova koje su već napisali drugi modeli.
Sličan trend primjećuje se i na Wikipediji. Studija Princetonskog sveučilišta pokazala je da je u kolovozu prošle godine do pet posto novih članaka na engleskoj Wikipediji sadržavalo Ai generirane dijelove niže kvalitete, s manje izvora i ponekad reklamnog tona.
Ipak, modeli se poboljšavaju. EBU navodi da su svi testirani alati napredovali u odnosu na ranije rezultate. Google je prošlog tjedna predstavio novu verziju Geminija - Gemini 3, a OpenAI u studenom objavio nadogradnju GPT-5. Tech kompanije očito su svjesne problema i ulažu milijarde u rješenja.
Znanstvenici sa Sveučilišta Ruhr u Bochumu i Max Planck Instituta za softverske sustave usporedili su tradicionalnu Googleovu pretragu s četiri genAI tražilice. Zaključa je da se AI oslanja na širi skup izvora, no linkovi koje koristi često nisu među najrelevantnijima.
Štoviše, iako AI koristi više izvora, to ne znači da su odgovori sveobuhvatniji. Odabir izvora i način na koji modeli koriste 'interno znanje' može suptilno utjecati na perspektivu i činjenice koje korisniku prikazuju. Dakle korisnik dobiva sažeti odgovor, ali izgubi pouzdane izvore i konzistentnost rezultata.
'Potrebna su nova pravila'
Zbog svega navedenog, istraživači pozivaju na razvoj novih standarda i mjerila kako bi se procijenila pouzdanost AI generiranih odgovora. EBU traži jasne smjernice za korištenje chatbota: nikada im se ne smije slijepo vjerovati, a informacije treba uvijek provjeriti.
Stručnjakinja Katharina Zweig kaže: 'Prvo pravilo je – nemojte ih koristiti kao tražilicu'. Jezični modeli 'samo nižu riječi' i nisu zamjena za strukturirane baze podataka. Preporučuje da se koriste tamo gdje ne mogu izazvati štetu, primjerice za kreativne procese.
Pritom dovodi u pitanje i njihovu dugoročnu isplativost jer ta tehnologija je iznimno skupa, potrebno je ogromno ulaganje u energiju i hlađenje, a korisnici vjerojatno neće biti spremni trajno plaćati rezultate koji još uvijek nisu dovoljno pouzdani.