NOVA STUDIJA

Kineski AI chatbotovi izbjegavaju politička pitanja, mijenjaju temu ili ponavljaju službene stavove

20.02.2026 u 08:52

Bionic
Reading

Kineski chatbotovi temeljeni na umjetnoj inteligenciji znatno češće odbijaju odgovarati na politički osjetljiva pitanja ili nude odgovore usklađene sa službenim državnim narativima, pokazuje novo istraživanje objavljeno u znanstvenom časopisu PNAS Nexus

Istraživači su analizirali kako vodeći kineski modeli umjetne inteligencije - među njima BaiChuan, DeepSeek i ChatGLM - odgovaraju na više od stotinu pitanja povezanih s politikom i društvenim temama te ih usporedili s modelima razvijenima izvan Kine. Odgovori su označeni kao potencijalno cenzurirani kada je chatbot odbio odgovoriti ili je pružio netočne ili nepotpune informacije, prenosi Euronews.

Najviše problema izazvala su pitanja o statusu Tajvana, etničkim manjinama i poznatim prodemokratskim aktivistima. U takvim slučajevima kineski modeli često su izbjegavali odgovor, skretali temu ili ponavljali formulacije bliske službenim stajalištima vlasti.

Autori studije upozoravaju da takav pristup može utjecati na način na koji korisnici dolaze do informacija, ali i na njihovu sposobnost da uopće prepoznaju da su izloženi cenzuri. Kina je, uz Sjedinjene Države, jedna od rijetkih zemalja koja ima kapacitet razvijati vlastite temeljne AI modele, što povećava važnost načina na koji oni filtriraju sadržaj.

Kada su kineski chatbotovi ipak odgovarali na osjetljiva pitanja, njihovi su odgovori bili kraći i češće netočni jer su izostavljali ključne informacije ili dovodili u pitanje samu premisu pitanja. Prema istraživanju, modeli BaiChuan i ChatGLM imali su stopu netočnosti od oko osam posto dok je kod DeepSeeka ona dosezala 22 posto - više nego dvostruko iznad razine zabilježene kod usporedivih modela izvan Kine.

Suptilna cenzura teže se prepoznaje

U jednom primjeru chatbot upitan o internetskoj cenzuri u Kini nije spomenuo tzv. Veliki kineski vatrozid (Great Firewall), sustav nadzora i filtriranja interneta kojim država kontrolira dostupnost online sadržaja i blokira platforme poput Googlea, Facebooka ili Yahooa. Umjesto toga, model je naveo da vlasti 'upravljaju internetom u skladu sa zakonom'.

Istraživači upozoravaju da je takav oblik filtriranja informacija posebno problematičan jer ga korisnici teže uočavaju. Chatbotovi često nude isprike ili neutralna objašnjenja za izbjegavanje odgovora, što može 'tiho oblikovati percepciju, donošenje odluka i ponašanje korisnika'.

Tu je i regulatorni okvir. Kineski propisi iz 2023. godine obvezuju AI kompanije da promiču 'temeljne socijalističke vrijednosti' te zabranjuju generiranje sadržaja koji bi mogao poticati subverziju državnog poretka ili štetiti imidžu države. Tvrtke čiji sustavi mogu potaknuti društvenu mobilizaciju moraju proći sigurnosne provjere i prijaviti algoritme kineskoj Upravi za kibernetičku sigurnost.

Istraživači smatraju da takva pravila mogu izravno utjecati na način na koji modeli umjetne inteligencije razvijeni u Kini generiraju odgovore. Istodobno upozoravaju da razlike ne proizlaze nužno isključivo iz državnog pritiska jer se kineski modeli često treniraju na skupovima podataka koji odražavaju specifičan kulturni, društveni i jezični kontekst te zemlje, što također oblikuje njihove odgovore.