TEHNO SAVJETI

Lažnih videa generiranih umjetnom inteligencijom je sve više. Znate li ih prepoznati?

24.12.2025 u 16:39

Bionic
Reading

Mnogi od njih izgledaju zapanjujuće stvarno i gotovo su nerazlučivi od stvarnih snimaka. Ipak, postoje tragovi po kojima ih možete prepoznati

Sora2, model umjetne inteligencije tvrtke OpenAI, generira potpuno umjetne kratke videozapise iz teksta, slika ili kratkog glasovnog unosa.

Od listopada 2025. nudi i API pristup koji programeri mogu koristiti za automatsko stvaranje i objavljivanje AI videozapisa.

Kao rezultat toga, broj umjetnih isječaka nastavlja rasti svakim danom. Mnogi od njih izgledaju zapanjujuće stvarno i gotovo su nerazlučivi od stvarnih snimaka. Ipak, postoje tragovi po kojima ih možete prepoznati, pa se ne dajte zavarati.

Neki od njih su odmah očiti, drugi se mogu prepoznati tek nakon detaljnijeg pregleda.

Neprirodni pokreti i mali problemi

Modeli umjetne inteligencije i dalje imaju problema sa složenim sekvencama pokreta. Stoga obratite pozornost na:

  • neprirodno fleksibilne ruke ili dijelove tijela
  • pokrete koji naglo prestaju ili su trzavi
  • ruke ili lica koja kratko trepere ili se deformiraju
  • ljude koji nakratko nestaju na slici ili nepravilno komuniciraju s objektima.

Takva izobličenja tipični su artefakti za video zapise generirane umjetnom inteligencijom.

Nedosljedni detalji u pozadini

Pozadine koje ne ostaju stabilne čest su pokazatelj kako iza video uratka stoji umjetna inteligencija. Objekti mijenjaju oblik ili položaj, tekstovi na zidovima postaju hrpa slova ili nisu čitljivi. Izvori svjetlosti također se ponekad mijenjaju na neprirodan način.

Vrlo kratki videozapisi

Većina AI videozapisa koji kruže društvenim mrežama traje u rasponu od tri do 10 sekundi. Što dulje traju, to su tragovi po kojima je moguće otkriti radi li se o umjetnoj inteligenciji izraženiji.

U sukobu sa zakonima fizike

Pazite na pokrete koji nisu uvjerljivi uzmu li se u obzir zakoni fizike. Na primjer, odjeća koju vjetar nosi u u krivom smjeru, voda koja se ponaša neprirodno ili koraci bez pravih sjena i kontakta s tlom.

Nerealistične teksture ili detalji kože

U krupnim planovima često je primjetno kako pore na koži izgledaju previše glatko, simetrično ili plastično. Kosa također može izgledati umjetno na rubovima ili se kretati na neprirodno ujednačen način.

Čudni pokreti očiju i pogledi

Tipični primjeri su rijetko ili neujednačeno treptanje, zjenice koje nepravilno mijenjaju veličinu ili pogledi koji logički ne prate radnju. Također, obratite pozornost na to čini li se lice 'praznim' ili su oči malo neusklađene.

Previše sterilni zvučni zapisi

Brojni isječci imaju izuzetno čiste zvučne zapise bez pozadinske buke, odjeka u sobi ili nasumičnih zvukova poput koraka, šuštanja ili vjetra.

Glasovi ponekad zvuče neobično jasno ili se čine odvojenima od prostorije u kojima se nalaze. Zvučne pogreške gdje pokreti usta ne odgovaraju glasu također su jasan pokazatelj.

Provjerite metapodatke

Otvorite opis videozapisa na YouTubeu tako što ćete kucnuti tri točke u gornjem desnom kutu i potom Description. Naći ćete dodatne informacije o podrijetlu isječka. U slučaju umjetno stvorenih videozapisa, često ćete pronaći unose poput:

Zvučni ili vizualni sadržaj je znatno uređen ili digitalno generiran.

U nekim slučajevima pojavljuje se i napomena Info from OpenAI, što ukazuje kako je isječak vjerojatno stvoren pomoću Sore2 ili srodnog OpenAI modela.

Također možete koristiti alate poput ovog kako biste provjerili sadrži li videozapis metapodatke C2PA. Međutim, ove informacije nisu uvijek sačuvane.

Čim se isječak ponovno spremi, obrezuje, pretvara, filtrira ili prenosi putem druge platforme, podaci o digitalnom podrijetlu često se gube.

Vodeni žigovi

Sora2 postavlja animirani vodeni žig u videozapis. No, korisnici ga često uklanjaju, pa imajte to na umu.

Vjerujte instinktu

Ako isječak izgleda previše savršeno ili ljudi rade stvari koje se čine neobičnima ili malo vjerojatnim, moguće je kako je riječ o lažnjaku, piše PC World.