Početkom studenoga društvenim mrežama počeli su se širiti videozapisi koji navodno prikazuju ukrajinske vojnike kako plaču, gube moral i predaju se na bojišnici. Na prvi pogled izgledaju autentično i nalikuju stvarnim snimkama iz ratne zone, koje su se godinama pojavljivale tijekom ruske invazije na Ukrajinu. No analiza koju je provela televizija NBC News pokazuje da se radi o koordiniranoj kampanji dezinformiranja u kojoj su korišteni napredni alati umjetne inteligencije, uključujući OpenAI-jev generator videozapisa Sora 2
Jedan od prvih koji je uočio da nešto nije u redu bio je Aleksei Gubanov, popularni ruski streamer koji danas živi u New Yorku. Gubanov, poznat po livestreamovima videoigara i razgovora na Twitchu, pobjegao je iz Rusije zbog javne kritike predsjednika Vladimira Putina. Vojsku nikada nije služio, a kamoli ukrajinsku. Ipak, upravo se njegovo lice pojavilo u jednom od viralnih videozapisa.
'Isprva to nisam shvatio ozbiljno, ali onda sam vidio koliko brzo raste broj pregleda i, još gore, koliko ljudi vjeruje da su ti videozapisi stvarni', rekao je Gubanov za NBC News. 'Deseci tisuća, ako ne i stotine tisuća korisnika ostavljali su komentare u kojima izražavaju sućut navodnim ukrajinskim vojnicima i bijes prema ukrajinskom vodstvu.'
U jednom od videozapisa, generiranom umjetnom inteligencijom, lik s Gubanovljevim licem nosi vojnu odoru s ukrajinskom zastavom i na ruskom jeziku govori: 'Odveli su nas u regrutni ured i poslali ovamo. Sad nas vode u Pokrovsk. Ne želimo ići. Molim vas.' Zatim dodaje: 'Mama, mama, ja ne želim!'
Najmanje 21 AI videozapis
NBC News je u proteklim tjednima analizirao 21 videozapis koji navodno prikazuju ukrajinske vojnike, a koji su, prema toj analizi, u cijelosti generirani ili dodatno manipulirani pomoću naprednih alata umjetne inteligencije. Neki od njih toliko su uvjerljivi da ne ostavljaju gotovo nikakve vidljive tragove manipulacije.
Ipak, u najmanje polovici slučajeva u kutu videozapisa pojavljivao se mali logotip – znak da su nastali pomoću Sore 2, najnovije verzije OpenAI-jeva alata za generiranje videa iz teksta. Dio tih videozapisa koristi lica poznatih ruskih livestreamera, generiranih deepfake tehnologijom, dok drugi prikazuju skupine ukrajinskih vojnika koji se masovno predaju ruskim snagama.
Videozapisi koji očito nisu nastali pomoću Sore imali su drukčije, ali vrlo suptilne pogreške, primjerice pojednostavljene ili netočne verzije ukrajinskih vojnih uniformi i kaciga, koje je prosječnom gledatelju iznimno teško uočiti.
Za Ukrajince je jedan detalj posebno upadljiv: većina 'vojnika' u tim videozapisima govori ruski jezik. Samo osam od 21 analiziranog videozapisa prikazuje vojnike koji govore ukrajinski.
Cilj je prikazati slom morala
Svi analizirani videozapisi širili su se putem YouTubea, TikToka, Facebooka i platforme X, a zajednička im je poruka – prikazati ukrajinske vojnike kao nevoljke borce, psihički slomljene i spremne na predaju.
Stručnjaci upozoravaju da se radi o najnovijem valu dezinformacijskih kampanji čiji je cilj iskriviti percepciju javnosti o ratu u Ukrajini. Iako nije jasno tko točno stoji iza kreiranja i objava tih videozapisa, oni se uklapaju u obrazac sve sofisticiranijih pokušaja širenja lažnih narativa.
'Lažne tvrdnje stvorene pomoću Sore znatno je teže otkriti i razotkriti. Čak i najbolji AI detektori ponekad imaju problema', upozorila je Alice Lee, analitičarka ruskog utjecaja u NewsGuardu, neovisnoj platformi za analizu dezinformacija. 'Ako video nema vidljive vizualne pogreške, ljudi ga na TikToku ili sličnim platformama često samo pogledaju i nastave dalje, ne shvaćajući da je riječ o lažnom videu.'
Reakcija OpenAI-ja i ograničenja zaštite
OpenAI nije izravno odgovorio na pitanja o ulozi Sore 2 u stvaranju obmanjujućih videozapisa iz ratnih zona, ali je u izjavi za NBC News naveo da 'sposobnost Sore 2 da generira hiperrealističan video i zvuk otvara ozbiljna pitanja vezana uz zloupotrebu, krađu identiteta i obmanu'.
Tvrtka tvrdi da su 'filmski stilizirane scene dopuštene', ali da ne dopušta 'obmanu, ekstremistički sadržaj ni grafičko nasilje'. Također navode da njihovi sustavi nastoje blokirati sadržaj koji krši pravila prije nego što se pojavi na platformi, te da interni timovi aktivno uklanjaju dezinformacijske kampanje.
No praksa pokazuje da su te zaštitne mjere ograničene. Studija NewsGuarda pokazala je da je Sora 2 u 80 posto slučajeva uspješno generirala uvjerljive videozapise s lažnim tvrdnjama, kada je to od nje zatraženo. Od 20 lažnih tvrdnji korištenih u istraživanju, njih pet bilo je ranije povezano s ruskim dezinformacijskim kampanjama.
I kada bi Sora isprva odbila generirati sadržaj, navodeći kršenje pravila, istraživači su uspijevali dobiti željene videozapise koristeći drukčije formulirane upite. NBC News je na sličan način uspio generirati videozapise ukrajinskih vojnika koji plaču, tvrde da su prisilno mobilizirani ili se predaju s bijelim zastavama u pozadini.
OpenAI navodi da Sora koristi metapodatke i vodeni žig kako bi se označilo da je video generiran umjetnom inteligencijom. Međutim, u praksi postoje brojni načini za prikrivanje ili uklanjanje tih oznaka. Neki videozapisi analizirani u istrazi imali su vodeni žig prekriven tekstom ili vizualnim elementima, dok su drugi koristili alate trećih strana za njegovo uklanjanje.
Unatoč pravilima koja zabranjuju prikazivanje grafičkog nasilja, NBC News je identificirao i videozapis sa Sorinim watermarkom koji prikazuje ukrajinskog vojnika pogođenog hicem u glavu na bojišnici.
Reakcije platformi
Svi analizirani videozapisi objavljeni su na TikToku ili YouTube Shortsu, platformama koje su zabranjene u Rusiji, ali su lako dostupne korisnicima u Europi i SAD-u. Mnogi su imali titlove s emotivnim porukama na različitim jezicima, kako bi bili razumljivi i onima koji ne govore ukrajinski ili ruski.
YouTube je uklonio jedan kanal nakon što ga je na problem upozorio NBC News, dok su dva videozapisa ostala dostupna jer, prema procjeni platforme, nisu kršila pravila, ali su označena kao AI generirani sadržaj. TikTok je, prema vlastitim navodima, uklonio sve identificirane videozapise povezane s tim računima.
No, snimke i dalje kruže X-om i Facebookom.
Sve veći broj korisnika oslanja se upravo na videozapise s društvenih mreža kako bi se informirao o globalnim događajima. Istodobno, rat u Ukrajini od samog je početka bio poprište sofisticiranih manipulacija – od lažnih livestreamova do snimki iz videoigara koje su se predstavljale kao stvarne ratne scene.
Ukrajinski Centar za suzbijanje dezinformacija pri Vijeću za nacionalnu sigurnost i obranu upozorava da je u posljednjih godinu dana zabilježen 'značajan porast sadržaja stvorenog ili manipuliranog pomoću umjetne inteligencije' s ciljem podrivanja povjerenja javnosti i međunarodne potpore Ukrajini.
'Takvi sadržaji često sadrže izmišljene izjave, lažna priznanja, navodne skandale ili potpuno fiktivne događaje. Zbog emocionalnog naboja nerijetko dosegnu stotine tisuća pregleda', navode iz Centra.
'Svatko tko konzumira online sadržaj mora biti svjestan da je velik dio današnjih videa, fotografija i tekstova generiran umjetnom inteligencijom', upozorila je Nina Jankowicz, suosnivačica i direktorica organizacije American Sunlight Project. 'Čak i ako Sora ima zaštitne mehanizme, pojavit će se druge tvrtke, druge aplikacije i nove tehnologije koje će naši protivnici koristiti kako bi zatrovali informacijski prostor.'