Umjetno generirani videozapisi sve se češće koriste u internetskim kampanjama dezinformiranja povezanima s Rusijom, a sigurnosni analitičari upozoravaju da se svijet suočava s novom fazom digitalnog utjecaja u kojoj umjetna inteligencija omogućuje masovno i jeftino širenje političke propagande
Profesor na londonskom King's Collegeu Alan Read godinama je, poput mnogih korisnika društvenih mreža, povremeno nailazio na deepfake sadržaj. Ponekad bi ga prijavio, a ponekad jednostavno ignorirao. Situacija se promijenila kada ga je nepoznati profil označio u videozapisu u kojem je, činilo se, govorio upravo on.
U snimci se pojavljuje njegov lik dok sintetički glas, gotovo identičan njegovu, iznosi političke napade na francuskog predsjednika Emmanuela Macrona i druge zapadne čelnike, uspoređujući Europsku uniju s Titanikom. Read, koji nema nikakve veze s politikom, rekao je za BBC da mu je sadržaj bio 'potpuno stran' i uznemirujući.
Deepfake video nastao je preradom autentične snimke koju je objavio King's College London, ali joj je naknadno dodan umjetno generiran glas. Stručnjaci upozoravaju da takvi slučajevi postaju sve češći te da označavaju novu fazu informacijsko-psiholoških operacija.
'Ne svjedočimo samo porastu deepfakeova, nego promjeni načina na koji se proizvodi politički utjecaj', rekao je Chris Kremidas-Courtney, analitičar za obranu i sigurnost pri think tanku Europski centar za politike (EPC). Prema njegovim riječima, sustavi umjetne inteligencije danas omogućuju stvaranje uvjerljivih poruka 'u industrijskim razmjerima i za gotovo zanemariv trošak', a postojeći regulatorni mehanizmi još nisu prilagođeni tome.
Videozapisi koji se posljednjih mjeseci šire društvenim mrežama često diskreditiraju institucije Europske unije ili optužuju ukrajinsku vlast za korupciju, upravo u trenutku u kojem Kijev pokušava osigurati dodatnu financijsku i vojnu pomoć zapadnih saveznika u petoj godini ruske invazije.
Istraživači smatraju da je porast takvog sadržaja povezan i s ubrzanim razvojem alata za generiranje videa. Nakon predstavljanja naprednijih AI sustava, poput nove verzije OpenAI-eva generatora videa Sora, realističnost sintetičkih snimki značajno je porasla. Dok velike tehnološke kompanije nastoje ograničiti zlouporabe i označavati umjetno generirani sadržaj, brojne manje aplikacije pokušavaju osvojiti tržište nižim cijenama i slabijim sigurnosnim pravilima, uključujući uklanjanje vodenih žigova koji razlikuju AI sadržaj od stvarnih snimki.
Kampanje diljem Europe
Ruski stručnjak za umjetnu inteligenciju Arman Tuganbaev ističe da upravo takvi 'drugorazredni' alati često omogućuju generiranje videa s likovima stvarnih osoba, što vodeće platforme pokušavaju spriječiti. OpenAI je pak za BBC izjavio da poduzima mjere protiv računa koji koriste njihove alate za obmanjujuće ili štetne aktivnosti.
Primjeri takvih kampanja već su zabilježeni diljem Europe. Krajem prošle godine viralni AI videozapisi u Poljskoj prikazivali su mlade žene koje pozivaju na Polexit, odnosno izlazak zemlje iz Europske unije. Poljske vlasti ocijenile su da je riječ o ruskoj dezinformacijskoj operaciji te su zatražile istragu Europske komisije. TikTok je naknadno uklonio sporni sadržaj i profile povezane s njegovim širenjem, navodeći da je 2025. godine uklonio više od 75 prikrivenih operacija utjecaja širom svijeta.
Zabrinutost raste i u Ujedinjenom Kraljevstvu te su zastupnici raspravljali o mogućnosti da deepfake sadržaji utječu na lokalne izbore. Predsjednik britanskog izbornog povjerenstva Vijay Rangarajan upozorio je da su takve metode već korištene u brojnim izbornim procesima diljem svijeta te da nema razloga vjerovati kako bi Britanija bila iznimka u tome.
Britanski Zakon o internetskoj sigurnosti obvezuje platforme na uklanjanje sadržaja koji se može dokazati kao strani manipulativni utjecaj, no stručnjaci ističu da postupci često traju predugo u digitalnom okruženju u kojem videozapisi mogu postati viralni u svega nekoliko sati.
Iako je teško precizno utvrditi izvor pojedinih objava, zapadni istraživači navode da mnoge kampanje dijele slične obrasce produkcije i distribucije, što ih povezuje s organiziranim mrežama bliskima Kremlju. Jedna od operacija, nazvana Matrjoška ili Operation Overload, navodno je koordinirala širenje sintetičkih videozapisa usmjerenih protiv moldavske predsjednice Maie Sandu u izbornoj kampanji 2025. godine.
Tvornica trolova
Naziv operacije, prema ruskim drvenim lutkama koje se umeću jedna u drugu, odražava i njezinu taktiku: izvorna lažna tvrdnja skriva se unutar slojeva ponovljenih objava s kompromitiranih ili starih korisničkih računa, čime se otežava otkrivanje stvarnog izvora.
Istraživači sa Sveučilišta Clemson povezali su drugu mrežu, označenu kao Storm-1516 u analizi Microsoftova centra za praćenje prijetnji, s veteranima iz nekadašnje ruske 'tvornice trolova' Jevgenija Prigožina, bivšeg čelnika paravojne skupine Wagner.
Prema istraživanju koje uskoro izlazi, lažni narativi koje je ta mreža širila, primjerice optužbe o navodnoj korupciji ukrajinskog predsjednika Volodimira Zelenskog, uspijevali su u roku od tjedan dana zauzeti oko 7,5 posto svih rasprava o toj temi na društvenoj mreži X.
'To je rezultat kojim bi se ponosila svaka marketinška agencija', rekao je jedan od autora istraživanja, Darren L. Linvill, upozorivši da umjetna inteligencija značajno mijenja pravila informacijskog ratovanja.
Stručnjaci zaključuju da upravo kombinacija naprednih AI alata, anonimnih mreža distribucije i sporih regulatornih odgovora stvara novo okruženje u kojem će borba protiv dezinformacija postati jedan od ključnih sigurnosnih izazova zapadnih demokracija.