DEEPFAKE TEHNOLOGIJA

Leonardova Mona Lisa 'oživjela' uz pomoć umjetne inteligencije

  • Autor: B.R./Hina
  • Zadnja izmjena 25.05.2019 15:27
  • Objavljeno 25.05.2019 u 15:27
Mona Lisa

Mona Lisa

Izvor: Profimedia / Autor: Profimedia

Slavna Leonardova Mona Lisa odnedavno uspijeva 'pomicati' glavom, očima i usnama. Uz pomoć umjetne inteligencije

Video snimka je nastala u Samsungovom moskovskom istraživačkom laboratoriju za umjetnu inteligenciju pri čemu se koristila takozvana 'deepfake' tehnologija koja se sastoji u softverskoj zamjeni lica, piše BBC.

No čini se da su mnogi zabrinuti zbog njezine sve češće upotrebe jer se može zloupotrijebiti. Naime, stavljajući lica ljudi na druge predloške ovom je tehnologijom moguće stvoriti prilično uvjerljive kopije i lažne video zapise, što su neki dosad koristili za zabavu, no ima i onih koji su to činili s manje plemenitim motivom.

Samsungovi algoritmi ranije su isprobani na javnoj bazi koju čini 7000 fotografija poznatih ličnosti, a one su preuzete s YouTubea.

Sustav umjetne inteligencije mapira crte lica i pokrete, a cilj mu je "oživjeti" fotografiju. Za stvaranje 'deepfakesa' koristi se tehnologija neuronskih mreža koja je u stanju aplicirati bilo koje dobro modelirano lice u bilo koji zadani joj kontekst, pa je tako jednog glumca moguće 'prebaciti' u drugi lik. Ovu je tehnologiju iskoristio i Dalijev muzej u St. Petersburgu u američkoj saveznoj državi Floridi, da bi "među žive vratio" slavnoga španjolskog umjetnika.

Slično je postignuto s fotografijama Alberta Einsteina, Fjodora Dostojevskog i Marilyn Monroe.

Izvor: Društvene mreže

Lažni Obama

Znanstvenici sa Sveučilišta u Tel Avivu sličan sustav predstavili su godine 2017. Lažni video bivšega američkog predsjednika Baracka Obame napravio je doktor Supasorn Suwajanakorn.

On je za BBC rekao da postoji mogućnost zloupotrebe ovakve tehnologije, no bez sumnje se može koristiti i u pozitivne svrhe. Primjerice, kaže dr. Suwajanakorn, osobe koje su izgubile voljenog člana obitelji mogle bi "oživjeti" preminulu osobu i stvoriti njihov avatar.

Znanstvenici otprije upozoravaju da se postupak može iskoristiti kako bi se napravile lažne video snimke političara. Kažu i da se na ovaj način vrlo jednostavno može manipulirati svim ljudima te da zloupotreba u političke svrhe nije jedina opasnost. Naime, deepfake tehnologija je, osim za manipulaciju fotografija slavnih osoba upotrijebljena i za kreiranje pornografskih sadržaja.

"Slavne i javne osobe moraju biti svjesne toga da je uvjerljiv lažni video vrlo lako kreirati kada poznajete 'deepfake' tehnologiju, zbog čega o tomu treba razgovarati", smatra Dave Coplin, direktor konzultantske kuće "The Envisioners", koja se bavi korištenjem umjetne inteligencije.

AKO STE PROPUSTILI:

Instagram stories

Ne prate vas dovoljno? Iskoristite ovih šest trikova kojima će vaše priče na Instagramu privući više pažnje

Pogledaj galeriju
6

Pregled tjedna bez spama i reklama

Prijavi se na naš newsletter i u svoj inbox primaj tjedni pregled najvažnijih vijesti!