Unatoč sve većem strahu od umjetne inteligencije u rukama hakera, nova studija pokazuje da kibernetički kriminalci zasad imaju više problema nego koristi pri pokušajima korištenja AI alata
Istraživanje Sveučilišta u Edinburghu analiziralo je više od 100 milijuna objava kibernetičkih kriminalaca prikupljenih putem baze CrimeBB, koja prati komunikaciju na forumima na kojima se oni okupljaju. Podaci su analizirani ručno, ali i uz pomoć velikog jezičnog modela (LLM).
Zaključak istraživača prilično je jasan: iako hakeri pokazuju velik interes za umjetnu inteligenciju, ona zasad nije bitno promijenila način na koji provode svoje napade. 'Mnoge recenzije i rasprave opisuju AI alate kao ne previše korisne', navodi se u studiji, prenosi Euronews.
Istraživači nisu pronašli 'nikakve značajne dokaze' da su hakeri uspješno koristili AI za poboljšanje svojih sposobnosti, bilo kao pomoć pri učenju, bilo za razvoj učinkovitijih alata za hakiranje. Studija ističe da su AI asistenti za programiranje uglavnom korisni ljudima koji već imaju ozbiljno znanje kodiranja. Ukratko, umjetna inteligencija ne pretvara početnike u vrhunske hakere preko noći.
'Prvo moraš sam naučiti osnove programiranja da bi se mogao služiti AI-em i stvarno imati koristi od njega', stoji u jednoj od objava citiranih u istraživanju.
Najveći utjecaj AI-a zasad se vidi u jednostavnijim i lakše automatiziranim oblicima internetskih prijevara. To uključuje izradu botova za društvene mreže, pojedine romantične prijevare, SEO manipulacije te stvaranje lažnih internetskih stranica koje se pokušavaju progurati na vrh rezultata pretraživanja da bi zarađivale od oglasa.
Čak i iskusniji hakeri najčešće koriste chatbotove za odgovore na pitanja o kodiranju ili za generiranje kratkih 'šalabahtera' koji im olakšavaju rad.
Istraživači su također zaključili da uglavnom pokušavaju koristiti legitimne i široko dostupne AI alate poput Anthropicova Claudea ili OpenAI-eva Codexa, umjesto onih specijaliziranih poput WormGPT-ja, razvijenih za pisanje malwarea ili phishing poruka.
Velik dio analiziranih objava odnosio se upravo na pokušaje zaobilaženja sigurnosnih ograničenja tih mainstream AI modela, no čini se da kriminalci pritom ne postižu osobit uspjeh.
Zbog toga se mnogi okreću starijim open-source modelima jer ih je lakše natjerati da zaobiđu sigurnosna pravila. Problem je što su ti modeli slabiji, manje korisni i često zahtijevaju znatno više računalnih resursa. Autori studije zaključuju da zaštitne mjere koje uvode AI kompanije zasad funkcioniraju, barem kada je riječ o sprječavanju masovne zloupotrebe umjetne inteligencije za kibernetički kriminal.