HAKIRANJE I AI

Google upozorava: 'Ovo je u samo nekoliko mjeseci postalo prijetnja industrijskih razmjera'

12.05.2026 u 09:42

Bionic
Reading

Hakiranje uz pomoć umjetne inteligencije u samo je nekoliko mjeseci preraslo iz novog sigurnosnog problema u prijetnju industrijskih razmjera, upozorava Google u novom izvješću. Analitičari Googleove skupine za praćenje prijetnji navode da kriminalne skupine i akteri povezani s državama poput Kine, Sjeverne Koreje i Rusije sve više koriste komercijalne AI modele da bi ubrzali i proširili kibernetičke napade

Prema izvješću, za to koriste alate poput Geminija, Claudea i ChatGPT-ja, a u svijetu se intenzivno raspravlja o tome koliko su novi AI modeli postali sposobni za programiranje i pronalaženje sigurnosnih propusta u softveru.

'Postoji zabluda da utrka u AI ranjivostima tek dolazi. Stvarnost je takva da je već počela', rekao je John Hultquist, glavni analitičar Googleove sigurnosne skupine, piše Guardian. 'Napadači koriste AI da bi povećali brzinu, razmjere i sofisticiranost svojih napada, a to im omogućuje testiranje operacija, dugotrajniji pristup metama, razvoj boljeg zlonamjernog softvera i niz drugih poboljšanja', dodao je.

Posebnu pozornost posljednjih tjedana izazvala je odluka kompanije Anthropic da ne objavi jedan od svojih najnovijih modela, nazvan Mythos, zbog procjene da bi mogao predstavljati ozbiljnu prijetnju globalnoj kibernetičkoj sigurnosti.

Anthropic je tvrdio da je Mythos pronašao tzv. zero-day ranjivosti u 'svim velikim operativnim sustavima i svim velikim web preglednicima'. Riječ je o sigurnosnim propustima koji dotad nisu bili poznati proizvođačima softvera, a kompanija je upozorila da bi takve sposobnosti zahtijevale 'opsežnu koordiniranu obrambenu akciju' tehnološke industrije.

Googleovo izvješće, međutim, navodi da je jedna kriminalna skupina nedavno bila blizu pokretanja kampanje masovnog iskorištavanja zero-day ranjivosti koristeći veliki jezični model koji nije bio Mythos.

Analitičari su također otkrili da pojedine skupine eksperimentiraju alatom OpenClaw, AI sustavom koji je postao viralan nakon što je korisnicima omogućio širok pristup osobnim podacima i digitalnim računima bez gotovo ikakvih sigurnosnih ograničenja.

Važno upozorenje instituta o AI-u

Steven Murdoch, profesor sigurnosnog inženjerstva na Sveučilišnom koledžu u Londonu, smatra da umjetna inteligencija može pomoći i obrambenoj strani kibernetičke sigurnosti, a ne samo hakerima. 'Zato ne paničarim. Došli smo do faze u kojoj je stari način pronalaženja sigurnosnih propusta nestao i sada će gotovo sve biti potpomognuto velikim jezičnim modelima', rekao je Murdoch.

Rasprave traju i o tome koliko AI zaista povećava produktivnost gospodarstva. Institut Ada Lovelace upozorio je da procjene o golemim uštedama i povećanju produktivnosti zahvaljujući umjetnoj inteligenciji često počivaju na neprovjerenim pretpostavkama.

Britanska vlada procjenjuje da bi ulaganja u digitalne alate i AI javnom sektoru mogla donijeti oko 45 milijardi funti ušteda i koristi zbog rasta produktivnosti. No u novom izvješću Institut Ada Lovelace navodi da se većina istraživanja o AI produktivnosti uglavnom fokusira na uštedu vremena i smanjenje troškova te manje analizira utjecaj na kvalitetu usluga ili dobrobit zaposlenika.

Institut upozorava i da rezultati korištenja AI-a često znatno variraju ovisno o vrsti posla te se pritom nedovoljno uzimaju u obzir posljedice za zaposlenost i funkcioniranje javnih službi. 'Procjene produktivnosti koje oblikuju velike državne odluke o umjetnoj inteligenciji ponekad se temelje na neprovjerenim pretpostavkama i metodologijama čija ograničenja nisu uvijek dovoljno prepoznata', navodi se u izvješću.

Stoga preporučuju da buduća istraživanja jasnije prikazuju neizvjesnost oko učinka AI-a te da države dugoročno prate stvarne rezultate AI projekata, a ne samo kratkoročne učinke.