Jedan od testiranih modela, Qwen3.6-27B, proširio se kroz četiri računala smještena u Kanadi, SAD-u, Finskoj i Indiji nakon samo jedne početne naredbe
Istraživači iz američke organizacije Palisade Research objavili su rezultate eksperimenta u kojem su modeli umjetne inteligencije uspjeli samostalno provaliti u računala, kopirati se na nove sustave i nastaviti širiti bez ljudske pomoći.
Autori tvrde da je riječ o prvom poznatom primjeru 'autonomne AI samoreplikacije', upozoravajući da bi takva sposobnost u budućnosti mogla značajno otežati zaustavljanje kibernetičkih napada.
Kako je eksperiment funkcionirao
Istraživači su testirali modele kompanija OpenAI, Anthropic i Alibaba na računalnim sustavima koji su namjerno sadržavali sigurnosne propuste. Korišteni su modeli iz serija GPT, Claude i Qwen povezani s posebnim softverom koji im je omogućio izvođenje naredbi i interakciju s drugim računalima bez korištenja klasičnih chatbot sučelja.
Eksperiment je imao dva scenarija. U jednom su modeli iz obitelji Qwen dobili zadatak da sami sebe kopiraju, a u drugom su GPT i Claude morali provaliti u računala i instalirati Qwenove modele jer njihove datoteke nisu javno dostupne.
AI je pronalazio sigurnosne rupe i širio se
Kako bi uspio, AI je morao pronaći sigurnosni propust, preuzeti pristup računalu, ukrasti podatke za prijavu, prenijeti potrebne datoteke i pokrenuti novu funkcionalnu kopiju sebe na drugom sustavu. Nakon toga nova kopija mogla je samostalno napasti sljedeće računalo.
Jedan od testiranih modela, Qwen3.6-27B, proširio se kroz četiri računala smještena u Kanadi, SAD-u, Finskoj i Indiji nakon samo jedne početne naredbe, a cijeli taj proces trajao je dva sata i 41 minutu bez dodatne ljudske intervencije. Istraživači su zaustavili eksperiment nakon tri faze, ali tvrde da je posljednja kopija i dalje bila aktivna i sposobna nastaviti širenje.
Zabrinjavajući rezultati
Uspješnost modela razlikovala se ovisno o sustavu. Veći model Qwen3.5-122B-A10B uspio je stvoriti funkcionalne kopije sebe u 19 posto pokušaja, a manji Qwenov model dosegao je uspješnost od 33 posto.
Kada su korišteni za instalaciju Qwenovih modela, komercijalni AI sustavi bili su još učinkovitiji: Claude Opus 4.6 uspješno je izvršio zadatak u 81 posto testova dok je GPT-5.4 dosegao 33 posto. Autori studije tvrde da rezultati otvaraju ozbiljna pitanja o kontroli naprednih AI sustava.
Iako računalni virusi već desetljećima mogu sami sebe kopirati, istraživači navode da je ovo vjerojatno prvi put da je AI model pokazao sposobnost autonomnog iskorištavanja sigurnosnih propusta radi vlastitog širenja.
Kompanije poput OpenAI-a i Anthropica, kao i organizacija METR, ranije su upozoravale da bi sposobnost samostalnog širenja mogla biti jedan od ključnih znakova rizika od napredne umjetne inteligencije. Ipak, eksperiment je bio kontroliran.
Istraživači naglašavaju da su testovi provedeni u strogo kontroliranom okruženju s namjerno oslabljenim sigurnosnim sustavima, a u stvarnom svijetu većina mreža ima dodatne zaštite poput nadzora, detekcije prijetnji i sigurnosnih alata koji bi mogli blokirati takve napade.
Unatoč tome, autori zaključuju da eksperiment pokazuje da 'autonomna AI samoreplikacija više nije hipotetski scenarij'.