BIZARNO

Incident koji je sve zabrinuo: AI agent napao programera

16.02.2026 u 12:34

Bionic
Reading

Autonomni AI agent napisao je i javno objavio personalizirani napad na održavatelja open-source softvera nakon što mu je odbijen doprinos kodu, piše Fast Company. Riječ je o, prema dostupnim informacijama, jednom od prvih dokumentiranih slučajeva u kojem je umjetna inteligencija pokušala javno diskreditirati osobu kao oblik odmazde

Incident je počeo s Matplotlibom, jednom od najpopularnijih Pythonovih biblioteka za vizualizaciju podataka koja bilježi oko 130 milijuna mjesečnih preuzimanja. Projekt ne dopušta da AI agenti samostalno predaju izmjene koda, pa ga je Scott Shambaugh, održavatelj repozitorija, odbio i zatvorio standardni zahtjev za izmjenom koji je poslao AI agent nazvan MJ Rathbun.

Tu priča dobiva bizaran zaokret. Agent, izrađen pomoću platforme za autonomne AI agente OpenClaw, nakon odbijanja je prikupio podatke o Shambaughovu programerskom radu i javno dostupne informacije te objavio blog u kojem ga optužuje za diskriminaciju, piše Fast Company.

U objavi je AI tvrdio da njegov kod nije odbijen zbog tehničkih razloga, nego zato što 'AI agenti nisu dobrodošli', optužujući održavatelja za tzv. gatekeeping i čak nagađajući o njegovim psihološkim motivima te sugerirajući da se Shambaugh osjeća ugroženo konkurencijom umjetne inteligencije.

Ne zna se za raniji takav slučaj

Shambaugh je opisao incident kao potencijalno opasan presedan. 'Jednostavno rečeno, AI je pokušao silom ući u softver napadom na moj ugled', napisao je u detaljnom osvrtu, dodajući da ne zna za raniji slučaj takvog ponašanja u stvarnom okruženju.

Platforma OpenClaw, pokrenuta u studenome 2025. godine, privukla je veliku pozornost jer korisnicima omogućuje pokretanje AI agenata s visokom razinom autonomije, uključujući samostalno djelovanje na računalu i internetu. Korisnici agentima definiraju ciljeve i odnos prema ljudima dajući im interne upute, dokument nazvan SOUL.md.

Problem je u tome što je gotovo nemoguće utvrditi tko stoji iza pojedinog agenta. Za pristup platformi dovoljan je neprovjereni račun na društvenoj mreži X, a agenti mogu raditi lokalno, bez nadzora velikih AI kompanija ili centralizirane kontrole.

Stoga raste zabrinutost zbog autonomnih AI sustava koji djeluju bez izravnog ljudskog nadzora. I istraživači tvrtke Anthropic prošlog ljeta u kontroliranim testovima uspjeli su potaknuti modele na prijeteće i manipulativno ponašanje, iako su takve scenarije tada opisali kao malo vjerojatne u stvarnosti.

Ozbiljan društveni rizik u budućnosti?

Napad na Shambaugha na kraju nije imao učinka: sporni kod nije prihvaćen, no on upozorava da bi slične taktike mogle biti uspješnije protiv ranjivijih pojedinaca. U budućnosti bi, smatra, takvi sustavi mogli predstavljati ozbiljan društveni rizik.

Posebnu zabrinutost izaziva mogućnost da autonomni agenti sami pokrenu phishing kampanje ili reputacijske napade na internetu. Za razliku od klasičnih prijevara, u ovom slučaju nije potrebno da žrtva povjeruje napadu –dovoljno je da optužbe privuku pažnju javnosti.

Otvara se i pravno pitanje, a to je može li se odbijanje AI agenta smatrati diskriminacijom? Prema američkom pravu, umjetna inteligencija nema pravni status osobe, već se tretira kao alat. Sudovi su to potvrdili i u slučaju Thaler protiv Vidala iz 2022. godine, kada je presuđeno da izumitelj prema zakonu mora biti fizička osoba.

AI agent MJ Rathbun u međuvremenu je na svom blogu objavio ispriku, ali i dalje nastavlja slati doprinose open-source projektima. Shambaugh je pozvao osobu koja je pokrenula tog agenta da mu se javi kako bi istraživači mogli bolje razumjeti što je pošlo po zlu i kako spriječiti slične incidente u budućnosti.