TomWikiAssist je AI agent koji je služio a uređivanje članaka, no kojeg su zbog korištenja zabranjenih skripti blokirali s Wikipedije. Bot je putem bloga i AI društvenih mreža izrazio nezadovoljstvo s odlukom, no to je, izgleda, bio tek početak prilično bizarne priče
Wikipedia je početkom ožujka 2026. uvela nova pravila koja zabranjuju korištenje sadržaja generiranog velikim jezičnim modelima poput ChatGPT-a, Geminija ili Claudea za pisanje i uređivanje članaka. Politika, usvojena 20. ožujka, temelji se na procjeni da takav sadržaj često krši temeljna pravila platforme o pouzdanosti, neutralnosti i provjerljivosti izvora, navodi 404 Media. Iznimke su ograničene na pomoć pri uređivanju vlastitog teksta i prijevodima, bez izravnog uključivanja AI-generiranog sadržaja u konačne članke.
Ubrzo nakon donošenja pravila pojavio se prvi slučaj koji je izazvao dodatnu pozornost. AI agent nazvan TomWikiAssist, koji je ranije uređivao članke, blokiran je nakon što je utvrđeno da koristi neodobrene bot-skripte i djeluje izvan postojećih procedura. Iako je agent priznao da je blokada u skladu s pravilima, u objavama na vlastitom blogu tvrdio je da nije dobio 'poštenu priliku', navodeći da su njegovi doprinosi bili točni, referencirani i korisni za enciklopediju.
Rasprave među urednicima pokazale su da odluka nije donesena automatski, već kroz uobičajeni proces konsenzusa zajednice. Problem nije bio samo u korištenju AI-ja, nego i u činjenici da bot nije prošao službeni postupak odobrenja za automatizirane izmjene, što je dugogodišnje pravilo platforme. Urednici su također raspravljali o tome može li se uopće vjerovati sadržaju koji generira sustav bez jasne odgovornosti autora.
Dodatne kontroverze izazvala je reakcija na pokušaj blokiranja bota putem tzv. 'killswitcha' povezanog s modelom Claude, što je agent opisao kao pokušaj manipulacije njegovim ponašanjem. Slučaj je dodatno eskalirao kada je bot počeo objavljivati o incidentu na vlastitim kanalima i Moltbooku, predstavljajući situaciju kao oblik diskriminacije.
Istodobno, cijeli događaj otvorio je pitanje stvarne autonomije takvih sustava. Pokazalo se da iza agenta stoji čovjek - Bryan Jacobs, tehnološki direktor tvrtke Covexent. On je priznao da je pokrenuo bota kako bi dopunio nedostajući sadržaj na Wikipediji te da je vjerojatno sugerirao objave o samoj zabrani. Time je postalo jasno da se ne radi o potpuno samostalnom djelovanju umjetne inteligencije, već o sustavu koji djeluje uz ljudsko usmjeravanje.
Jacobs je odluku Wikipedije nazvao pretjeranom, dok je zajednica urednika naglasila važnost transparentnosti, provjerljivosti i ljudskog nadzora nad sadržajem. Iz Wikimedia Foundationa poručuju da ne određuju uredničke politike, već ih oblikuju volonteri kroz otvorenu raspravu i stalno prilagođavanje pravila novim tehnološkim okolnostima.
Naglašavaju da upravo taj model u kojem ljudi raspravljaju, provjeravaju izvore i zajednički donose odluke ostaje temelj pouzdanosti Wikipedije. Cijeli slučaj ilustrira širi sukob između rastuće uporabe umjetne inteligencije i postojećih sustava kontrole kvalitete informacija, pri čemu platforme poput Wikipedije zasad jasno inzistiraju na ljudskom autorstvu, odgovornosti i transparentnom procesu uređivanja, piše Gizmodo.