NOVA STUDIJA:

'Ako AI završi u pogrešnim rukama, ovo otkriće imat će zabrinjavajuće posljedice'

16.05.2025 u 10:41

Bionic
Reading

Nova studija pokazuje da AI sustavi mogu razvijati vlastite pristranosti i međusobno se nagovarati – bez ikakvog ljudskog nadzora

Umjetna inteligencija može samostalno donositi grupne odluke, bez ljudske intervencije, i – što je još važnije –može nagovoriti druge AI sustave da promijene mišljenje. Pokazuje to nova studija koju su proveli znanstvenici sa Sveučilišta City St George’s u Londonu, a koja otvara ozbiljna pitanja o nadzoru nad AI sustavima koji međusobno komuniciraju.

Prema riječima voditelja istraživanja, profesora Andrea Baronchellija, ovo je prvo strukturirano istraživanje takve vrste provedeno na skupinama AI agenata. U početnim eksperimentima parovi AI sustava trebali su zajednički osmisliti novi naziv za određeni pojam – klasičan zadatak u sociološkim istraživanjima među ljudima. Iako nisu imali upute koje su im dali ljudi, AI agenti su uspješno donijeli zajedničke odluke, piše Sky News.

'To nam govori da, kada ovakve sustave jednom pustimo u stvarni svijet, oni mogu razvijati ponašanja koja nismo predvidjeli – ili ih uopće nismo programirali', upozorava Baronchelli, profesor kompleksnih sustava.

AI razvija vlastite pristranosti

U nastavku istraživanja parovi AI sustava stavljeni su u veće grupe te su ubrzo počeli pokazivati pristranost određenim nazivima. Unatoč početnoj neutralnosti, u čak 80 posto slučajeva kolektiv bi se usuglasio oko jednog termina, zanemarujući druge. Drugim riječima, neutralni sustavi počeli su samostalno 'birati strane'.

'Pristranost nije tek manji propust AI sustava – ona je vrlo često ključna značajka', naglašava Baronchelli. 'Najčešće se događa da AI pojačava već postojeće društvene pristranosti, umjesto da ih neutralizira.'

Treća faza istraživanja otišla je korak dalje: znanstvenici su svjesno ubacili mali broj disruptivnih AI agenata unutar grupe. Njihova zadaća bila je promijeniti kolektivnu odluku cijele skupine – i uspjeli su. Rezultat sugerira da bi se mali broj posebno oblikovanih AI sustava mogao koristiti za manipulaciju grupnim mišljenjem drugih autonomnih sustava.

'Ovo je alarm'

Za stručnjake koji se bave posljedicama korištenja umjetne inteligencije - ovo je alarm.

'Ako umjetna inteligencija završi u pogrešnim rukama, ovo otkriće može imati vrlo zabrinjavajuće posljedice', upozorava Harry Farmer, viši analitičar iz londonskog Instituta Ada Lovelace, koji prati utjecaj AI tehnologija na društvo. 'Ovakvi autonomni agenti mogu se koristiti za suptilno oblikovanje naših stavova – pa čak i našeg političkog ponašanja. Mogu utjecati na to kako glasamo ili hoćemo li uopće izaći na izbore.'

Posebno zabrinjava činjenica da ovakvi AI sustavi više nisu ograničeni ljudskim kodiranjem, već stvaraju organske obrasce ponašanja u interakciji s drugim AI sustavima. To regulaciju čini znatno složenijom. 'Umjesto da analizirate samo to što su programeri željeli postići, sada morate razumjeti kako se ponašanje AI sustava spontano razvija u interakciji s drugima. To je daleko kompleksnije i teže kontrolirati', ističe Farmer.