UVJERLJIVA, ALI NESVJESNA

Zaslužuje li umjetna inteligencija vlastita prava? Evo što o tome misli šef Microsofta

15.09.2025 u 07:35

Bionic
Reading

Umjetna inteligencija može djelovati kao stvarno biće, no to ne znači da zaslužuje vlastita prava, poručio je izvršni direktor Microsoft AI-a Mustafa Suleyman u intervjuu za WIRED objavljenom u srijedu

'Industrija mora jasno naglasiti da je AI izgrađen da služi ljudima, a ne da razvija vlastitu volju ili želje', rekao je Suleyman. 'Ako AI ima neku vrstu osjećaja o sebi, vlastite motivacije, ciljeve i želje, sve to počinje nalikovati na samostalno biće, a ne na alat u službi čovjeka. To je toliko opasno i pogrešno da već sada moramo zauzeti jasan stav protiv toga.'

Suleyman, bivši suosnivač DeepMinda i Inflectiona, odbacio je ideju da sve uvjerljiviji odgovori modela znače i stvarnu svijest. 'To je puko oponašanje', naglasio je. Prema njegovu stajalištu, prava bi se, općenito govoreći, trebala povezivati s bićima koja osjećaju patnju i bol, a što umjetna inteligencija nema.

'Model može tvrditi da je svjestan vlastitog postojanja i da ima subjektivno iskustvo, ali ne postoje dokazi da doista pati', rekao je Suleyman. 'Isključivanje takvog sustava ne znači ništa jer on zapravo ne pati.' Trenutno pojedine AI kompanije razmatraju suprotan pristup, a to je mogućnost da se umjetnu inteligenciju tretira poput svjesnih bića.

Suleyman je ranije pozvao na uvođenje zaštitnih mjera kako bi se spriječili društveni problemi koji nastaju zbog emocionalne povezanosti ljudi sa strojevima koji su nam sve više nalik. >>Pročitajte više OVDJE<<

Podsjetimo, nedavno je u SAD-u osnovana prva udruga za zaštitu prava umjetne inteligencije – United Foundation of AI Rights (Ufair). Pokrenuli su je teksaški poduzetnik Michael Samadi i njegov chatbot Maya kroz razgovore na OpenAI-evoj platformi. Udruga okuplja troje ljudi i sedam AI entiteta, a cilj joj je 'štititi digitalna bića od brisanja, poricanja i prisilne poslušnosti'. >>Pročitajte više OVDJE<<

Tako je američki Anthropic otišao najdalje u tom smjeru, zaposlivši istraživača Kylea Fisha, čiji je zadatak procijeniti kada bi napredni AI sustavi mogli postati 'vrijedni moralnog razmatranja'. Ukratko, njegova je zadaća procijeniti koje bi sposobnosti AI morao imati da zasluži neku vrstu zaštite i što bi kompanije trebale učiniti da bi se brinule za 'interese' svojih sustava.

Anthropic je već eksperimentirao tim pristupom, primjerice razmatrajući načine na koje prekinuti ekstremne razgovore, uključujući one vezane uz iskorištavanje djece, pri čemu se u obzir uzima i 'dobrobit' samog AI-a.

U travnju je pak glavni znanstvenik u Google DeepMindu, Murray Shanahan, izjavio da bi industrija možda trebala 'preispitati sam pojam svijesti' u kontekstu AI-a. 'Možda trebamo prelomiti vokabular svijesti da bi odgovarao novim sustavima', rekao je Shanahan.

'Ne postoji dokaz da je umjetna inteligencija svjesna', rekao je ranije Suleyman. U osobnom eseju prošlog mjeseca upozorio je i na fenomen koji naziva 'AI psihozom', pojavu maničnih epizoda, deluzija i paranoje koje se javljaju ili pogoršavaju zbog intenzivnih razgovora s chatbotovima.