TRAŽI SE ROBOETIKA!

Kako znanstvenici mogu doskočiti robotima-ubojicama

24.07.2016 u 08:00

Bionic
Reading

Nedavno održana vojna vježba južnoafričke vojske kojom prilikom je robot koji upravlja protuzračnim topom u potpunosti izgubio kontrolu i u nasumičnoj pucnjavi zbog još neidentificiranog kvara ubio devet, a teško ranio 14 vojnika opet je pokazala kako roboti postaju sve samostalniji te kako je nužno razviti regulative za njihovo upravljanje putem etičke robotike kojom bi se osiguralo moralno prosuđivanje robota

Podsjetimo, do tragedije na vojnom poligonu došlo je nakon što je protuzračni top švicarsko-njemačke proizvodnje Oerlikon GDF-005 kojim upravlja robot počeo nekontrolirano ispaljivati bojevo streljivo po vojnicima koji su se našli u njegovoj blizini. Iako je pokrenuta istraga tijekom čijeg se početka tvrdilo kako je došlo do mehaničkog kvara, ispitivanjem je utvrđeno kako je za pogibiju vojnika kriv softver ugrađen u top koji se pak sam puni nakon što ispali rafal.

Kobna softverska pogreška

Na moguće softverske greške u ovom robotski pokretanom topu upozoravalo se i ranije, no sve do tragedije na poligonu nitko od korisnika ove vrste naoružanja nije reagirao, iako su u nekoliko navrata zabilježeni slični incidenti, doduše bez ljudskih žrtava. Stručnjaci, posebno etičari smatraju kako se sa sve većom potrebom za korištenje robota povećavaju i šanse da roboti polude i samostalno se odlučuju na poteze koji bi mogli dovesti do novih tragedija.

Jedna takva moguća dodatna tragedija izbjegnuta je nedavno tijekom napada pomahnitalog bivšeg vojnika u Dallasu kada je policija koristila robot za uništavanje oružja, a koji upravo svojim vlastitim punjenjem eksploziva uništava cilj, a pritom zbog moguće greške u softveru može i sam eksplodirati prilikom postavljanja računalnih postavki nužnih za njegovo djelovanje.

Kubrickovo proročanstvo

Na ubojitu samostalnost pri djelovanju upozorio je još ranije britanski redatelj Stanley Kubrick koji je u svojem znanstvenofantastičnom remek-djelu '2001 Odiseja u svemiru' predstavio računalo HAL koje je programirano kako bi istraživalo Jupiter, no pritom zbog svojeg softvera s ubilačkim nagonom, ne preže od pokolja vlastite posade.

Upravo stoga etičari učestalo ukazuju na potrebu društveno razvijenih regulativa prema kojima bi se računalno upravljani strojevi trebali staviti pod kontrolom etičkih odluka. Etičari pritom ponajviše upiru prstom u vojnu tehnologiju koja koristi robotiku kao temelj u razvijanju modernih ubojitih oružja koja, kako je pokazao nedavni slučaj iz Južnoafričke Republike, mogu prouzročiti tragedije neslućenih razmjera. Pored vojske, etičari ukazuju i na opasnosti koje vrebaju i na civile budući da se roboti koriste u automobilskoj industriji i zrakoplovstvu te medicini kao ispomoć u kretanju i obavljanju složenih zadaća, a samim time kao autonomni sklopovi na sebe preuzimaju odgovornost i to u nepredvidljivim situacijama kada je u pitanju život ili smrt.

Međunarodna inicijativa

Iako nitko ne očekuje od tih strojeva moralnu prosudbu, greške uvjetovane kvarovima nagnale su etičare i ostale koji se istražuju smisao i ciljeve moralnih normi kako je nužno što skorija uspostava osnovnih kriterija za moralno vrednovanje. Stoga ne čudi kako je prošle godine na prijedlog Jürgena Altmanna, fizičara i potpredsjednik Međunarodnog odbora za kontrolu robotskog oružja (ICRAC) pokrenuta inicijativa za nadgledanje, kako je kazao, novog kruga međunarodne utrke u naoružanju koja predstavlja podjednaku opasnost za pojedinca, ali i međunarodnu stabilnost u cjelini.

Altmann je upozorio kako već sedam država u svijetu ima naoružane bespilotne letjelice, a sve je više onih koji su zainteresirani za uvođenje dronova radi borbenog djelovanja što bi moglo dovesti do nekontrolirane eskalacije u broju bespilotnih letjelica. Potpredsjednik ICRAC-a ističe kako će širenje takvog oružja još više destabilizirati međunarodne odnose, osobito stoga što se sve više razvijaju sustavi oružja koji sami biraju svoje mete. Stoga je organizacija pokrenula inicijativu 'Zaustavite robote ubojice' koja poziva na uvođenje pravila koja bi onemogućila države koje razvijaju takva oružja za koje smatraju da će biti opasna i nepredvidljiva.

ICRAC ističe kako je pritom nužno slijediti glavne smjernice roboetike, točnije tri zakona robotike koje je još početkom četrdesetih godina prošlog stoljeća postavio Isaac Asimov, poznati biokemičar i pisac SF bestselera.

Asimovljevi zakoni

Asimov je, naime, tim zakonom utvrdio kako se od robota mora zahtijevati zaštita ljudi, poslušnost te čuvanje samih sebe, što u današnje vrijeme kada raste broj robotskog oružja zvuči poput znanstvene fantastike, budući je nerealno očekivati od vojnih robota poštivanje prve stavke Asimovljeva roboetičkog zakona.

ICRAC je otišao još dalje te je razradio osnove Asimovljeva zakona napominjući kako su zakoni potrebni kako bi se utvrdilo je li konstruktor, programer, proizvođač ili operator pogriješio ako robot pomahnita i prouzroči nesreću. Stoga naglašavaju kako je u cilju određivanja odgovornosti nužno računalno bilježenje svih parametara kojim se koristi autonomni robotički sustav čime bi se kasnije mogli istražiti razlozi koji su naveli robota na samostalnu odluku koja bi, nerijetko, mogla dovesti do katastrofalnih razmjera. Pored toga, nužno je utvrditi ravnotežu između rizika i dobrobiti koje nam pružaju roboti, a koja je još uvijek nepoznanica.