Iako smo se udaljili od razdoblja koja su oblikovala moderne ideje o moralu, sve im se češće vraćamo kako bismo odredili što smatramo 'dobrim', a što 'lošim'. To postaje ključno u trenutku kada umjetna inteligencija traži jasne vrijednosne smjernice dok ulazi u gotovo svaki aspekt naših života
U jeku sve intenzivnije integracije umjetne ingeligencije u sve zamislive pore ljudske svakodnevice, postavlja se pitanja koje odrednice vode takve sustave, odnosno, kako bi neki rekli - vrijednosti koje trebva poštovati.
U nedavnom članku Timea, spominje se razgovor Sama Altmana i Tuckera Carlsona. Carlson je inzistirao na pitanju moralnih temelja ChatGPT-a, naglašavajući da se tehnologiji često pripisuje 'duhovni' status, kao nadmoćnoj sili kojoj se ljudi obraćaju za smjernice. Altman je odbacio takvo tumačenje, tvrdeći da u AI-ju ne vidi ništa duhovno. Carlson je tada postavio logično pitanje: Ako je sve samo stroj i produkt svojih ulaznih podataka, koje su onda vrijednosti ugrađene u taj mehanizam?
Povuklo se tako pitanje moralnih temelja ChatGPT-a, na što je (nakon pritiska) Altman priznao da, pored konzumacije masivne količine podataka dostupnih na internetu, umjetna inteligencija dobija određene smjernice koje diktiraju način na koji će reagirati. Pitanje koje nastaje nakon toga je - koje su smjernice zapravo točne.
Takav pristup ponovno je istaknuo problem usklađivanja umjetne inteligencije s ljudskim vrijednostima, ideju koja se razmatra još od šezdesetih godina prošlog stoljeća. Riječ je o upozorenju da se svrha svakog sustava mora jasno definirati prije nego što mu se povjeri značajan stupanj autonomije.
Kako uskladiti AI s ljudskim vrijednostima
No, Time piše da taj izazov ima dublji sloj jer pretpostavlja da su i same ljudske vrijednosti jasno određene. Autor tvrdi da suvremeno društvo pokazuje znakove duboke nepovezanosti s duhovnim temeljima na kojima su civilizacije kroz stoljeća počivale. Premda je taj proces započeo u doba prosvjetiteljstva i industrijske revolucije, posljedice postaju posebno vidljive danas kada su simboli starog poretka izgubili svoju prisutnost u svakodnevnom životu.
Tu dolazimo do poznatog problema usklađivanja, odnosno ideje da, kako bismo spriječili egzistencijalne rizike i zadržali kontrolu nad AI sustavima, moramo osigurati njihovu usklađenost s ljudskim vrijednostima. Koncept nije nov: još je 1960. pionir umjetne inteligencije Norbert Wiener upozorio da se svrha stroja mora vrlo jasno definirati prije nego što mu se prepusti autonomija. 'Ako koristimo mehaničku agenciju čijim radom ne možemo učinkovito upravljati, 'moramo biti sigurni da je svrha koju unosimo u stroj ona koju zaista želimo.-'
No postoji jedan još stariji i dublji problem: kako uskladiti AI s ljudskim vrijednostima ako ni sami ne znamo koje su one? Na čemu treniramo sebe dok pokušavamo voditi smislen život? To su pitanja na koja moramo odgovoriti prije nego što odlučimo što želimo da umjetna inteligencija uči od nas. Jer čak i kada bismo savršeno uskladili AI s trenutačnim stanjem društva, rezultat bi i dalje bio manjkav. Vrijednosti moramo razjasniti sada, dok gradimo tehnologiju koja će ih preuzeti, piše Time.
U tom se okviru spominje knjiga Paula Kingsnortha koja polazi od tvrdnje da svako društvo počiva na nekom obliku svetog poretka, bez obzira na religijsku tradiciju. On upozorava da se raspad takvog poretka odražava na političkoj, kulturnoj i osobnoj razini, što se prema navodima teksta može iščitati u trenutačnoj društvenoj napetosti.
Stoga, postavlja se pitanje jesmo li uopće povezani s punim rasponom ljudskog iskustva ako istodobno stvaramo tehnologiju koja bi na njemu trebala biti oblikovana.
Time naglašava da u trenu kad AI krene oblikovati skoro svaki aspekt života trebamo razjasniti skup temeljnih vrijednosti koji definiraju samu ljudskost. Bez takvog temelja teško je očekivati da će se tehnologija razvijati u smjeru koji će istodobno biti koristan, stabilan i odraz najboljih elemenata ljudskog iskustva.