Kako se svijet sve brže prepušta algoritmima koji predviđaju vjerojatno, a ne istražuju moguće, lideri riskiraju gubitak najvažnijeg strateškog resursa – mašte. A što na to kažu stručnjaci?
O tome kako kratkoročna učinkovitost može ograničiti inovaciju, zašto 'gravitacija generičkog' čini tvrtke sličnijima te zašto ljudsko sudjelovanje nije trošak nego izvor rasta, za tportal govori Richard Foster Fletcher, osnivač međunarodne organizacije posvećene promociji odgovorne umjetne inteligencije MKAI (Morality and Knowledge in Artificial Intelligence), uoči godišnje konferencije BE-terna koja će se održati 6. studenog u Zagrebu.
Pomažete liderima prepoznati nesvjesne pristranosti i rizike. Što smatrate najvećom kolektivnom 'sljepoćom' kad je riječ o umjetnoj inteligenciji danas?
Najrašireniji rizik nije tehnički nego kognitivni: sužavanje strateške mašte. AI ne razumije svijet, on predviđa vjerojatno, a ne novo. U biti, to su sofisticirani oblici 'automatskog dovršavanja'; izvrsni u predviđanju poznatog, ali ograničeni u prepoznavanju novog. Kad se ta vjerojatnosna priroda spoji s optimizacijom koja teži stabilnosti i minimalnim odstupanjima, arhitektura se prirodno usmjerava prema poznatom.
To sužava spektar ideja i 'orezuje' raznolikost iz koje nastaje inovacija. Nekad su ideje nastajale kroz ljudsku raspravu - sporu, neurednu, ali raznoliku. Kad guramo AI samo u učinkovitost, portfelj ideja postaje uži i sigurniji, a industrije klize u stratešku konvergenciju: svi misle slično, razlikuje ih tek brzina izvedbe. Prednost tada prelazi s originalnosti na razmjere.
Ovo nije argument protiv učinkovitosti, nego za ravnotežu. Najsposobniji lideri automatiziraju predvidljiv, visokokvalificirani rad kako bi oslobodili resurse za 'neodređeni prostor' koji traži prosudbu i stvara novu vrijednost. Tu AI nije generator brzih odgovora, nego provokator dubljeg propitivanja jer testira pretpostavke, modelira različite scenarije i pomaže 'uvježbati' budućnosti koje još nisu vjerojatne, ali mogu biti transformativne. Trajnu će prednost imati oni koji razumiju da transformacija AI-a ne znači optimizirati poznato, nego razviti organizacijsku maštu koja vidi ono što tek može postati moguće.
Sve se više govori o paradoksu moći umjetne inteligencije - tko zapravo drži kontrolu: programeri, korporacije ili podaci?
Paradoks je da oni koji grade temeljne modele možda neće zadržati trajnu vrijednost. Ne nastaje nova paradigma, nego nova infrastruktura, poput električne mreže ili globalnog kontejnerskog brodarstva. Kratkoročno, kontrola je u rukama korporacija s platformnim modelima koji 'zaključavaju' korisnike. No konkurencija i golemi kapitalni zahtjevi guraju taj sloj prema komodifikaciji.
Trajna prednost pripast će onima koji tu infrastrukturu koriste ne samo za učinkovitost, što vodi prema 'gravitaciji generičkog', nego za ponovno osmišljavanje poslovnih modela, načina djelovanja i natjecanja. Nekolicina tehnoloških divova može 'posjedovati mrežu', ali veća moć bit će u rukama onih koji na njoj izgrade najotpornije i najmaštovitije 'tvornice'.
Koji je stvarni poslovni rizik od pristranosti AI sustava i kako njime upravljati?
Opasnost nije samo da sustav sadrži pristranosti, nego da pojača najgore kulturne navike organizacije. To stvara povratnu petlju - tvrtka može postati brža, pa i krhkija. Primjer: na jednostavan upit 'gomile ljudi' modeli aktiviraju zaštitne mehanizme raznolikosti, no kod složenijih scena, za kontekst se oslanjaju na dublje statističke tendencije, pa 'gomilu' često čine bijeli muškarci u odijelima. Zaštitni sloj popušta pred sirovim vjerojatnostima.
Kad AI prijeđe iz analitičkog asistenta u autonomnog agenta (npr. shortlist dobavljača) i oslanja se na 'povijesne odnose', slijedi trostruka cijena: krši standarde raznolikosti, otvara pravne rizike i povećava troškove (uži bazen znači manje inovacija i veću ranjivost opskrbe). Prioritet lidera nije 'lov na savršenu neutralnost', nego institucionalizirani nadzor: tretirati modele kao polazišta za strukturirano ljudsko preispitivanje, osobito prije operativne autonomije. Najnaprednije organizacije koriste AI kao dijagnostičko ogledalo: pristranosti služe i za korekciju modela i za uvid u vlastite procese i poticaje. Tako se tema iz moralne obveze preokreće u stratešku otpornost.
Savjetovali ste vlade Tunisa i Turske. Što političari najčešće pogrešno shvaćaju i što zapravo žele razumjeti?
Najopasnije je to što malo tko ima vremena ili tehničke dubine za intuitivno razumijevanje modela, a političko okruženje ne nagrađuje iskreno priznanje neznanja. Odluke od državne važnosti donose se pod pritiskom i uz temeljno nerazumijevanje. Ne postoji zamjena za iskustveno učenje.
AI često opisujem govoreći da je kao 'duh konzultant': savjetuje građane, utječe na radnu snagu i oblikuje diskurs. I sve to radi nevidljivo. Vlade ga ne mogu brifirati ni nadzirati njegove nadogradnje, a promjene u arhitekturi mogu mu bitno promijeniti utjecaj. Zato pitanje nije samo 'što će AI učiniti za nas', nego 'što će AI učiniti nama'. Ključno je da ostanemo aktivni upravitelji vlastite tehnološke putanje – napredak treba biti vođen domaćim odlukama, a ne diktiran sustavima nastalim tisućama kilometara dalje.
Koliko je opasno to da politiku vezanu uz AI oblikuju elite iz Silicijske doline, a ne demokratski procesi? Produbljuje li AI globalnu nejednakost?
Problem nije u pojedincima, nego u sustavnoj zarobljenosti: kad arhitekturu temeljne tehnologije vode koncentrirani komercijalni interesi, dobivamo sustav optimiziran za ekstrakciju, a ne pravednost. To nije samo pitanje zastupljenosti, nego i strateška ranjivost – odluke o suverenitetu, pravednosti i dugoročnoj konkurentnosti tada slijede logiku profita, a ne otpornost ekosustava.
Tako nastaje infrastruktura u kojoj se koristi koncentriraju kod vlasnika platformi, a države i zajednice koje daju 'sirove podatke' dobivaju jako malo. Takva koncentracija pojačava i tržišnu i geopolitičku nestabilnost. Ako upravljanje AI-em ne bude legitimno i uključivo, nejednakost neće biti rizik, nego zajamčen ishod koji potkopava stabilnost društava i tržišta.
Europa želi 'ljudskocentričnu' umjetnu inteligenciju.
Ne ulazim izravno u pojedine okvire, ali ambicija 'ljudskocentrične AI' traži da razbijemo ugodnu naraciju. Rasprava se često svodi na binom 'zamjena' ili 'nadopuna', no već se događa nešto suptilnije: 'gravitacija generičkog'. Lingvističke analize bilježe porast riječi poput delve i intricate, tipičnih za velike jezične modele. Najprije se to vidi u jeziku, a potom i u mišljenju.
Pitanje nije samo nadopunjuje li AI nas, nego i nadopunjujemo li mi, nesvjesno, njega. 'Duh konzultant' ne dovršava samo posao; trenira nas da se prilagodimo njegovim jezičnim i kognitivnim obrascima. Bez svjesnog otpora, prilagođavamo se alatu, umjesto da ga oblikujemo. Prije nego što osiguramo to da AI služi čovjeku, moramo naučiti razlikovati vlastite misli od njegove statističke refleksije. Ta kognitivna neovisnost, više od propisa i dizajnerskih načela, temelj je istinski ljudskocentrične budućnosti.
Može li AI doista razumjeti ljudske vrijednosti ili nas samo uči da bolje oponašamo sami sebe?
AI ne razumije vrijednosti; precizno ih imitira. Njegovi rezultati zvuče autentično jer su trenirani na planetarnoj arhivi izražavanja, ali izražavanje nije iskustvo. Vjerojatnosni stroj, ma koliko napredan, ne voli, ne gubi i ne osjeća nepravdu. On je ogledalo naše kolektivne prošlosti, a ne sudionik moralnog promišljanja.
Rizik je zamijeniti imitaciju prosudbom. Ako moralne odluke delegiramo sustavima, ne ugrađujemo svoje vrijednosti, nego se usklađujemo sa statističkim prosjekom interneta. To može povećati dosljednost, ali ne i etičnost. AI može biti ogledalo za refleksiju i sparing partner za misao, no odgovornost za definiranje i obranu onoga što nam je važno ostaje nepovratno – ljudska.
Kako izgleda prava revolucija umjetne inteligencije?
Trebat će nam sustavi koji idu dalje od vjerojatnosti i doista rasuđuju o svijetu. No desetljeće ulaganja u autonomnu vožnju pokazalo je koliko smo daleko od pune autonomije: stvarni svijet je tvrd orah. Veliki jezični modeli uspijevaju jer su skalabilne simulacije – jeftine za doradu, profitabilne za primjenu i beskrajno ponovljive. Istinsko rasuđivanje tražilo bi drukčiju osnovu koja se bori s neizvjesnošću umjesto da je zaglađuje.
Tržišni poticaji nagrađuju tečnost, brzinu i razmjer, a ne strogost i provjerljivost. Pravi sustav rasuđivanja bio bi sporiji, skuplji i nepredvidljiviji te teško unovčiv. Zato tržište trenutno usavršava privid inteligencije više nego njezinu suštinu. Prava revolucija neće doći još jednom iteracijom jezičnih modela, nego kad otvoreno postavimo pitanje: želimo li strojeve koji doista rasuđuju ili one koji to uvjerljivo glume?
Zašto ste se usredotočili na etiku i upravljanje rizikom, a ne na samu tehnologiju? Kako održavate vjeru u 'odgovorni AI'?
Vjerujem u vodstvo više nego u tehnologiju. Svaka AI strategija koja zamjenjuje, umjesto da uzdiže ljudski doprinos, sama sebe poražava: iscrpljuje izvor budućih sposobnosti i slabi društveno tkivo tržišta. Univerzalni temeljni dohodak kao 'kompenzaciju' vidim kao promašaj: plaćanje ljudima da ne rade ne gradi otpornost, nego potkopava smisao i sudjelovanje.
Ozbiljna strategija vezana uz AI polazi od toga da ljudsko sudjelovanje nije trošak, nego motor rasta. Cilj nije manje rada, nego više: više poduzeća, prilika i načina da ljudi primijene svoje sposobnosti na korist sebi i društvu. Svijet u kojem AI 'zamjenjuje' ljude može izgledati učinkovit, ali rješava problem koji nije postojao. Izazov je dizajnirati ekonomije u kojima je ljudska kreativnost nezamjenjiva.
Što vas više brine: ono što će AI učiniti čovječanstvu ili što će čovječanstvo učiniti s AI-em?
Više me brine ono što ćemo mi učiniti s AI-em. Priče o 'pobunjenoj, samosvjesnoj umjetnoj inteligenciji' zgodne su, ali skreću pažnju sa stvarnih odluka koje danas erodiraju sustave, a to su 'gravitacija generičkog', koja briše originalnost, 'pražnjenje bunara', kad automatiziramo kreativne procese, i uspon organizacija koje su brže, ali krhkije, optimizirane za predvidivu prošlost, a ne neizvjesnu budućnost.
To su današnji liderski izazovi: upravljanje i poticaji koji oblikuju ponašanje ovdje i sada.
Koju bi prvu lekciju svaka vlada trebala naučiti prije pisanja regulacije o AI-u?
Regulirajte stvarnost, a ne mit. Narativ o nadolazećoj superinteligenciji često odvlači pozornost od materijalnih izazova. Današnji AI je moćan, ali ograničen 'industrijski stroj' koji troši goleme resurse i otvara pitanja energije, infrastrukture i okolišne održivosti. Manje ga trebamo doživljavati kao 'zametak uma', a više kao energetski zahtjevan motor duboko vezan uz fizičke i ekonomske sustave.
Mudra strategija nije defenziva prema hipotetskim dugoročnim rizicima, nego proaktivno vođenje neposrednih gospodarskih i društvenih učinaka: politike i poticaji koji pretvaraju AI u motor domaćeg poduzetništva, inovacija i kvalificiranog zapošljavanja, a ne u mehanizam dodatne koncentracije moći. Hoće li AI postati pokretač široke obnove ili daljnje konsolidacije, ne određuje tehnologija, nego strateška dalekovidnost i hrabrost političkih odluka koje donosimo danas.