Dvojica lidera u području umjetne inteligencije - Sam Altman i Elon Musk - suočit će se ovog proljeća na sudu u slučaju koji bi mogao imati dalekosežne posljedice za budućnost umjetne inteligencije. Sudac u Oaklandu u Kaliforniji ranije ovaj mjesec odlučio je da će se proces voditi pred porotom, a krenut će u travnju. Podsjetimo, Musk je napustio OpenAI 2018., a danas vodi tvrtku xAI s konkurentskim chatbotom Grok. Sada tvrdi da je OpenAI prekršio svoju osnivačku misiju restrukturiranjem iz neprofitne organizacije u poslovni subjekt
Musk u tužbi tvrdi da je prevaren još u ranim danima OpenAI-a, kada je on započeo raditi kao neprofitna organizacija. Izvršni direktor Tesle i osnivač xAI-a uložio je oko 38 milijuna dolara u taj projekt, odnosno 60 posto njegova prvotnog financiranja, čime su regrutirani zaposlenici i osnivači su povezani s ključnim kontaktima, a time je dobio kredibilitet.
'Baš kao kad rani investitor u neku startup tvrtku može ostvariti mnogo više dobitke od početne investicije, tako su i nezakoniti dobici koje su stekli OpenAI i Microsoft – a koje gospodin Musk sada ima pravo vratiti – puno veći od njegovih početnih doprinosa', tvrdi Muskov tim.
Musk također navodi da mu je OpenAI predstavljen kao otvorena i neprofitna inicijativa. Prema njegovim tvrdnjama, Altman i ostali čelnici su ga obmanuli o planovima za prelazak na profitni model, nakon čega nije ostvario nikakav financijski povrat, a zaposlenici i partneri OpenAI-a, uključujući Microsoft, ostvarili su goleme dobitke. Stoga potražuje do 134 milijarde dolara odštete, nazivajući ih 'nezakonito stečenom dobiti', piše Time.
OpenAI odlučno odbacuje optužbe. Tvrtka tvrdi da je Musk bio svjestan i suglasan s potrebom prelaska na profitni model te da je napustio projekt tek nakon što je odbijena njegova ideja da preuzme potpunu kontrolu nad OpenAI-em i uključi ga u Teslu. Iz OpenAI-a poručuju da je riječ o 'pravnom uznemiravanju' i dijelu šire strategije kojom Musk, kao konkurent, pokušava usporiti razvoj OpenAI-a i ojačati svoju tvrtku xAI, a njegov zahtjev za milijardama dolara nazivaju neozbiljnim.
Dodatnu težinu slučaju daju interni dokumenti koji su nedavno postali javni. Među njima su i osobne bilješke suosnivača OpenAI-a Grega Brockmana iz 2017. godine, u kojima upozorava da bi 'otimanje neprofitne organizacije od Muska' i pretvaranje u profitnu tvrtku bez njega bilo 'moralno vrlo problematično'. Sud je te zapise naveo kao jedan od razloga zbog kojih je dopustio nastavak postupka, iako OpenAI tvrdi da su citati izvučeni iz konteksta.
Ishod spora mogao bi imati dalekosežne posljedice. Ako sud presudi protiv OpenAI-a, tvrtka bi se mogla suočiti s golemim financijskim obvezama od više desetaka milijardi dolara, što bi ugrozilo njezin plan da do 2029. postane profitabilna. Među mogućim posljedicama spominju se i promjene korporativne strukture, ograničenja budućeg izlaska na burzu ili zahtjev da Microsoft smanji svoj udio i utjecaj.
Takav ishod bio bi i simbolična pobjeda za Muskov xAI, tvrtku koja se već našla pod kritikama zbog slabih sigurnosnih ograničenja, što je nedavno potvrdila i afera oko chatbota Grok.
Novi pokušaj nadzora nad AI industrijom
U sjeni sudskog spora, bivši šef politike OpenAI-a Miles Brundage pokrenuo je novu neprofitnu organizaciju s ciljem jačanja neovisnog nadzora nad umjetnom inteligencijom. Institut za verifikaciju i evaluaciju umjetne inteligencije (AVERI) zagovara sustav u kojem bi vanjski revizori procjenjivali ne samo pojedine AI modele, nego i korporativno upravljanje, podatke za treniranje i računalnu infrastrukturu.
Brundage priznaje da je najveći izazov pristup jer revizori ovise o spremnosti kompanija da otvore vrata, no smatra da bi tržišni pritisci, poput zahtjeva osiguravatelja, mogli natjerati tvrtke na suradnju. AVERI planira koristiti i same AI alate za analizu, primjerice za procjenu interne sigurnosne kulture na temelju velikih količina internih komunikacija.
Gerilski otpor i rasprava o resursima
U međuvremenu dio tehnološke zajednice poseže za radikalnijim metodama. Anonimna skupina zaposlenika tehnoloških tvrtki razvila je alat za tzv. trovanje podataka, s ciljem unošenja štetnih informacija u skupove podataka kojima se treniraju AI modeli. Cilj je, kako navode, usporiti razvoj sustava koje smatraju prijetnjom čovječanstvu.
Istodobno se nastavlja rasprava o ekološkom otisku umjetne inteligencije. Analiza Semianalysisa pokazuje da čak i najveći podatkovni centri troše znatno manje vode nego što se često pretpostavlja, a prema njihovim izračunima, dnevna potrošnja velikog AI centra usporediva je s potrošnjom vode dvaju restorana brze hrane.