Tvrtka OpenAI zapošljava voditelja za pripravnost (head of preparedness), čija će zadaća biti ograničavanje negativnih posljedica razvoja umjetne inteligencije. Riječ je, kako navode iz tvrtke, o vrlo 'odgovornoj i zahtjevnoj poziciji', a godišnja plaća iznosi 555.000 američkih dolara, uz dodatni paket vlasničkih udjela
Izvršni direktor OpenAI-ja Sam Altman opisao je posao kao 'stresan' u objavi na platformi X u subotu, te naveo da će osoba zaposlena na toj poziciji biti odmah bačena u vatru. 'Riječ o ključnoj ulozi u jako važnom trenutku', naveo je Alrman.
OpenAI je, naime, spreman izdvojiti više od pola milijuna dolara godišnje kako bi netko sustavno radio na ublažavanju rizika koje donosi umjetna inteligencija – od gubitka radnih mjesta i širenja dezinformacija, preko zlouporabe tehnologije od strane zlonamjernih aktera, do ekoloških posljedica i činjenice da se ljudi oslanjaju na algoritme umjesto na vlastitu prosudbu.
Pozicija voditelja za pripravnost dio je OpenAI-jeva tima za sigurnosne sustave, koji razvija zaštitne mehanizme, okvire i evaluacije za modele umjetne inteligencije. Prema opisu radnog mjesta, budući voditelj bit će 'izravno odgovoran za izgradnju i koordinaciju procjena sposobnosti, modela prijetnji i mjera ublažavanja, koje zajedno čine koherentan, rigorozan i operativno skalabilan sigurnosni sustav'.
Altman je istaknuo da se sposobnosti AI modela razvijaju iznimno brzo. 'Modeli su danas sposobni za mnoge izvanredne stvari, ali istodobno počinju stvarati i stvarne izazove. Utjecaj modela na mentalno zdravlje vidjeli smo tijekom 2025. godine, a sada svjedočimo tome da modeli postaju toliko dobri u području računalne sigurnosti da počinju otkrivati kritične ranjivosti', naveo je.
ChatGPT i pitanje mentalnog zdravlja
OpenAI-jev ChatGPT odigrao je ključnu ulogu u popularizaciji AI chatbotova među širom javnosti. Milijuni korisnika koriste ga za istraživanje tema, pisanje e-mailova, planiranje putovanja i obavljanje drugih svakodnevnih zadataka.
No dio korisnika chatbotove koristi i kao zamjenu za psihološku pomoć, što je u pojedinim slučajevima dovelo do pogoršanja problema mentalnog zdravlja, uključujući poticanje deluzija i drugih zabrinjavajućih obrazaca ponašanja. OpenAI je u listopadu objavio da surađuje sa stručnjacima za mentalno zdravlje kako bi unaprijedio način na koji ChatGPT reagira na korisnike koji pokazuju znakove psihoze ili samoozljeđivanja.
Razvoj umjetne inteligencije 'u korist cijelog čovječanstva' temeljna je misija OpenAI-ja - barem tako tvrde - a sigurnosni protokoli od samog su početka bili sastavni dio rada tvrtke. Međutim, kako su proizvodi izlazili na tržište i kako su rasli pritisci vezani uz profitabilnost, pojedini bivši zaposlenici tvrde da je sigurnost postupno pala u drugi plan.
Odlazak sigurnosnog tima
Bivši voditelj sada raspuštenog sigurnosnog tima OpenAI-ja, Jan Leike, u svibnju 2024. objavio je da napušta tvrtku, poručivši da je izgubila fokus.
'Izgradnja strojeva pametnijih od ljudi inherentno je opasan pothvat. OpenAI preuzima golemu odgovornost u ime cijelog čovječanstva', napisao je. 'No posljednjih godina kultura sigurnosti i sigurnosni procesi ustupili su mjesto atraktivnim proizvodima.'
Manje od tjedan dana kasnije, još jedan zaposlenik objavio je odlazak, također navodeći zabrinutost zbog sigurnosti. Jedan od bivših zaposlenika, Daniel Kokotajlo, u objavi na blogu iz svibnja 2024. naveo je da je dao otkaz jer je 'počeo gubiti povjerenje da će se OpenAI odgovorno ponašati u razdoblju približavanja umjetnoj općoj inteligenciji (AGI)'.
Kokotajlo je kasnije za Fortune izjavio da je OpenAI u početku imao oko 30 zaposlenika koji su se bavili sigurnosnim pitanjima vezanim uz AGI – još uvijek teorijski oblik umjetne inteligencije koji bi mogao rasuđivati na razini čovjeka – no niz odlazaka gotovo je prepolovio taj tim.
Dosadašnji voditelj za pripravnost, Aleksander Madry, u srpnju 2024. preuzeo je novu funkciju unutar kompanije.