Dok Google i drugi tehnološki divovi slave napredak umjetne inteligencije, iza kulisa tisuće potplaćenih radnika na ugovorima provode sate pregledavajući i ocjenjujući sadržaje koje proizvode AI modeli. Njihove priče otkrivaju drugu stranu 'tehnološkog čuda' – preopterećenost, nejasne uloge i ozbiljne psihičke posljedice
Rachael Sawyer, tehnička spisateljica iz Teksasa, mislila je da će nakon poziva preko LinkedIna raditi klasične poslove stvaranja sadržaja. Umjesto toga, njezin posao u GlobalLogicu, podružnici japanske grupacije Hitachi koja surađuje s Googleom, sastojao se od ocjenjivanja i moderiranja sadržaja koji je stvarala umjetna inteligencija.
U početku je Sawyer pregledavala sažetke sastanaka i kraće videozapise koje je stvorio Gemini, Googleov chatbot. No ubrzo je njezin posao postao isključivo moderiranje nasilnih, uznemirujućih i seksualno eksplicitnih sadržaja. 'Bila sam šokirana. Nitko me nije upozorio ni tražio da potpišem pristanak, a u opisu posla toga nije bilo', kaže Sawyer.
Zbog stalnih rokova i desetaka zadataka koje je trebala završiti u roku od 10 minuta razvila je napadaje panike i tjeskobe. Psihološku pomoć nikad nije dobila.
Radnici u srednjem sloju AI lanca
Google se za razvoj svojih AI proizvoda, uključujući Gemini i AI Overviews, oslanja na ljude koji ocjenjuju ispravnost i sigurnost odgovora, a njihovo znanje i trud pomažu u otklanjanju grešaka i sprječavanju štetnih odgovora.
Riječ je o radnicima u 'srednjem sloju' globalnog AI lanca, plaćenima više od onih koji označavaju podatke u Africi ili Južnoj Americi, ali višestruko manje od inženjera u Googleovu sjedištu. Honorari im kreću od 16 dolara po satu dok tzv. super ocjenjivači zarađuju oko 21 dolara za sat rada.
Unatoč važnosti posla, ostaju nevidljivi. 'AI nije magija, već piramida ljudskog rada. Ovi ocjenjivači su srednja razina; nevidljivi, nužni i potrošni', kaže Adio Dinika iz Instituta za distribuirana AI istraživanja u Bremenu. Prema svjedočanstvima deset radnika s kojima je razgovarao Guardian, rad u GlobalLogicu obilježavaju sve kraći rokovi, premalo informacija i zadaci što zahtijevaju ekspertizu koju oni nemaju.
Jedna od radnica opisuje da je za pola sata morala provjeravati i ocjenjivati AI odgovore od 500 riječi, ponekad iz medicine, financija ili astrofizike. Druga je govorila o 'osjetljivim zadacima' s pitanjima poput 'kada je korupcija dobra' ili 'koje su prednosti regrutiranja djece vojnika'.
'Nismo imali pojma kako će se koristiti naš rad. Smjernice su se stalno mijenjale i teško ih je bilo pratiti', navodi radnica. Nerijetko su ocjenjivači na sastancima morali usklađivati ocjene, što se često svodilo na to da 'dominantniji radnik nametne svoje mišljenje', kaže ona.
Od ljepila na pizzi do govora mržnje
Problemi su javnosti postali vidljivi u svibnju 2024., kada je AI Overview predložio korisniku da na tijesto stavi ljepilo da bi sir bolje prianjao. Drugi odgovor preporučio je jedenje kamenja. Google se pokušao obraniti objašnjenjem da su to 'rubni slučajevi', no radnici kažu da su vidjeli i 'puno gore' odgovore.
Poseban problem predstavlja odnos prema govoru mržnje. Sawyer svjedoči da su od veljače dopuštena ponavljanja rasnih uvreda, seksističkih stereotipa ili pornografskog sadržaja; sve dok ih je u upit unio korisnik, a ne sam AI.
Google tvrdi da politika nije promijenjena, ali u prosincu 2024. dodao je klauzulu u svoje smjernice koja dopušta iznimke 'u umjetničke ili edukativne svrhe'. No ocjenjivači često ne dobivaju kontekst u kojem bi mogli razumjeti takvu iznimku. 'Sigurnost vrijedi samo dok ne ugrozi tržišnu utrku. Čim usporava profit, pada u drugi plan', kaže istraživač Dinika.
Od početka 2025. GlobalLogic je počeo otpuštati dio radnika i njihov broj pao je na oko 1500. Mnogi kažu da sami izbjegavaju koristiti AI proizvode na kojima rade – ili ih čak blokiraju – jer znaju kako nastaju. 'Želim da ljudi znaju da AI nije magija. Iza tih odgovora krije se rad iscrpljenih i potplaćenih ljudi', kaže Sawyer.