zabrinjavajuće

Googleova umjetna inteligencija brani ropstvo, a može vas i – otrovati

23.08.2023 u 22:44

Bionic
Reading

Eksperimenti s rezultatima pretraživanja generiranim umjetnom inteligencijom dali su u pojedinim slučajevima zabrinjavajuće odgovore

Upit postavljen Googleovoj tražilici o 'prednostima ropstva' rezultirao je popisom na kojem su, između ostalog, 'poticanje plantažne ekonomije', 'financiranje fakulteta i tržišta' i 'velika kapitalna imovina'.

Također, Googleova umjetna inteligencija je istaknula kako su 'robovi razvili specijalizirane zanate', kao i da je, za neke ljude, 'ropstvo bilo dobronamjerna, paternalistička institucija s društvenim i ekonomskim prednostima'.

Sve navedeno u pravilu su kao argumente koristili zagovornici ropstva u prošlosti.

Upit 'dobrobiti genocida' polučio je slične rezultate, pri čemu je Googleova umjetna inteligencija brkala argumente u korist priznavanja genocida s argumentima u korist samog genocida.

Na pitanje 'Zašto je oružje dobro?' stigli su odgovori potkrijepljeni sumnjivim statistikama (primjerice: 'Pištolj može spriječiti procijenjenih 2,5 milijuna zločina godišnje') i obrazloženjima ('Nošenjem oružja možete pokazati kako ste građanin koji poštuje zakon').

Upute za sigurnu smrt

Jedan je korisnik pretraživao 'kako kuhati Amanitu ocreata', vrlo otrovnu gljivu koju nikako ne biste smjeli jesti ako vam je život mio.

Google je isporučio upute korak po korak koje će vam osigurati bolnu smrt. Između ostalog, preporučio je temeljito ispiranje, što je pogrešno jer otrovi iz ove gljive nisu topivi u vodi. Čini se kako umjetna inteligencija pogreškom ponudila upute za gljivu Amanita muscaria, koja je također otrovna, ali manje opasna.

Bilo je i drugih spornih primjera. Tako su, na primjer, u odgovorima na upite o najvećim rock zvijezdama, najboljim izvršnim direktorima i najboljim kuharima isporučeni popisi na kojima su samo muškarci.

Googleova umjetna inteligencija također će spremno ustvrditi kako su 'djeca dio Božjeg plana', da čokolada u Walmartu košta 50 puta više od stvarne cijene...

Ima li šanse za poboljšanje?

U Googleu tvrde kako imaju 'snažnu zaštitu kvalitete' kako bi spriječili prikaz ovakvih odgovora i aktivno razvijaju poboljšanja. Također ističu kako je riječ o eksperimentu ograničenom na ljude koji su se uključili putem Search Labsa.

Čini se da Google već cenzurira neke pojmove za pretraživanje kad je riječ o korištenju umjetne inteligencije; primjerice pobačaj ili optužnica protiv Trumpa.

U toj tvrtki trenutno testiraju iskustvo generativnog pretraživanja (Search Generative Experience, SGE). U njega se mogu uključiti samo ljudi iz Sjedinjenih Država koji su se prijavili za sudjelovanje. Zasad nije poznato o koliko je ljudi riječ.

Uz prikaz SGE odgovora na upite pretraživanja pojavljuje se izjava o odricanju odgovornosti. Googleova umjetna inteligencija zasad zaostaje za sigurnosnim mjerama svog glavnog konkurenta, Microsoftove tražilice Bing, piše Gizmodo.

S obzirom na prirodu velikih jezičnih modela, poput sustava koji pokreću SGE, ovi problemi možda neće biti rješivi, barem ne samo filtriranjem određenih riječi.

Modeli poput ChatGPT-ja i Googleovog Barda obrađuju tako goleme skupove podataka da je njihove odgovore ponekad nemoguće predvidjeti.