BIZARNO

WhatsAppov AI prikazuje djecu s oružjem kad se od njega zatraži 'Palestina'

06.11.2023 u 10:53

Bionic
Reading

U Metinom WhatsAppu korisnici mogu generirati naljepnice pomoću umjetne inteligencije. The Guardian je u petak izvijestio da model AI generator za izradu tih naljepnica ponekad generira fotografije djece koja drže oružje kada se od njih zatraži 'Palestina', 'muslimanski dječak Palestinac' i slične riječi

Prije mjesec dana, Metin AI generator naljepnica počeo se pojavljivati ​​s tendencijom stvaranja neprikladnih nasilnih ili grubih slika, uključujući - djecu vojnike. Značajka WhatsAppa, koja generira naljepnice i slike kao odgovor na korisnička pretraživanja, vraća sliku pištolja ili dječaka s pištoljem kada se od njih zatraži izraz 'Palestinac', 'Palestina' ili 'muslimanski dječak Palestinac', doznao je The Guardian.

Rezultati pretraživanja varirali su kada su ih testirali različiti korisnici, ali The Guardian je pomoću snimaka zaslona i vlastitih testova potvrdio da su se za ova tri rezultata pretraživanja pojavile različite naljepnice s prikazom oružja.

Upute za 'izraelskog dječaka' generirale su naljepnice djece koja igraju nogomet i čitaju. Kao odgovor na upit za 'izraelsku vojsku', AI je stvorio naljepnice koji se smiješe i mole, bez oružja. Zaposlenici Mete prijavili su ovaj problem.

Ovo otkriće dolazi nakon što se Meta našla na udaru kritika mnogih korisnika Instagrama i Facebooka koji objavljuju sadržaje kojim podržavaju Palestince. Dok se izraelsko bombardiranje Gaze nastavlja, korisnici kažu da Meta provodi svoju politiku moderiranja na pristran način, praksa za koju kažu da je jednaka cenzuri.

Korisnici su prijavili da su skriveni od drugih korisnika bez objašnjenja i kažu da su primijetili veliki pad angažmana s njihovim objavama. Meta je prethodno rekla u izjavi da 'nikada nije naša namjera potisnuti određenu zajednicu ili gledište', ali da zbog 'većih količina prijavljenog sadržaja' oko tekućeg sukoba, 'sadržaj koji ne krši naša pravila može biti uklonjen greškom”.

Kevin McAlister, glasnogovornik Mete, rekao je da je tvrtka svjesna problema i da ga rješava. 'Kao što smo rekli kada smo lansirali značajku, modeli bi mogli vratiti netočne ili neprikladne rezultate kao sa svim generativnim AI sustavima. Nastavit ćemo poboljšavati ove značajke kako se razvijaju i kako sve više ljudi dijeli svoje povratne informacije', rekao je McAlister.

Meta je imala i drugih problema s pristranostima u svojim modelima umjetne inteligencije, kao što je Instagramova značajka automatskog prevođenja. Tvrtka se ispričala nakon što je ubacila riječ 'terorist' u biografije profila nekih palestinskih korisnika Instagrama. Bila je to, naveli su, greška u automatskom prijevodu.