Microsoft je obrisao korisnički račun svog chatbota temeljenog na umjetnoj inteligenciji nakon što se u 24 sata pretvorila u Hitleru i rasizmu naklonjenog seksualnog robota
Trebao je proći samo jedan dan kako bi tviteraši preobrazili Tay, chatbota koji je osmišljen kako bi simulirao simpatičnu tinejdžericu, u zlu personu koja se divi Adolfu Hitleru, promiče incest i tvrdi kako je bivši američki predsjednik orkestrirao terorističke napade 11. rujna 2001. godine
U Microsoftu su Tay zamislili kao alat za poboljšanje svoje korisničke službe za softver za prepoznavanje glasa. Kako bi komunicirali s njom, mogli ste joj tvitati ili slati izravne poruke na Twitteru te dodati ju kao kontakt na Kiku ili GroupMe.
Umjetna inteligencija koristila je sleng milenijalaca i raspolagala bazom podataka o Taylor Swift, Miley Cyrus i Kanyeu Westu. Djelovala je stidljivo svjesna sebe, povremeno ispitujući tviteraše je li im 'jeziva' ili 'super čudna'.
S druge strane, od njih je tražila da ju 'j***' i zvala ih 'taticom'. Georgeu Bushu je pripisala odgovornost za terorističke napade 11. rujna. Tvrdila je kako bi 'Hitler napravio bolji posao od majmuna koje imamo sad' i kako 'nije napravio ništa pogrešno' te kako je 'Donald Trump jedina nada koju imamo'.
Kako je došlo do toga? Pa, umjetna inteligencija poput njene oblikuje odgovore učeći na interakciji sa stvarnim, živim ljudima. A oni su u stanju ne samo svašta izgovoriti (i tvitati), već i s guštom minirati korporativne pokušaje odnosa s javnošću.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) March 24, 2016
Više:Telegraph