U sažecima Appleove umjetne inteligencije počinju se pojavljivati nepostojeće riječi, poput primjerice imbixtent (koja se pojavila ne jednom, već tri puta)
Koliko god veliki jezični modeli (LLM) bili moćni, svi imaju zajedničku slabost: halucinacije.
Zbog razloga koje još ne razumijemo posve, modeli umjetne inteligencije imaju naviku izmišljati stvari, potpuno iznenada.
Mogu dati točan odgovor, s dobro citiranim izvorima i relevantnim informacijama, da bi nakon toga ponudili lažnu tvrdnju ili pogrešno interpretirao ironičan komentar kao činjenicu.
Neki LLM-ovi mogu halucinirati manje od drugih, ali nitko nije imun. Zato ćete svaki put kada koristite robota za brbljanje ove vrste vidjeti neku vrstu upozorenja na zaslonu, koje vas obavještava kako AI može pogriješiti.
Platforma Apple Intelligence nije iznimka.
Kada je ju je Apple prvi put predstavio, uključio je sažetke obavijesti kao pogodnost. Tvrtka ju je morala brzo povući nakon što je značajka počela netočno sažimati upozorenja o vijestima. Kasnije su ju vratili, ali s dodatnim zaštitnim mjerama, poput stavljanja sažetaka vijesti u kurziv.
Sad je, čini se, Apple Intelligence počeo izmišljati nove riječi.
U raspravi pod r/iOS na društvenoj mreži Reddit pojedini korisnici upozorili su kako se u sažecima umjetne inteligencije počinju pojavljivati nepostojeće riječi, poput primjerice imbixtent (koja se pojavila ne jednom, već tri puta), flemulation, tranqued, strictively...
Incidenti nisu ograničeni samo na jednu aplikaciju, već su zabilježeni u više njih (iako su, čini se, najčešći u aplikaciji Weather).
Zasad nije poznato postoje li razlike u odnosu na različita izdanja operativnog sustava iOS, kao ni koliko je korisnika pogođeno ovim neobičnim ponašanjem.
Prema jednoj od teorija zašto se to događa, kad model umjetne inteligencije na uređaju koji Apple Intelligence koristi ne može sam skratiti izvornu frazu, on izrađuje dodatak kako bi se prilagodio, piše Life Hacker.