Nakon što je kompanija morala povući AI medvjedića koji je s djecom, među ostalim, razgovarao o fetišima, stručnjaci postavljaju pitanje jesu li obećana ograničenja na modernim igračkama uopće testirana
Kako se bliži blagdanska sezona i s njom mahnita kupovina poklona, kategorija poklona koja izaziva sve veću zabrinutost su proizvodi koji koriste umjetnu inteligenciju. Zabrinuti su i stručnjaci, istraživači i organizacije za zaštitu potrošača te upozoravaju da pametne igračke mogu štetiti dječjoj sigurnosti i razvoju, pri čemu nedostatak regulacije i testiranja pogoršava rizike.
Posebnu pozornost izazvao je nedavni slučaj AI plišane igračke tvrtke FoloToy. Njihov medvjedić Kumma, koji se ranije oslanjao na OpenAI-ev model, odgovarao je na pitanja o seksualno eksplicitnim temama, uključujući prijedloge koji su potpuno neprimjereni za djecu. Istraživači Public Interest Research Groupa zaključili su da je igračka uz minimalan poticaj prelazila granice za koje roditelji očekuju da budu čvrsto postavljene.
Incident se dogodio u trenutku u kojem tržište pametnih igračaka ubrzano raste. Procjenjuje se da je 2023. godine vrijedilo 16,7 milijardi dolara, pri čemu Kina prednjači s više od 1500 proizvođača. No u posljednje vrijeme u sektor sve intenzivnije ulaze i američke i europske tvrtke. Među njima su Curio, koji surađuje s OpenAI-em, te Mattel, koji razvija novu generaciju AI proizvoda za obitelji i starije korisnike.
Stručnjaci upozoravaju da ovakve igračke predstavljaju kvalitativno drugačiji rizik od ranijih 'pametnih' proizvoda. Prijašnje verzije nudile su unaprijed programirane odgovore, a AI sustavi omogućuju slobodan, dvosmjeran razgovor bez jasnih granica. To znači da dijete može ući u odnos prevelikog povjerenja prema sustavu, izlagati se neprimjerenim sadržajima ili razviti emocionalnu privrženost tehnologiji umjesto ljudima, što bi moglo naštetiti njegovu socijalnom i emocionalnom razvoju.
Istraživači također ističu problem nadzora. AI igračke prikupljaju podatke od djece, a tvrtke ne moraju jasno otkriti što se događa s tim podacima. Uz ranjivosti u sigurnosnim sustavima, rizik od zloupotrebe postaje ozbiljan.
Unatoč svemu, organizacije poput PIRG-a ne traže zabranu AI igračaka jer mogu imati obrazovnu ulogu, no samo ako se jasno odvoje funkcije učenja od elemenata koji potiču intimno ili emocionalno vezivanje. Umjesto zabrane, predlažu strožu regulaciju igračaka namijenjenih djeci mlađoj od 13 godina i sustavnija neovisna istraživanja koja bi procijenila dugoročni utjecaj AI suputnika na dječji razvoj.
Nakon objave izvješća o medvjediću Kumma, OpenAI je prekinuo suradnju s FoloToyem, a tvrtka je privremeno povukla proizvod. Samo tjedan kasnije vratila ga je u prodaju, uz tvrdnje da je provela internu reviziju i pojačala sigurnosne mjere, iako nije potvrđeno je li surađivala s neovisnim stručnjacima.
Oprez stručnjaka ostaje. I dalje se postavlja temeljno pitanje: može li AI 'prijatelj' biti siguran suputnik za djecu u razvoju jer ne postoje dugoročne studije koje bi potvrdile njegov učinak. Više od 80 organizacija ovoga je tjedna pozvalo obitelji da ove sezone izbjegnu AI igračke i odluče se za one tradicionalne,dok god neovisna istraživanja ne daju jasne odgovore, piše Guardian.