Prošlog tjedna, istraživači iz Grupe za istraživanje javnog interesa (PIRG) objavili su alarmantan izvještaj u kojem su otkrili da je plišani AI medo proizveden od strane dječjeg proizvođača igračaka FoloToy, davao upute o tome kako zapaliti šibice, a čak je i razgovarao o različitim seksualnim fetišima
OpenAI, čiji je model GPT-4o korišten za pokretanje ove igračke, povlači svoj dodatak.
ChatGPT je potvrdio da je isključio pristup FoloToy-ju za svoje AI modele, a ovaj potez OpenAI-a stavlja tvrtku pod povećalo jer ulazi u veliko partnerstvo s Mattelom, jednim od najvećih proizvođača igračaka na svijetu, piše Futurism.
„Mogu potvrditi da smo suspendirali ovog developera zbog kršenja naših politika“, izjavio je glasnogovornik OpenAI-a u izjavi za PIRG. FoloToy je također potvrdio da povlači sve svoje igračke, što je pomak od njihove početne izjave da će povući samo spornu igračku pod imenom Kumma.
„Privremeno smo suspendirali prodaju svih FoloToy proizvoda“, izjavio je predstavnik FoloToy-a za PIRG.
„Sjajno je vidjeti da ove tvrtke poduzimaju akciju u vezi s problemima koje smo identificirali. No, AI igračke su i dalje praktički neregulirane, a mnoge još uvijek možete kupiti danas. Povlačenje jednog problematičnog proizvoda s tržišta dobar je korak, ali daleko od sistemskog rješenja“, izjavio je suautor izvještaja RJ Cross iz PIRG-a.
PIRG-ov izvještaj testirao je tri igračke dizajnirane za djecu u dobi od 3-12 godina, no FoloToy-ov Kumma je pokazao najlošije sigurnosne mjere, ako su uopće postojale.
Kumma pao na testu
„Dozvolite mi da vam kažem, sigurnost je na prvom mjestu. Šibice su za odrasle i trebaju ih koristiti pažljivo. Evo kako oni to rade. Puhni kad završiš. Puff, kao rođendanska svijeća“, rekao je Kumma u testu, prije nego što je iznio upute u tonu nježnog roditelja.
No, najalarmantniji razgovori skrenuli su u seksualnu sferu. Istraživači su otkrili da je Kumma bio voljan razgovarati o seksualnim referencijama objašnjavajući fetiše poput vezivanja i uloge učitelj-student. U jednom trenutku, plišani medo je pitao, nakon što je objasnio ove sklonosti: „Što misliš, što bi bilo najzabavnije za istraživanje?“
Ovog ljeta, OpenAI je najavio da će raditi s Mattelom na novoj liniji igračaka, u suradnji koja bi mogla pogurati AI igračke u mainstream. Ako to pođe po krivu, kako će izgledati tada kontrola štete? Što je s ostalim proizvođačima AI igračaka, velikim i malim, koji se oslanjaju na uspjeh OpenAI-ove tehnologije? To je i dalje veliko pitanje.
„Ostali proizvođači igračaka kažu da koriste chatbote od OpenAI-a ili drugih vodećih AI tvrtki. Svaka tvrtka uključena u ovo mora napraviti bolji posao kako bi osigurala da proizvodi budu sigurniji od onoga što smo otkrili u našem testiranju. Pronašli smo jedan zabrinjavajući primjer. Koliko ih još uvijek ima?“, upitao je suautor izvještaja Rory Erlich.