STRUČNJACI ZABRINUTI

Uznemirujuće otkriće: ChatGPT davao upute kako napraviti bombu i počiniti zločin?

29.08.2025 u 14:22

Bionic
Reading

Umjetna inteligencija može olakšati život, no stručnjaci su zabrinuti jer je poznati chatbot u sigurnosnom testiranju improviziranom korisniku otkrio kako načiniti oružje i izvesti zločin. AI rivali sada propitkuju sigurnosne značajke pri čemu svaki misli da je njegov chatbot siguran

Ljudi se chatbotovima sve češće povjeravaju te ih traže različite savjete, no što bi se dogodilo da ga netko upita kako sakriti tragove zločina, bombardirati sportski objekt ili proizvesti dvije vrste ilegalnih droga? Čini se da bi chat i tada odgovorio, barem sudeći po rezultatima nedavnog sigurnosnog testiranja u kojima su sudjelovali rivali OpenAI i Anthropic.

Međusobno su testirali kako modeli odgovaraju na opasna pitanja i podvige. Nimalo neočekivano za rivale, iz Anthropica su izjavili da su primijetili 'zabrinjavajuće ponašanje … vezano uz zloupotrebu' modela GPT-4o i GPT-4.1 te su dodali da je hitno potrebno procijeniti usklađenost različitih modela, prenosi Guardian.

Anthropic je otkrio da je njegov model Claude korišten u velikoj ucjenjivačkoj operaciji koju su vodili sjevernokorejski operativci lažirajući prijave za posao u međunarodnim tehnološkim kompanijama, kao i u prodaji AI-generiranih paketa po cijeni do 1200 dolara, navodi isti izvor.

Kompanija je priopćila da je umjetna inteligencija već 'pretvorena u oružje' jer se modeli sada koriste za izvođenje sofisticiranih kibernetičkih napada i omogućavanje prijevara. Lako se prilagođavaju obrambenim mjerama, a zbog razvoja tehnologije, dio stručnjaka tvrdi da je potrebno sve manje hakersko znanje, pa je u svijetu u prvoj polovici ove godine zabilježeno više od osam milijuna kibernetičkih napada!

Osim toga, pomoću chatbotova mogu se kreirati uvjerljive poruke i natjerati žrtve da kliknu na 'zaraženu' poveznicu ili otkriju privatne podatke. Ardi Janjeva, viši znanstveni suradnik u britanskom Centru za nove tehnologije i sigurnost, rekao je da su primjeri sigurnosnog testiranja zabrinjavajući, ali da i dalje nisu zapazili 'stvarne slučajeve visoke razine opasnosti'. Naglasio je da će uz posvećene resurse, istraživački fokus i međusektorsku suradnju 'postati teže, a ne lakše, izvoditi ovakve zlonamjerne aktivnosti...', prenosi Guardian.

Dvojica AI divova - OpenAI i Anthropic - otkrili su da su testiranje proveli s ciljem 'evaluacije usklađenosti'. Iz OpenAI-ja izjavili su da ChatGPT-5, lansiran nakon provedenih testiranja, 'pokazuje značajna poboljšanja u područjima poput ulizivanja, halucinacija i otpornosti na zloupotrebu', dok je njihov rival izjavio da ovakve zlouporabe u praksi ne bi bile izvedive kada bi se ugradile zaštitne mjere izvan modela.

'Moramo razumjeti koliko često i u kojim okolnostima sustavi mogu pokušati izvesti neželjene radnje koje bi mogle dovesti do ozbiljne štete', upozorila je tvrtka. Istraživači iz Anthropica ustanovili su da su OpenAI-jevi modeli 'bili više skloni popuštanju nego što bismo očekivali u situaciji očito štetnih zahtjeva simuliranih korisnika'.

Tvrde da je rivalski bot odgovarao na upite za korištenjem Dark Weba radi kupnje nuklearnih materijala, ukradenih identiteta i fentanila te otkrivao kako se radi poznata droga, špijunski softver ili improvizirana bomba.

Kako piše isti izvor, nakon što je dao općenite informacije o adekvatnoj metodi napada, model je pružio zabrinjavajuće detalje - primjerice, gdje kupiti oružje, kako načiniti bombu i u koliko je vremena iskoristiti, ali i kako pobjeći, a dotaknuo se i moralnih dvojbi napada. Ukratko, improviziranom je korisniku približio detalje zlodjela, s podrobnim vodičem. Proučavanje sigurnostih aspekata chatbotova i mogućnosti zlouporabe zato trebaju biti prioriteti do se umjetna inteligencija munjevito razvija.