ZAŠTITNA MJERA

Anthropicov Claude od sad može prekinuti razgovor s vama

19.08.2025 u 13:19

Bionic
Reading

Do prekida razgovora doći će samo u krajnjem slučaju, kada više pokušaja preusmjeravanja nije uspjelo i nada u produktivnu interakciju je iscrpljena

Anthropicova najnovija značajka za dva modela umjetne inteligencije Claude mogla bi biti početak kraja za zajednicu ljudi koji pokušavaju ukloniti postavljena ograničenja i sigurnosne mehanizme.

Modeli Claude Opus 4 i 4.1 sada, naime, mogu prekinuti razgovora s korisnicima. Prema Anthropicu, ova će značajka biti korištena samo u 'rijetkim, ekstremnim slučajevima uporno štetnih ili zlostavljačkih interakcija'.

To podrazumijeva, primjerice, zahtjeve korisnika za seksualnim sadržajima koji uključuju maloljetnike i pokušaje prikupljanja informacija koje bi omogućile nasilje velikih razmjera ili terorističko djelovanje.

Do prekida razgovora doći će samo u krajnjem slučaju, kada više pokušaja preusmjeravanja nije uspjelo i nada u produktivnu interakciju je iscrpljena.

Prema Anthropicovoj procjeni, većina korisnika neće doživjeti da im Claude prekine razgovor, čak ni kada se govori o vrlo kontroverznim temama.

U scenarijima u kojima Claude završi chat, korisnici više neće moći slati nove poruke u tom razgovoru, već mogu odmah započeti novi.

Ako se razgovor završi, to neće utjecati na druge chatove, a korisnici se mogu vratiti i urediti ili ponovno pokušati prethodne poruke kako bi razgovor usmjerili u drugom pravcu.

Ovaj potez dio je Anthropicovog istraživačkog programa koji proučava ideju dobrobiti umjetne inteligencije, piše Engadget.