Do prekida razgovora doći će samo u krajnjem slučaju, kada više pokušaja preusmjeravanja nije uspjelo i nada u produktivnu interakciju je iscrpljena
Anthropicova najnovija značajka za dva modela umjetne inteligencije Claude mogla bi biti početak kraja za zajednicu ljudi koji pokušavaju ukloniti postavljena ograničenja i sigurnosne mehanizme.
Modeli Claude Opus 4 i 4.1 sada, naime, mogu prekinuti razgovora s korisnicima. Prema Anthropicu, ova će značajka biti korištena samo u 'rijetkim, ekstremnim slučajevima uporno štetnih ili zlostavljačkih interakcija'.
To podrazumijeva, primjerice, zahtjeve korisnika za seksualnim sadržajima koji uključuju maloljetnike i pokušaje prikupljanja informacija koje bi omogućile nasilje velikih razmjera ili terorističko djelovanje.
Do prekida razgovora doći će samo u krajnjem slučaju, kada više pokušaja preusmjeravanja nije uspjelo i nada u produktivnu interakciju je iscrpljena.
Prema Anthropicovoj procjeni, većina korisnika neće doživjeti da im Claude prekine razgovor, čak ni kada se govori o vrlo kontroverznim temama.
U scenarijima u kojima Claude završi chat, korisnici više neće moći slati nove poruke u tom razgovoru, već mogu odmah započeti novi.
Ako se razgovor završi, to neće utjecati na druge chatove, a korisnici se mogu vratiti i urediti ili ponovno pokušati prethodne poruke kako bi razgovor usmjerili u drugom pravcu.
Ovaj potez dio je Anthropicovog istraživačkog programa koji proučava ideju dobrobiti umjetne inteligencije, piše Engadget.