RAČUNALNA SIGURNOST

Anthropic i druge AI tvrtke traže stručnjake za kemijsko i nuklearno oružje

18.03.2026 u 10:46

Bionic
Reading

Strahuju, naime, da bi njihovi alati mogli nekome reći kako napraviti kemijsko ili radioaktivno oružje, stoga traže upućene osobe koje će se pobrinuti za to da njihove zaštitne ograde budu dovoljno robusne

Američka tvrtka za umjetnu inteligenciju Anthropic traži stručnjaka za kemijsko oružje i eksplozive kako bi pokušala spriječiti 'katastrofalnu zloupotrebu' svog softvera. Strahuje, naime, da bi njezini alati mogli nekome reći kako napraviti kemijsko ili radioaktivno oružje, stoga traže stručnjaka koji će se pobrinuti za to da njezine zaštitne ograde budu dovoljno robusne.

U oglasu za posao na LinkedInu tvrtka navodi da kandidati trebaju imati najmanje pet godina iskustva u 'obrani od kemijskog oružja i/ili eksploziva', kao i znanje o 'uređajima s radiološkim raspršivanjem' (poznatim i kao prljave bombe). Posao je sličan drugima u ostalim osjetljivim područjima koja je Anthropic već stvorio.

Sličnu poziciju oglasio je i OpenAI. Na svojoj web stranici za karijere navode slobodno radno mjesto za istraživača 'bioloških i kemijskih rizika', s plaćom do 455 tisuća američkih dolara, gotovo dvostruko više od one koju nudi Anthropic.

Pojedini stručnjaci upozoravaju na rizike ovog pristupa, ističući da on daje alatima umjetne inteligencije informacije o oružju, čak i ako im je rečeno da ga ne koriste, jer ne postoji međunarodni ugovor ili drugi propis za korištenje umjetne inteligencije s ovim vrstama oružja.

Industrija umjetne inteligencije kontinuirano je upozoravala na potencijalne egzistencijalne prijetnje koje predstavlja njezina tehnologija, ali nije bilo pokušaja usporavanja napretka. Problem se našao u središtu pozornosti jer američka vlada koristi proizvode tvrtki za umjetnu inteligenciju za rat u Iranu, kao što je to činila u vojnoj operaciji u Venezueli.

Anthropic je podigao tužbu protiv američkog Ministarstva obrane, koje ga je označilo kao rizik za lanac opskrbe nakon što je ta tvrtka inzistirala na tome da se njezini sustavi ne smiju koristiti u potpuno autonomnom oružju, niti u masovnom nadzoru Amerikanaca.

Suosnivač i glavni izvršni direktor Anthropica Dario Amodei upozorio je da tehnologija još nije dovoljno dobra i ne bi trebala biti korištena u te svrhe, a Bijela kuća je priopćila da američkom vojskom neće upravljati tehnološke tvrtke.

Oznaka rizika stavlja američku tvrtku u isti položaj kao i kinesku telekomunikacijsku tvrtku Huawei, stavljenu na crnu listu zbog različitih nacionalnih sigurnosnih problema. OpenAI je rekao da se slaže sa stavom Anthropica, ali je potom pregovarao o svom ugovoru s američkom vladom, za koji tvrde da još nije započeo.

Anthropicov AI asistent Claude još nije ukinut te je ugrađen u sustave koje osigurava Palantir, a SAD ih raspoređuje u američko-izraelskom napadu na Iran, piše BBC.