Procesi koji su u ranijim ratovima mogli trajati danima ili tjednima sada se, zahvaljujući umjetnoj inteligenciji, praktično odvijaju trenutačno
Anthropicov model umjetne inteligencije Claude američka je vojska navodno koristila u nizu napada na Iran jer tehnologija skraćuje lanac ubijanja – proces identifikacije cilja do pravnog odobrenja i pokretanja napada.
SAD i Izrael, koji su prethodno koristili umjetnu inteligenciju za identifikaciju ciljeva u Gazi, pokrenuli su gotovo 900 napada na iranske ciljeve samo u prvih 12 sati, tijekom kojih su izraelske rakete ubile iranskog vrhovnog vođu, ajatolaha Alija Hameneija.
Stručnjaci kažu da umjetna inteligencija dramatično ubrzava vrijeme planiranja potrebno za složene napade, što bi kao posljedicu moglo imati situaciju u kojoj ljudski vojni i pravni stručnjaci samo odobravaju automatizirane planove napada.
Primjena umjetne inteligencije širi se i na logistiku, obuku, održavanje... jer u pojedinim aspektima djeluje puno brže od ljudske misli. Zbog toga se procesi koji su u ranijim ratovima mogli trajati danima ili tjednima praktično odvijaju trenutačno. Najnoviji AI sustavi mogu brzo analizirati 'planine' informacija o potencijalnim ciljevima, od snimaka dronova do presretanja telekomunikacija, kao i obavještajne podatke o ljudima.
Anthropic je 2024. godine implementirao Claude u američko Ministarstvo obrane i druge agencije za nacionalnu sigurnost da bi se ubrzalo planiranje rata. Claude je tako postao dio sustava koji je razvila ratno-tehnološka tvrtka Palantir s Pentagonom da bi 'dramatično poboljšala analizu obavještajnih podataka i omogućila dužnosnicima donošenje odluka'.
Prijetnja zbog kognitivnog rasterećenja
Palantirov sustav koristi strojno učenje za identifikaciju i određivanje prioriteta ciljeva te preporuku oružja, uzimajući u obzir zalihe i prethodne performanse protiv sličnih ciljeva. Također koristi automatizirano zaključivanje za procjenu pravnih osnova za napad.
Oslanjanje na umjetnu inteligenciju može rezultirati i kognitivnim rasterećenjem jer ljudi zaduženi za donošenje odluke o napadu mogu se osjećati odvojeno od njezinih posljedica – napor prilikom razmišljanja o tome prebačen je na stroj, piše Guardian.
Nije poznato koje je sustave umjetne inteligencije, ako ih ima, Teheran ugradio u svoj ratni stroj. Prošle godine su tvrdili da je koriste u sustavima za ciljanje projektila.
U danima prije napada na Iran administracija američkog predsjednika Donalda Trumpa rekla je da će izbaciti Anthropic iz svojih sustava nakon što je ta tvrtka odbila dopustiti korištenje svojih modela za potpuno autonomno oružje ili nadzor američkih građana. Ali Claude ostaje u upotrebi jer će ukidanje biti postupno.
OpenAI je brzo nakon toga potpisao ugovor s Pentagonom za vojno korištenje svojih modela.