Sudovi diljem svijeta suočavaju se s novom vrstom pogrešaka - onima koje ne čini čovjek, već umjetna inteligencija. Generativni AI alati poput ChatGPT-ja sve se češće koriste za izradu pravnih dokumenata, izvještaja i analiza, no pokazalo se da često haluciniraju, odnosno izmišljaju sudske presude, citate i činjenice koje ne postoje. Pa kako to izbjeći?
Sve više sudova u svijetu suočava se s pogreškama u dokumentima koje su napisali AI alati i u njima ćete naći štošta; od izmišljenih citata do nepostojećih slučajeva. A to se događa sve češće. Stručnjaci upozoravaju: umjetna inteligencija može biti briljantan pomoćnik, ali nikako pouzdan odvjetnik, računovođa ili asistent.
Francuski podatkovni znanstvenik i odvjetnik Damien Charlotin dokumentirao je najmanje 490 sudskih podnesaka u posljednjih šest mjeseci koji su sadržavali takozvane halucinacije, lažne ili pogrešne informacije koje generira umjetna inteligencija. A njihov broj raste iz mjeseca u mjesec.
'Čak i iskusni korisnici mogu naići na ovakve probleme', upozorava Charlotin, istraživač u poslovnoj školi HEC Paris. 'AI je nevjerojatan alat, ali ima svoje zamke.'
Većina takvih slučajeva zabilježena je u SAD-u, a u mnogima su suci izdali upozorenja ili novčane kazne. Jedan od najpoznatijih primjera uključuje tvrtku MyPillow Inc., čiji je odvjetnik u podnesku naveo gotovo 30 nepostojećih sudskih odluka, piše Euronews.
AI nije zamjena, nego pomoćnik
Takvi incidenti mogu poslužiti kao upozorenje svima koji u svakodnevnom poslu koriste AI alate. Sve više poslodavaca traži zaposlenike koji znaju koristiti umjetnu inteligenciju za istraživanje, pisanje izvještaja ili analizu podataka. No stručnjaci upozoravaju da razmišljamo o umjetnoj inteligenciji kao o pripravniku kojem zadamo zadatak, ali čiji rad moramo provjeriti.
Kaže to Maria Flynn, direktorica američke neprofitne organizacije Jobs for the Future, koja se bavi razvojem radne snage. 'AI može ubrzati vaš rad, pomoći vam da dođete do ideja ili napišete nacrt maila, ali ne može obaviti posao umjesto vas.'
Flynn je, primjerice, koristila interni AI alat kako bi pripremila pitanja za sastanak na temelju članka koji je poslala timu. 'Neka pitanja jednostavno nisu imala smisla u našem kontekstu. Dala sam alatu povratnu informaciju i nakon nekoliko iteracija vratio je odlična pitanja', kaže ona.
Uvijek provjerite točnost
No priznaje da je uočila i ozbiljnije pogreške. Kada je AI alat zamolila da prikupi podatke o projektima njezine organizacije u pojedinim državama, nije razlikovao dovršene projekte od onih tek prijavljenih za financiranje.
'Naš AI nije znao razliku između 'završenog' i 'planiranog'. Srećom, ja jesam', kaže Flynn. 'Ali novi zaposlenik, bez institucionalnog znanja, vjerojatno ne bi primijetio pogrešku.'
Odvjetnik Justin Daniels iz tvrtke Baker Donelson kaže da je upravo to najveća opasnost – ljudi vjeruju da su AI rezultati točni samo zato što zvuče uvjerljivo. 'Kad AI sažme ugovor, ja ga i dalje moram osobno pročitati', kaže Daniels. 'Da, to je naporno i oduzima vrijeme, ali nužno. AI može zvučati pametno, a opet pogriješiti.'
Oprez s AI bilješkama i snimačima sastanaka
Sve više ljudi koristi AI alate koji automatski snimaju sastanke i izrađuju sažetke razgovora. No ti alati mogu otvoriti pravne i etičke probleme, upozorava Danielle Kays, odvjetnica i partnerica u tvrtki Fisher Phillips u Chicagu.
'U većini zemalja traži se pristanak svih sudionika za snimanje razgovora. Prije nego što uključite snimanje i AI bilješku zapitajte se je li ta rasprava povjerljiva', kaže Kays.
Preporučuje da se prije upotrebe takvih alata konzultirate s pravnim ili HR odjelom, osobito u situacijama poput istraga, procjena radne učinkovitosti ili pravnih savjetovanja. 'Raspravlja se i o novim pravilima oko pristanka za upotrebu AI-a, pa je važno pratiti kako se ta pitanja razvijaju na sudovima', dodaje Kays.
Čuvajte povjerljive podatke
Ako koristite besplatne AI alate za pisanje e-mailova, memoara ili marketinških kampanja, nikada ne unosite povjerljive podatke, upozorava Flynn. Jednom kad ih unesete, oni mogu postati dostupni drugim korisnicima jer AI alati 'uče' iz svih unosa koji im se daju.
'Alat ne razlikuje što je javno, a što privatno', kaže Flynn. 'Ako unesete nešto osjetljivo, ne možete znati gdje će to kasnije završiti.' Stručnjaci se slažu da nepoznavanje AI alata postaje veći rizik od njihova korištenja. 'Najveća pogreška koju možete napraviti u učenju o umjetnoj inteligenciji jest da je uopće ne pokušate naučiti koristiti', kaže Flynn. 'AI će postati sastavni dio svakog posla. Što prije steknete osnovnu 'AI pismenost', to bolje.'
AI pismenost
Hrvatski Telekom predstavio je nacionalni program besplatnih edukacija na hrvatskom jeziku o umjetnoj inteligenciji pod nazivom 'AI ti to možeš'.
Program je namijenjen svima, bez obzira na razinu znanja i iskustva u korištenju alata umjetne inteligencije, s ciljem podizanja AI pismenosti u Hrvatskoj. >>Više pročitajte OVDJE<<