Korištenje umjetne inteligencije može pomoći u podizanju produktivnosti, ali vas i izložiti raznim neugodnim situacijama
Koristite li već umjetnu inteligenciju na poslu? Ako ne, riskirate zaostajanje za kolegama i konkurencijom. Stoga se trebate upoznati barem s načinima na koje osnovni alati funkcioniraju, ali i rizicima koje donose.
Evo pregleda sedam rizika korištenja umjetne inteligencije na poslu koje svakako trebate imati u vidu.
Usklađenost s propisima o zaštiti privatnosti i podataka
Ako dijelite bilo kakve zaštićene podatke s alatom poput Claudea ili ChatGPT-ja, moguće je kako ste u prekršaju.
Kršenje odredbi Opće uredbe o zaštiti podataka (GDPR) i sličnih propisa može rezultirati velikim financijskim kaznama i koštati vas posla. Slično vrijedi i za ugovore koje ste potpisali pri zapošljavanju.
OpenAI, Anthropic i druge tvrtke nude poslovne usluge, stvarajući prilagođene alate koji koriste svoje sučelje za programiranje aplikacija (API).
Ovi prilagođeni alati za poduzeća mogu imati ugrađenu zaštitu privatnosti i kibernetičke sigurnosti. Ali, ako koristite privatni račun, trebali biste biti vrlo oprezni u dijeljenju podataka tvrtke ili pojedinaca.
Stoga, kad god je to moguće, koristite službeni račun za alate umjetne inteligencije. Upoznajte se s pravilima zaštite privatnosti alata koje koristite, kao i s politikom vaše tvrtke o njihovom korištenju.
Nemojte hraniti alate umjetne inteligencije PDF-ovima, slikama ili tekstom koji sadrže osjetljive podatke o kupcima ili intelektualno vlasništvo, osim ako niste ovlašteni za to.
Halucinacije
ChatGPT i drugi alati prilično su dobri u sažimanju i generiranju teksta, ali ne i u provjeravanju činjenica. U više se navrata pokazalo kako su skloni izmisliti puno toga što ne postoji ili nije istina.
Zato njihove uratke uvijek treba temeljito provjeriti prije no što ih proslijedite dalje.
Pristranost
Alati za umjetnu inteligenciju obučeni su su na ogromnim količinama materijala - člancima, slikama, umjetničkim djelima, istraživačkim radovima, transkriptima na YouTubeu...
Zbog toga često odražavaju pristranosti svojih tvoraca pri odabiru materijala za obuku.
Najveće tvrtke pokušavaju kalibrirati svoje modele kako ne bi davale uvredljive ili diskriminirajuće izjave, ali to im ne polazi uvijek za rukom. Čak i rješenja za uklanjanje pristranosti mogu dovesti do novih pristranosti.
Stoga trebate uvijek imati na umu kako je moguće da je sadržaj koji generiraju na ovaj ili onaj način pristran.
Hakerski napadi
Umjetna inteligencija može biti metom hakerskih napada, što može biti korišteno za, primjerice, poticanje na davanje uvredljivih odgovora ili otkrivanje studenata koji pokušavaju varati na ispitima.
Bez obzira koristi li se ubacivanje upita ili trovanje podataka, rezultat je isti: manipuliranjem unosom, zlonamjerni akteri mogu odgovore umjetne inteligencije učiniti nepouzdanima.
Pogreška korisnika
Meta Platforms nedavno je stvorila mobilnu aplikaciju za svoj alat LLAMA AI. U njemu je bio feed koji prikazuje pitanja, tekst i slike koje stvaraju korisnici.
Mnogi korisnici nisu znali kako se njihove razgovore može dijeliti na taj način, zbog čega je u javno dostupnom feedu završilo i ono što ne bi trebalo.
Mislite kako se nešto slično ne može dogoditi i vama? Dovoljno je zaboraviti isključiti alat za bilježenje sastanka kako bi se vaše opaske u privatnom razgovoru nakon sastanka našle u poštanskom sandučiću, recimo, vašeg šefa.
Intelektualno vlasništvo
Koristite li umjetnu inteligenciju za generiranje slika, logotipa, videozapisa ili audio materijala, mogli biste imati problema s kršenjem autorskih prava i intelektualnog vlasništva.
Većina tvrki koja izrađuje takve alate nije tražila dozvolu za korištenje zaštićenih sadržaja u obuci. Zbog toga svjedočimo sve većem broju tužbi: Disney protiv Midjourneya, New York Times protiv OpenAI-ja...
Kako je riječ o pravno još nedovoljno istraženom terenu, trebat će pričekati rasplet prvih parnica kako bismo vidjeli u kojem smjeru će se sve skupa kretati.
No, to ne znači kako se morate izlagati riziku tužbe. Nemojte slijepo pretpostaviti kako je materijal generiran umjetnom inteligencijom siguran za upotrebu u tom pogledu.
Prije upotrebe ovih materijala u službenom svojstvu obratite se pravnom timu vaše tvrtke ili nekome drugome tko vam može dati stručan savjet ili preporuku.
Nepoznati rizici
Kako je riječ o novim tehnologijama, koje su još u fazi ubrzanog razvoja, ne znamo na kakve sve rizike još trebamo računati. Zato uvijek imajte u vidu kako vas nešto može iznenada zaskočiti, piše Mashable.