UMJETNA INTELIGENCIJA

Stigao je novi ChatGPT, može predlagati recepte iz slika i pogledajte što još

15.03.2023 u 14:17

Bionic
Reading

OpenAI je izbacio GPT-4, najnoviju verziju popularne umjetne inteligencije bota ChatGPT-a

Najnovija verzija modela iza ChatGPT-a, GPT-4, može koristiti i reagirati na slike, dajući prijedloge recepata na temelju fotografije sastojaka. Ona također može obraditi do 25.000 riječi, što je otprilike osam puta više od trenutnog ChatGPT-a. Popularni zahtjevi na ChatGPT-u uključuju pisanje pjesama, marketinških tekstova, računalnih kodova i pomoć s domaćom zadaćom - premda učitelji kažu da je učenici ne bi trebali koristiti.

ChatGPT na pitanja odgovara korištenjem prirodnog ljudskog jezika te također može oponašati druge stilove pisanja. Chatbot je sposoban emulirati tekstopisce i autore uz pomoć internetske baze temeljene na stanju iz 2021. BBC naglašava da postoji izvjesna zabrinutost kako bi ovaj sustav jednog dana mogao preuzeti poslove koje trenutno obavljaju ljudi.

OpenAI navodi da je proveo šest mjeseci na sigurnosnim značajkama za GPT-4 i da ga je obučavao na ljudskim povratnim informacijama. Međutim, upozorio je da bi još uvijek mogao biti sklon dijeljenju dezinformacija. GPT-4 će u početku biti dostupan pretplatnicima na ChatGPT Plus koji plaćaju 20 USD mjesečno za premium pristup usluzi.

Model je u demonstraciji uživo generirao odgovor na komplicirani porezni upit - iako nije bilo načina da se njegov odgovor potvrdi. GPT-4, kao i ChatGPT, vrsta je generativne umjetne inteligencije. Generativna umjetna inteligencija koristi algoritme i prediktivni tekst za stvaranje novog sadržaja na temelju upita.

GPT-4 ima 'naprednije vještine rasuđivanja' od ChatGPT-a, rekao je OpenAI. Model može, na primjer, pronaći dostupna vremena sastanaka za tri rasporeda. OpenAI je također najavio nova partnerstva s aplikacijom za učenje jezika Duolingo i Be My Eyes, aplikacijom za osobe oštećena vida, kako bi stvorio AI Chatbote koji mogu pomoći korisnicima koristeći prirodni jezik.

Kao što je slučaj kod njegovih prethodnika, OpenAI je upozorio da GPT-4 još uvijek nije u potpunosti pouzdan i da može 'halucinirati'. Halucinacija kod ovakvih modela termin je za fenomen u kojem umjetna inteligencija izmišlja činjenice ili čini pogreške u razmišljanju.

'Radujemo se pretvaranju GPT-4 u koristan alat za poboljšanje ljudskih života integracijom u brojne aplikacije' kažu iz OpenAI-ja. 'Još imamo puno posla, no veselimo se poboljšavanju modela kroz kolektivno nastojanje zajednice koja radi, istražuje i doprinosi razvoju modela'.