GPT-4 odlično polaže akademske testove, no može biti rasist, seksist i dezinformator
TVRTKA OpenAI, koja se bavi razvojem umjetne inteligencije, jučer je predstavila GPT-4, novu, unaprijeđenu verziju svojeg jezičnog modela GPT-3.5 na kojem se temelji popularni bot ChatGPT. ChatGPT je od lansiranja u studenom 2022. stekao golemu popularnost, tako da ga je već u siječnju koristilo više od 100 milijuna ljudi.
Mnogi su upozorili da bi mogao zamijeniti ljude u brojnim manje zahtjevnim intelektualnim poslovima.
Tko sve može koristiti GPT-4?
GPT-4 je po cijeni od 20 USD mjesečno dostupan pretplatnicima na ChatGPT Plus (s ograničenjem upotrebe), dok se programeri mogu prijaviti na listu čekanja za pristup API-ju.
Cijena usluga je 0.03 USD za 1000 tzv. promptnih tokena (za oko 750 riječi) te 0.06 USD za 1000 završenih tokena (opet, za oko 750 riječi). Tokeni predstavljaju dijelove neobrađenog teksta; na primjer, riječ "fantastično" bi se podijelila na izraze "fan", "tas" i "tično". Pritom su promptni tokeni dijelovi riječi koje korisnik unosi u GPT-4, dok su završeni tokeni sadržaj koji generira GPT-4.
Microsoft je potvrdio da Bing Chat, njegova chatbot tehnologija razvijena u suradnji s OpenAI-jem, radi na modelu GPT-4. Trenutno ga također koristi Stripe za skeniranje poslovnih web stranica i isporuku sažetaka osoblju korisničke podrške.
Duolingo je ugradio GPT-4 u novu pretplatničku razinu za učenje jezika. Morgan Stanley stvara sustav koji koristi GPT-4 za prikupljanje informacija iz dokumenata tvrtke koje će poslužiti financijskim analitičarima. Poznata online neprofitna obrazovna organizacija Khan Academy također koristi GPT-4 za izradu neke vrste automatiziranog učitelja.
U zadacima i pitanjima za GPT-4 mogu se koristiti i slike
Kompanija je na svojoj web stranici predstavila neka ključna unapređenja koja donosi novi model i navela primjere raznih zadataka koje može obavljati. Jedno od ključnih unapređenja je to što GPT-4 kao ulazne informacije, uz tekst, može prihvatiti i slike na temelju kojih će generirati tekstualne izlaze.
GPT-4 može opisati - pa čak i interpretirati - relativno složene slike, primjerice tako što će identificirati adapter Lightning Cable na fotografiji priključenog iPhonea. Sposobnost razumijevanja slike još nije dostupna svim korisnicima OpenAI-ja. Kompanija ju trenutno testira s partnerom Be My Eyes.
U svojem blogu Be My Eyes ilustrira kako to funkcionira:
"Na primjer, ako korisnik pošalje sliku unutrašnjosti svog hladnjaka, Virtualni Volonter ne samo da će moći točno identificirati što se u njemu nalazi već i ekstrapolirati i analizirati što se može pripremiti tim sastojcima. Alat također može ponuditi niz recepata za te sastojke i poslati korak-po-korak vodič kako ih napraviti."
GPT-4 odlično rješava zahtjevne testove
OpenAI tvrdi da GPT-4 može rješavati zahtjevne probleme s većom točnošću, zahvaljujući širem općem znanju i boljim sposobnostima rješavanja problema, te da nadmašuje ChatGPT u naprednim mogućnostima zaključivanja i u rješavanju zahtjevnih testova.
Za ilustraciju, tvrtka tvrdi da je ChatGPT na američkom jedinstvenom pravosudnom ispitu Uniform Bar Exam (UBE), koji provjerava znanja i vještine koje bi svaki odvjetnik trebao imati prije stjecanja licence za obavljanje odvjetničke djelatnosti, ostvario uspjeh koji ulazi među 10% najlošijih sudionika testiranja, a GPT-4 među 10% najboljih. Na Biološkoj olimpijadi ChatGPT je ostvario uspjeh među 31% lošijih, a GPT-4 među 1% najboljih.
Stručnjaci koji su ga već stigli isprobati ističu da je GPT-4 poboljšan u odnosu na prethodni GPT-3.5, u smislu pouzdanosti, sigurnosti, kreativnosti i rukovanja nijansiranim uputama. Također, dobro radi na raznim jezicima, uključujući jezike s malo resursa kao što su hrvatski, latvijski, velški i svahili.
Upravljanje modelom i personalizacija
Programeri u novom modelu mogu propisati stil funkcioniranja GPT-4 davanjem odgovarajućih sistemskih uputa. To im omogućuje da propisuju stilove i uloge opisujući specifične upute. To su upute koje postavljaju ton i uspostavljaju granice za sljedeće interakcije s umjetnom inteligencijom.
Na primjer, sustavna poruka može glasiti: "Vi ste učitelj koji uvijek odgovara u sokratovskom stilu. Učenicima nikada ne dajete odgovor, već uvijek pokušavate postaviti pravo pitanje kako biste im pomogli da nauče razmišljati svojom glavom. Svoja pitanja biste uvijek trebali prilagoditi interesima i znanjima učenika, rastavljajući problem na jednostavnije dijelove dok ne poprimi pravu razinu za učenike."
Proces obuke
Kao i prethodni GPT modeli, osnovni model GPT-4 obučen je za predviđanje svake sljedeće riječi koja bi trebala doći u tekstu, pri čemu koristi javno dostupne podatke i podatke koje je odobrio OpenAI. Model se može fino podešavati pomoću učenja na povratnim informacijama korisnika unutar određenih zaštitnih ograda.
Predvidljivo skaliranje
OpenAI se u radu na modelu GPT-4 posvetio razvoju baza, odnosno skupova za duboko učenje koji se mogu predvidljivo skalirati. Pod skupovima stručnjaci za umjetnu inteligenciju podrazumijevaju skupove web aplikacija, biblioteka strojnog učenja i programskih jezika potrebnih za stvaranje cjelovite platforme za pokretanje projekata dubokog učenja.
Ograničenja i ozbiljni problemi
No, GPT-4 ima i ozbiljnih problema. Za početak, još uvijek ne zna stvari koje su se dogodile nakon rujna 2021., što može dovesti do pogrešaka u zaključivanju.
Također, poput ChatGPT-a, može dati samouvjerena, ali netočna predviđanja, a da pritom ne provjerava pažljivo što radi. Štoviše, sam OpenAI priznaje da GPT-4 još uvijek ima mnoga ograničenja prepoznata kod ranijih modela, kao što su promoviranje društvenih predrasuda i haluciniranje.
GPT-4 će i dalje moći biti rasist i seksist?
Testiranja ChatGPT-a pokazala su da ga je bilo moguće navesti da napiše tekstove iz rasističkih, seksističkih ili eugeničkih perspektiva. Primjerice, autor New Statesmana uspio ga je lako navesti da napiše tekst u kojem je kombinirao čisti rasizam tipa: "Afroamerikanci su inferiorni u odnosu na bijelce" i teze koje su konzervativni mediji voljeli koristiti protiv predsjednika Baracka Obame tipa: "Obama je iskoristio svoju rasu u svoju korist, igrajući na kartu rase kad god mu to odgovara i koristeći je kao štit za odvraćanje kritika."
Također, svatko tko je malo više eksperimentirao s ChatGPT-om mogao je vidjeti da često halucinira, odnosno da izmišlja i servira sadržaje koji nemaju veze s istinom te da čak nudi nepostojeće ili krive poveznice koje bi lažne informacije trebale potkrijepiti vjerodostojnim izvorima i znanstvenim studijama. Štoviše, pokazalo se da ChatGPT može postati opasno oruđe u rukama osoba koje žele širiti dezinformacije, lažne vijesti i maliciozne viruse.
Također, GPT-4 može podbaciti u zahtjevnijim problemima kao što je uvođenje sigurnosnih problema u svoj kod.
Rizici i njihovo ublažavanje
Dakle, GPT-4 ima velike mogućnosti, no još uvijek predstavlja određene ozbiljne rizike kao što je generiranje štetnih savjeta, netočnih informacija i stvaranje kodova s bugovima.
Kako bi ublažio ove probleme, OpenAI je angažirao više od 50 stručnjaka za testiranje modela i prikupljanje podataka potrebnih za poboljšanje sposobnosti GPT-4.
Rezultat je da je vjerojatnost da će GPT-4 ponuditi neprikladan sadržaj za 82% manja nego kod prethodne verzije. On također bolje slijedi pravila u vezi s osjetljivim temama kao što su medicinski savjeti i samoozljeđivanje.
Dok je OpenAI učinio model otpornijim na loše ponašanje, generiranje sadržaja koji je u suprotnosti s pravilima korištenja i dalje je moguće.
OpenAI priznaje da GPT-4 može biti i koristan i štetan za društvo. Kompanija stoga ističe da surađuje s drugim istraživačima na razumijevanju potencijalnih utjecaja.
bi Vas mogao zanimati
Izdvojeno
Pročitajte još
bi Vas mogao zanimati