Vrlo brzo se očekuje eksplozija umjetne inteligencije. Ovo su ključna predviđanja

Foto: Shutterstock

RAZVOJ umjetne inteligencije ostvario je u 2022. godini golem napredak koji je istovremeno izazvao i oduševljenje i zabrinutost.

Oduševljenje, jer su sustavi umjetne inteligencije kao što su generatori slika DALL-E i Stable Diffusion, generatori videa kao što su Stable Diffusion Videos, Deforum Stable Diffusion i Make-A-Video (video dolje) te osobito generatori teksta kao što su LaMDA, ChatGPT, Godel, Sparrow i Galactica demonstrirali zapanjujuće sposobnosti kakve je malo tko očekivao, što znači da bi vrlo skoro mogli postati izuzetno korisni alati za brojne svrhe i poslove.

>> Umjetna inteligencija već sad mijenja programere i dizajnere. Pogledajte primjere

Zabrinutost, zato što se pojavio strah da bi još naprednija umjetna inteligencija i automatizacija koje će se pojaviti u narednih nekoliko godina mnogim ljudima mogle oduzeti brojne poslove, osobito onima koji se neće prilagoditi i naučiti koristiti AI.

Jedan od problema je i to što su se neki od ovih sustava već počeli koristiti za stvaranje štetnih sadržaja poput lažnih vijesti ili neprimjerenih slika, uključujući pornografske.

Također postoji zabrinutost da će AI svoje sadržaje kreirati na temelju proučavanja goleme količine ljudskih kreacija poput umjetničkih djela ne poštujući autorska prava. Primjerice, modeli koji stvaraju umjetnost poput Stable Diffusion, pokrenuli su razvoj novih aplikacija s fascinantnim kreativnim mogućnostima, uključujući čak i znanstvene primjene i nastajanje potpuno novih poslovnih modela. No, s druge strane umjetnici se bune da oni izravno profitiraju na njihovom radu.

Konačno, postoji strah da bi umjetna inteligencija u skoroj budućnosti mogla dostići i preteći ljude, postati svjesna i oteti se kontroli.

Moonlight Sonata - Stable Diffusion Animation (Dynamic Prompting)

Brojna pitanja, ali malo jasnih odgovora

Očekivano, nameće se pitanje što se može očekivati od razvoja AI-ja u 2023.? Što dobro, a što loše? Hoće li uvođenje novih propisa pratiti razvoj AI-ja i obuzdati ono najgore što bi mogao donijeti?

Hoće li se pojaviti snažni, transformativni novi oblici umjetne inteligencije, koji će uzdrmati industrije za koje se nekada smatralo da su sigurne od automatizacije? Hoće li umjetna inteligencija postati zamjena za ljude ili koristan alat za one koji će pratiti trendove i učiti je koristiti?

Kada se ovo pitanje postavi trenutno najpoznatijem generatoru teksta ChatGPT-ju, koji se temelji na modelu GPT-3.5, odgovor je otprilike sljedeći:

"GPT-4 (Generative Pre-trained Transformer 4) je najsuvremeniji AI model za obradu jezika koji razvija OpenAI. Ima potencijal pomoći ljudima ili poboljšati njihov rad u različitim zadacima koji uključuju jezičnu obradu, kao što je sažimanje, prijevod, generiranje sadržaja i više.

Važno je napomenuti da GPT-4 nije namijenjen da zamijeni ljude, već da im pomogne u zadacima koji uključuju obradu prirodnog jezika i kreiranje sadržaja na temelju proučenih, postojećih sadržaja. Vjerojatno je da će se GPT-4 donekle koristiti u raznim industrijama, uključujući novinarstvo, marketing, službu za korisnike itd. Međutim, teško je točno predvidjeti kako će se GPT-4 koristiti u budućnosti, jer je to nova tehnologija koja se još uvijek razvija i istražuje."

Je li ovo točno ili je kompanija OpenAI programirala i uvježbala ChatGPT da otklanja ljudski strah od AI-ja, pokazat će vrijeme i praksa.

GPT-4 bi mogao proći težak pravosudni ispit

Što u 2023. možemo očekivati od umjetne inteligencije koja se temelji na obradi i stvaranju teksta, ponajbolje ilustriraju projekcije razvoja ChatGPT-ja koji se krajem 2022. našao u fokusu kao najveće iznenađenje na tehnološkoj sceni. Kao što smo naveli, on trenutno radi na temelju programa GPT-3.5, a dovršavanje inačice GPT-4 očekuje se kroz nekoliko mjeseci.

Među poslovima koje bi GPT-4 mogao dobro obavljati navode se i odvjetnički. Za ilustraciju, GPT-3.5 pokazao je neočekivano dobar uspjeh u rješavanju pravosudnog ispita poznatog kao "Bar" koji je u SAD-u za odvjetnike uvjet za dobivanje profesionalne dozvole. Polaganjem tog ispita odvjetnici se primaju u odvjetničku komoru.

Znanstvenici su stoga nedavno proveli studiju u kojoj su GPT-3.5 testirali na pitanjima Bara. Pokazalo se da on još uvijek nije sposoban položiti ga, no da je vrlo blizu tome. U studiji objavljenoj na platformi Arxiv autori ističu da kandidati, da bi uopće mogli pristupiti ispitu, moraju nakon srednje škole završiti još najmanje sedam godina obrazovanja, uključujući tri godine na akreditiranom pravnom fakultetu.

"Osim toga, većina polaznika provodi tjedne ili mjesece u daljnjim specifičnim pripremama za ispit. Unatoč ovim značajnim ulaganjima vremena i kapitala, otprilike jedan od pet polaznika još uvijek ima rezultat ispod onog koji je potreban za polaganje ispita iz prvog pokušaja", ističu autori u uvodu studije.

Njihovi nalazi pokazali su da je GPT-3.5 najuspješniji bio u ispitima koji su tražili da rangira ponuđene odgovore. "Bez ikakvog finog podešavanja on trenutno postiže prolaznost u dvije kategorije odvjetničkog ispita i postiže jednaku stopu s ispitanicima u jednoj kategoriji", ističu autori.

Budući da bi GPT-4 trebao biti moćniji i mnogo bolje uvježban, uvjereni su da će bez problema proći taj test.

U čemu će GPT-4 biti napredniji od starijih modela?

Kompanija OpenAI koja je kreirala GPT za sada ne izlazi s detaljima o unaprjeđenjima koja će sadržavati GPT-4 u odnosu na ranije modele. Nameće se pitanje, po čemu će sve biti napredniji?

Sigurno je da će biti moćniji od prethodnih verzija modela u smislu sposobnosti obrade i generiranja prirodnog jezika. To bi moglo biti zbog brojnih čimbenika, kao što je povećanje broja parametara, što bi modelu trebalo omogućiti točnije prepoznavanje uzoraka u podacima.

Također, tome bi mogla pridonijeti poboljšanja u metodama obuke. Konačno, velik doprinos njegovim sposobnostima trebao bi omogućiti slobodan pristup većem broju podataka preko interneta koji GPT za sada još uvijek nema. On trenutno može pružiti samo informacije na kojima je obučen, a koje su se temeljile na fiksnom skupu podataka prikupljenih do 2021. godine koji je sastavio OpenAI.

U tehnološkim krugovima nagađa se da Microsoft, koji je uložio velika sredstva u OpenAI, planira lansirati verziju web pretraživača Bing koji će koristiti ChatGPT za odgovaranje na upite pretraživanja. Microsoft bi navodno prije kraja ožujka mogao lansirati ovu novu značajku Binga u nastojanju da ga učini konkurentnijim Googleu.

S druge strane, nema dvojbe da i Google ima svojeg skrivenog asa u rukavu, odnosno da ne čeka pasivno da mu druge kompanije pojedu sav kolač industrije u kojoj je trenutno dominantan. Stoga je za očekivati da će 2023. biti tehnološki uzbudljiva godina u kojoj će se događati nova bacanja rukavica u lice i odgovori na njih.

Što znači više parametara?

Što znači to što će GPT-4 imati značajno više parametara? Od 2018. godine, kada je objavljen GPT-1, OpenAI je slijedio strategiju "što veće, to bolje". U skladu s njom GPT-1 imao je 117 milijuna parametara, GPT-2 oko 1.2 milijarde, a GPT-3 čak 175 milijardi.

Što znače parametri u kontekstu umjetne inteligencije (AI) i strojnog učenja? Parametri su vrijednosti koje kontroliraju ponašanje AI modela.

AI model je skup algoritama koji su dizajnirani za izvođenje određenih zadataka, kao što je prepoznavanje uzoraka u podacima ili stvaranje predviđanja, a parametri su vrijednosti koje su postavljene prije uvježbavanja AI modela i koriste se za kontrolu ponašanja modela tijekom uvježbavanja i zaključivanja. Moglo bi se reći da su parametri koeficijenti modela, koje model odabire tijekom procesa učenja.

To znači da algoritam, dok uči, optimizira koeficijente prema zadanoj optimizacijskoj strategiji i vraća niz parametara koji minimiziraju pogrešku. Postoji mnogo različitih vrsta parametara koji se mogu koristiti u modelu umjetne inteligencije, a specifični parametri i njihove vrijednosti ovisit će o specifičnom zadatku za koji je model dizajniran i vrsti modela koji se koristi.

Neki primjeri parametara koji se mogu koristiti u modelu umjetne inteligencije uključuju brzinu učenja (koja kontrolira koliko brzo model uči iz podataka o obuci), broj slojeva u modelu i broj računalnih neurona u svakom sloju.

Prilagodba vrijednosti parametara u AI modelu može imati značajan utjecaj na njegovu izvedbu, a pronalaženje optimalnih vrijednosti za parametre često je važan dio obuke i finog podešavanja AI modela.

Hoće li se GPT-4 u 2023. izjednačiti s ljudskim mozgom?

U intervjuu za Wired iz kolovoza 2021., Andrew Feldman, osnivač i izvršni direktor Cerebrasa, tvrtke koja je partner OpenAI-ja za obučavanje GPT modela, rekao je da bi GPT-4 mogao imati oko 100 bilijuna parametara, što bi značilo da će biti stotinjak puta moćniji od GPT-3, ali i da će se po broju parametara približiti broju neuronskih veza u ljudskom mozgu. Naime, procjenjuje se da ljudski mozak ima oko 100 milijardi neurona te oko 100 bilijuna veza s drugim neuronima preko sinapsi.

To zvuči vrlo uzbudljivo, međutim neki stručnjaci ističu da nije sve u veličini.

Primjerice, glavni urednik UX Planeta Nick Babich ističe da veličina modela u praksi nije izravno povezana s kvalitetom ishoda koji on stvara. Broj parametara samo je jedan faktor koji utječe na performanse AI-ja.

Već sada postoje mnogo veći AI modeli nego što je GPT-3, no oni nisu najbolji u smislu performansi. Trenutno najveći model Megatron-Turing NLG, koji su razvili Nvidia i Microsoft, ima više od 500 milijardi parametara. No unatoč tome on nije najbolji u pogledu performansi. Neki manji modeli su bolji.

Osim toga, što je veći model, to je skuplje njegovo fino podešavanje. GPT-3 je bio prilično zahtjevan i skup za obuku. Ako se broj parametara modela poveća za 100 puta, to će biti izuzetno skupo u smislu računalne snage i količine podataka potrebnih za obuku modela.

Drugim riječima, mala je vjerojatnost da će GPT-4 uistinu imati 100 bilijuna parametara kako neki najavljuju, jer samo povećanje broja parametara neće uzrokovati drastično poboljšanje njegovih performansi, ako se podaci potrebni za obuku također ne povećaju proporcionalno. A treniranje modela je vrlo skupo.

Sve navedeno sugerira da će OpenAI vjerojatno početi izbjegavati pristup "veće je bolje" i fokusirati se više na kvalitetu modela za točno određene namjene. Drugim riječima, GPT-4 vjerojatno neće biti značajno veći po broju parametara od modela GPT-3.

Stručnjaci predviđaju da bi se fokus kompanija koje razvijaju AI mogao pomaknuti prema drugim aspektima koji utječu na performanse modela, kao što su specijalizacije, treniranje i unapređenje algoritama. Primjerice, GPT-4 bi, među ostalim, mogao postati prvi veliki AI model u kojem neće svi neuroni u svakom trenutku biti aktivni. U tom smislu novi bi modeli mogli biti sličniji ljudskom mozgu u kojem se za različite funkcije aktiviraju različiti specijalizirani dijelovi.

Razmišljaju li chatbotovi stvarno kao ljudi?

Činjenica da AI u nekim zadacima postaje bolji od ljudi te da se svojim neuralnim mrežama i brojem računalnih operacija približava ljudskom mozgu navela je brojne laike, ali i stručnjake, da povjeruju da su chatbotovi postali sposobni misliti, učiti i osjećati slično kao ljudi te da bi možda uskoro mogli postati čak i svjesni.

U lipnju 2022. Googleov računalni inženjer Blake Lemoine kontroverzno je objavio da je chatbot LaMDA, na kojem je i sam radio, svjestan te da ima osjećaje poput ljudskog bića. Njegovi kolege u Googleu i većina stručnjaka za umjetnu inteligenciju nisu se složili s time te je objava završila kao jedna crtica u ovoj industriji.

Zanimljivo je da sam ChatGPT u svom modelu ima sljedeću informaciju:

"Ne, chatbotovi ne razmišljaju na isti način kao ljudi. Oni su programirani za obavljanje specifičnih zadataka i nemaju sposobnost razmišljanja ili rasuđivanja na način na koji to rade ljudi. Chatbotovi su dizajnirani da oponašaju razgovor s ljudima pri čemu koriste tehnike umjetne inteligencije, ali nemaju vlastite misli ili osjećaje. Oni mogu pružiti korisne informacije i pomoći u određenim zadacima, ali nisu svjesna bića i ne posjeduju iste kognitivne sposobnosti kao ljudi."

Brojni stručnjaci tvrde da programi poput LaMDA-e i ChatGPT-ja zapravo uopće ne misle, već samo simuliraju mišljenje, što nije isto. Chatbotovi zahvaljujući svojim algoritmima, informacijama koje su im stavljene na raspolaganje tijekom procesa "treninga" pronalaze moguće nizove pojmova, rečenica i riječi kojima pridaju određenu statističku vjerojatnost prema kojoj ih izbacuju kada im se postavi pitanje koje sadrži određene riječi koje su povezane s određenim temama.

To što oni odgovore formuliraju na takav način da izgledaju kao suvisle rečenice ne znači da stvarno razmišljaju niti da su odgovori točni i provjereni. Naprotiv, iskustva s GPT-jem pokazuju da on, kada griješi, stalno ponavlja iste greške, odnosno da ne promišlja niti provjerava istinitost svojih odgovora te da za sada čak ni ne uči iz svojih grešaka.

Modeli poput Chatbota nikad neće misliti kao ljudi

Dr.sc. Ivan Voras, IT-jevac s dugom povijesti bavljenja egzotičnim tehnologijama, za Index je objasnio da modeli kao što je ChatGTP nikada neće misliti na isti način kao ljudi jer je njihov algoritam ipak samo algoritam analize i modeliranja teksta, a ne algoritam koji 'misli'.

"Razlika je ogromna i zapravo znači da ovakav algoritam nikad neće 'misliti'. Za ilustraciju, možemo usporediti ChatGTP s Wolfram Alphom. Oba sustava optimizirana su za jedan oblik komunikacije, ali taj oblik komunikacije je drastično različit među njima. ChatGTP daje odgovore na temelju tekstova koje je analizirao u procesu treninga – on ne razumije sadržaj pitanja koje mu ljudi postavljaju, nego u njima traži kontekst koji može potražiti među stotinama milijuna rečenica koje su mu na raspolaganju te će, ovisno o načinu na koji je pitanje postavljeno, izvući odgovor koji je modeliran na onome što 'zna'", navodi Voras.

"ChatGPT neće uskoro komentirati zbivanja jer sam proces treninga traje preko godine dana: preko 10.000 GPU procesora i preko 285.000 CPU procesora konstantno godinu dana analiziraju preko 750 GB podataka iz knjiga i drugih tekstova. Vrijeme treniranja će se zasigurno smanjiti i naći će se način da se nove informacije dodaju u model, no i nakon što se to dogodi, još uvijek će postojati jedna prepreka: ovakav model može samo povezivati kontekste među ogromnom količinom informacija koje ima, ali ih ne razumije", kaže naš sugovornik.

"S druge strane, Wolfram Alpha razumije matematičke i logičke operacije u pitanjima, a odnedavno i neke općenite informacije, i može dati egzaktan odgovor. Model koji je ovdje korišten doslovno iz pitanja 'koliko je 2+2' vadi informacije da se radi o matematičkom pitanju, da se radi o operaciji zbrajanja dva broja, i doista zbroji te brojeve te prezentira odgovor korisniku", ističe Voras.

"On može napisati pogrešan odgovor jer doslovno ne zna razliku"

"ChatGPT bi 'samo' u svojoj ogromnoj bazi tekstova na kojoj je treniran našao primjere gdje je autor napisao '2+2=4'" i od toga stvorio rečenicu koja ima subjekt objekt i predikat. Ne bi izračunao tu matematičku operaciju. Naravno taj primjer je trivijalan, ali zamislite što bi se dogodilo da se ChatGPT pita za određivanje dijagnoze pacijenata, propisivanje lijekova, dizajn rakete za Mars, ili statički proračun za neboder", navodi naš sugovornik.

"On to ne bi mogao egzaktno napraviti kada u svojoj 'bazi znanja' ne bi imao baš takav proračun koji je netko napisao, a osim toga, ako se u skupu analiziranih tekstova za ChatGPT nalaze pogrešne informacije primjerice '2+2=5', on to ne može prepoznati i u nekim okolnostima, statistički, može napisati takav pogrešan odgovor – jer doslovno ne zna razliku", tumači Voras.

Ističe da idealan put prema umjetnoj inteligenciji uključuje pomirenje ova dva pristupa: jedan s analizom i sintezom jezičnih struktura, a drugi s egzaktnim izračunima (više na tu temu pročitajte ovdje).

Drugim riječima, od chatbotova i drugih modela AI-ja u 2023. možemo očekivati fascinantna ostvarenja, ali još uvijek ne i izjednačavanje računala s ljudima u smislu općih kognitivnih sposobnosti; još ćemo pričekati na superinteligentnog robota u svemu jednakog ili superiornog ljudima.

Komentare možete pogledati na ovom linku.

Pročitajte više

 
Komentare možete pogledati na ovom linku.