Slike crnih naci vojnika koje je napravio AI pokazuju ogromnu moć tehnoloških divova

Foto: Gemini

Za ljude na tehnološkoj konferenciji festivala South by Southwest u američkom gradu Austinu skandal koji je izbio nakon što je Googleov chatbot Gemini stvorio slike crnih i azijskih nacističkih vojnika predstavlja upozorenje o moći koju umjetna inteligencija (AI) može dati tehnološkim divovima.

Sundar Pichai, šef Googlea, prošlog je mjeseca kritizirao greške tvrtkine aplikacije Gemini kao "potpuno neprihvatljive" nakon što su gafovi poput slika etnički raznolikih nacističkih vojnika prisilili tvrtku da korisnicima privremeno onemogući generiranje slika ljudi.

"Zabrljali smo što se tiče stvaranja slika"

Korisnici društvenih mreža ismijali su i kritizirali Google zbog netočnih povijesnih prikaza, poput crne američke senatorice iz 1800-ih godina, pri čemu je prva takva dužnosnica izabrana tek 1992.

"Zasigurno smo zabrljali što se tiče stvaranja slika", rekao je suosnivač Googlea Sergey Brin na nedavnom hackathonu, događaju posvećenom umjetnoj inteligenciji na kojem računalni programeri i ostali uključeni u razvoj softvera intenzivno surađuju na projektima.

Dodao je da je tvrtka trebala temeljitije testirati Gemini.

"Gemini je bio suviše woke"

Ljudi na tehnološkoj konferenciji u Austinu, u američkoj saveznoj državi Teksas, rekli su da greške Geminija naglašavaju pretjeranu moć koju nekoliko tvrtki ima nad platformama umjetne inteligencije, koje će promijeniti način na koji ljudi žive i rade.

"Gemini je bio suviše woke", kazao je Joshua Weaver, odvjetnik i tehnološki poduzetnik, što bi značilo da je Google pretjerao u svojim naporima da promovira uključivost i različitost.

"Googleovo popravljanje Geminija je kao lijepljenje flastera na prostrijelnu ranu"

"Google je ubrzo popravio svoje greške, no temeljni problem je i dalje tu", rekao je Charlie Burgoyne, šef teksaškog laboratorija primijenjene znanosti Valkyrie. Izjednačio je Googleovo popravljanje Geminija s lijepljenjem flastera na prostrijelnu ranu.

Iako je Google imao dovoljno vremena da usavršava svoje proizvode, sada se s Microsoftom, OpenAI-jem, Anthropicom i drugima utrkuje za prevlast na polju umjetne inteligencije, istaknuo je Weaver dodavši da se "kreću brže nego što se znaju kretati".

Pogreške napravljene u pokušaju da se bude kulturno osjetljiv predstavljaju izvor svađe, osobito s obzirom na napete političke podjele u Sjedinjenim Američkim Državama, što je situacija koju dodatno pogoršava X, platforma Elona Muska.

"Ljudi na X-u će vrlo rado slaviti bilo kakvu sramotnu stvar koja se dogodi u tehnološkom sektoru", kazao je Weaver dodavši da je reakcija na gaf s nacističkim vojnicima "prenapuhana".

"Oni koji budu upravljali mjerama zaštite AI-ja imat će ogroman utjecaj na svijet"

Nezgoda, međutim, dovodi u pitanje stupanj kontrole koju korisnici alata umjetne inteligencije imaju nad informacijama, smatra Weaver.

"U narednom desetljeću količina informacija ili dezinformacija proizvedenih umjetnom inteligencijom mogla bi zasjeniti one koje proizvode ljudi, što bi značilo da će oni koji budu upravljali mjerama zaštite umjetne inteligencije imati ogroman utjecaj na svijet", rekao je Weaver.

Podaci kojima se trenira AI dolaze iz svijeta prepunog pristranosti i dezinformacija

Karen Palmer, nagrađivana kreatorica pomiješane stvarnosti iz tvrtke Interactive Films Ltd., rekla je da može zamisliti budućnost u kojoj netko ulazi u robotaksi i "ako vas umjetna inteligencija skenira i smatra da se protiv vas vode prekršajni postupci, bit ćete odvedeni u lokalnu policijsku postaju" umjesto do svog željenog odredišta.

Umjetna inteligencija trenira se ogromnim količinama podataka i može se primijeniti na sve širi raspon zadataka, od stvaranja slika ili zvuka do odlučivanja o tome tko može dobiti kredit i je li vam medicinskim pregledom otkriven rak.

No ti podaci dolaze iz svijeta koji je prepun kulturne pristranosti, dezinformacija i socijalne nejednakosti, internetskih sadržaja koji mogu uključivati opušteno čavrljanje između prijatelja ili namjerno pretjerane i provokativne objave, a modeli umjetne inteligencije to ne mogu razumjeti.

Ni dobronamjerni inženjeri koji treniraju AI ne mogu zanemariti vlastita životna iskustva i podsvjesnu pristranost

Googleovi inženjeri pokušali su uravnotežiti algoritme Geminija kako bi pružao rezultate koji bolje održavaju ljudsku raznolikost. Taj im se pokušaj obio o glavu.

"Može biti dosta zamršeno, osjetljivo i suptilno ustanoviti gdje ima pristranosti i na koji je način uključena", rekao je tehnološki odvjetnik Alex Shahrestani iz tvrtke Promise Legal.

Čak i dobronamjerni inženjeri uključeni u treniranje umjetne inteligencije ne mogu zanemariti vlastita životna iskustva i podsvjesnu pristranost u procesu, smatraju on i drugi. Burgoyne iz laboratorija Valykrie također je opomenuo tehnološke divove zbog skrivanja načina funkcioniranja generativne umjetne inteligencije u "crnim kutijama" pa korisnici ne mogu otkriti skrivene pristranosti.

"Sposobnosti proizvodnje sadržaja dosad nadilaze naše razumijevanje metodologije", kazao je.

Komentare možete pogledati na ovom linku.

Pročitajte više

 
Komentare možete pogledati na ovom linku.