Američki predsjednik Joe Biden sastao se sa skupinom stručnjaka za umjetnu inteligenciju krajem lipnja kako bi razgovarali o upravljanju riziku, kad je riječ o njoj.
Samo nekoliko dana ranije, Europski parlament odobrio je Zakon o umjetnoj inteligenciji, prvi svjetski dio regulacije umjetne inteligencije temeljene na riziku. I, iako u nešto manjem opsegu, propisi New Yorka o korištenju umjetne inteligencije pri donošenju odluka o zapošljavanju trebali bi uskoro stupiti na snagu.
Unatoč ovim ranim oblicima regulative i unatoč njegovim redovitim pozivima na veći nadzor, Sam Altman, izvršni direktor (CEO) OpenAI-ja, i dalje se priprema učiniti ChatGPT još moćnijim. Najavio je cijeli niz poboljšanja.
"U jednom ćemo trenutku tamo dobiti fotografije, audio i video, a modeli će postati pametniji", rekao je.
Ljudska inteligencija je višestruka, ChatGPT trenutno je ipak isključivo veliki jezični model (LLM). Ali, kako raste i počinje obrađivati video, slikovne i zvučne podatke, dobit će više aspekata onih stvari koje čine ljudsku inteligenciju.
A to je, prema stručnjaku za umjetnu inteligenciju Garyju Marcusu, opasno, iako ne nužno zbog egzistencijalnog rizika. Marcusov strah manje se temelji na mogućim prijetnjama, već se usredotočuje na trenutne štete i načine na koje bi poboljšanja ovih modela mogla pogoršati te štete.
Navodeći rizike od dezinformacija i pojačane online prijevare, uz gubitak posla, Marcus je rekao:
"Moramo se prestati brinuti o Skynetu i robotima koji preuzimaju svijet te puno više razmišljati o tome što bi kriminalci, uključujući teroriste, mogli učiniti s LLM-ima i što bismo, ako išta, mogli učiniti da ih zaustavimo."
Tamo gdje se propisi Europske unije o umjetnoj inteligenciji usredotočuju na rizik, dijeleći potencijalne modele umjetne inteligencije u četiri klasifikacije - neprihvatljivi rizik, visoki rizik, ograničeni rizik i minimalni rizik - dio zakona "na čekanju" o umjetnoj inteligenciji u New Yorku usredotočen je na jednu značajnu posljedicu tehnologije - radna mjesta. Ili njihov gubitak, konkretnije...
To znači, ako prođe, da će zakon zahtijevati od svake kompanije koja koristi umjetnu inteligenciju kad donosi odluke o zapošljavanju da prvo obavijeste kandidate o njihovoj automatiziranoj metodologiji, a drugo, podvrgnu se godišnjoj reviziji pristranosti. Vjeruje se da će ovako nešto u odrešenom obliku primijeniti i gradovi, odnosno, države diljem svijeta.
Usred tih ranih faza regulacije, Altman, koji tjednima javno poziva na državni nadzor, privatno je lobirao u EU da "razvodni" Zakon o umjetnoj inteligenciji. Zatražio je od regulatora da promijene tekst zakona tako da se sustavi umjetne inteligencije opće namjene, poput ChatGPT-a, ne bi smatrali visokorizičnima, što je klasifikacija koja bi zahtijevala mnogo stroži nadzor.
"Sam po sebi, GPT-3 nije visokorizičan sustav, ali posjeduje mogućnosti koje se potencijalno mogu koristiti u visokorizičnim slučajevima upotrebe", stoji u dokumentu.
Ali, kako tvrdi Marcus, trenutni sustavi nisu transparentni, ne štite našu privatnost i nastavljaju održavati pristranost. Čak ni njihovi tvorci ne razumiju u potpunosti kako funkcioniraju. Najviše od svega, ne može se ni izdaleka jamčiti da su sigurni.