Direktor američke kompanije OpenAI Sam Altman, koja stoji iza ChatGPT, njegovog naslednika GPT-4 i modela za stvaranje slika DALL-E, objavio je na blogu kompanije plan za razvoj opšte „super“ veštačke inteligencije.
On je naveo da je njihova misija osigurati da opšta veštačka inteligencija koristi celom čovečanstvu.
„Ako se veštačka inteligencija (AGI) uspešno napravi, ova bi nam tehnologija mogla pomoći da uzdignemo čovečanstvo na viši nivo, povećanjem globalne ekonomije i pomaganjem u otkrivanju novih naučnih spoznaja koje menjaju granice mogućnosti“, navodi u tekstu Altman.
Navodi da AGI ima potencijal svima dati neverovatne nove mogućnosti.
„S druge strane, AGI bi također dolazio s ozbiljnim rizikom od zloupotrebe, drastičnih nesreća i društvenih poremećaja. Budući da je prednost AGI-a tako velika, ne verujemo da je moguće ili poželjno da društvo zauvek zaustavi njegov razvoj. Umesto toga, društvo i razvijači AGI-a moraju smisliti kako to učiniti kako treba“, ističe se.
U objavi su istakli načela po kojim će se voditi politika vođenja veštačke inteligencije.
Želimo da AGI osnaži čovečanstvo da maksimalno napreduje u svemiru. Ne očekujemo da će budućnost biti bezuslovna utopija, ali želimo maksimizirati dobro i minimizirati loše, te da AGI bude pojačivač čovečanstva.
Želimo da se koristi, pristup i upravljanje AGI-jem široko i pošteno dijele.
Želimo uspešno upravljati velikim rizicima. Suočavajući se s tim rizicima, priznajemo da ono što se u teoriji čini ispravnim u praksi često bude čudnije od očekivanog. Verujemo da moramo neprestano učiti i prilagođavati se uvođenjem manje moćnih verzija tehnologije kako bismo sveli na minimum scenarije „jednog pokušaja da se ispravi“.
Kratkoročna strategija
Istakao je da postoji nekoliko stvari za koje misle da je važno učiniti sada kako bi se pripremili za AGI.
„Prvo, kako stvaramo sve snažnije sisteme, želimo ih implementirati i steći iskustvo u upravljanju njima u stvarnom svetu. Verujemo da je ovo najbolji način za pažljivo upravljanje postojanjem AGI-ja – postupni prelaz u svet s AGI-jem bolji je od iznenadnog. Očekujemo da će snažna veštačka inteligencija učiniti stopu napretka u svetu mnogo bržom i mislimo da je bolje tome se postupno prilagođavati“, navodi se.
Dodaje da postupni prelaz daje ljudima, kreatorima politika i institucijama vremena da shvate što se događa, osobno iskuse prednosti i nedostatke ovih sustava, prilagode gospodarstva i uspostave regulaciju.
Takođe omogućuje razvoj društva i veštačke inteligencije te da ljudi kolektivno shvate što žele dok su ulozi relativno niski.
„Trenutno verujemo da je najbolji način za uspešno rešavanje izazova implementacije veštačke inteligencije uz usku povratnu petlju brzog učenja i pažljivog ponavljanja. Društvo će se suočiti s velikim pitanjima o tome što sustavi veštačke inteligencije smeju raditi, kako se boriti protiv pristranosti, kako se nositi s premeštanjem s posla i još mnogo toga“, poručuje u svom blogu.
Navodi da će optimalne odluke ovisiti o putu kojim tehnologija krene, a kao u svakom novom području, većina predviđanja stručnjaka dosad je bila pogrešna. To vrlo otežava planiranje u vakuumu.
„Opšte govoreći, mislimo da će veća upotreba veštačke inteligencije u svetu dovesti do dobra i želimo to promovisati (stavljanjem modela u naš API, njihovim otvorenim kodom itd.). Verujemo da će demokratizirani pristup također dovesti do višeg i boljeg istraživanja, decentralizovane moći, više koristi i većeg broja ljudi koji doprinose novim idejama“, rekao je Altman.
Ističe da će se njihovi sistemi približiti AGI-ju.
„Postajemo sve oprezniji pri izradi i implementaciji naših modela. Naše će odluke zahtevati mnogo više opreza nego što društvo obično primenjuje na nove tehnologije, i više opreza nego što bi mnogi korisnici želeli. Neki ljudi u području veštačke inteligencije misle da su rizici AGI (i sistema nasljednika) izmišljeni; bili bismo oduševljeni ako se pokažu u pravu, ali ćemo delovati kao da su ti rizici egzistencijalni“, istakao je.
Institucije to moraju uskladiti
U nekom trenutku, ravnoteža između pozitivnih i loših strana implementacije (kao što je osnaživanje zlonamernih aktera, stvaranje društvenih i ekonomskih poremećaja i ubrzavanje nesigurne utrke) mogao bi se povući potez, u kojem bismo slučaju značajno promenili svoje planove oko kontinuirane implementacije.
„Drugo, radimo na stvaranju sve usklađenijih i upravljivijih modela. Naš prelaz s modela poput prve verzije GPT-3 na InstructGPT i ChatGPT rani je primer toga“, naglašava.
Na kraju navodi da je važno da se društvo složi oko iznimno širokih granica korištenja veštačke inteligencije, ali da unutar tih granica pojedinačni korisnici imaju veliku diskreciju.
„Naša je konačna nada da će se svetske institucije složiti oko toga što bi te široke granice trebale biti. U kraćem roku planiramo pokrenuti eksperimente za spoljašni unos. Institucije u svetu trebat će se ojačati dodatnim sposobnostima i iskustvom kako bi se pripremile za složene odluke o AGI-u“, zaključio je.