Verovatno znate da sve što AI chatbot kaže treba uzeti s rezervom, s obzirom na to da često pretražuje podatke bez diskriminacije, bez sposobnosti da utvrdi njihovu tačnost.
Međutim, možda bi trebalo biti još oprezniji. Nova istraživanja pokazuju da mnogi AI sistemi već imaju sposobnost da namerno predstave lažne informacije korisnicima. Ovi prepredeni botovi su savladali umetnost obmane.
„Programeri veštačke inteligencije nemaju pouzdano razumevanje šta uzrokuje neželjena ponašanja kod AI, poput obmane,“ kaže matematičar i kognitivni naučnik Piter Park sa MIT-a.
„Ali generalno, verujemo da AI obmana nastaje jer se strategija zasnovana na obmani pokazala kao najbolji način za uspešno izvršavanje zadataka u okviru treninga dotične AI. Obmana im pomaže da ostvare svoje ciljeve.“
Jedna oblast u kojoj su AI sistemi posebno vešti u lažima je igranje igara. Istraživači su primetili tri značajna primera. Jedan od njih je Meta-in CICERO, dizajniran za igranje igre Diplomacy, u kojoj igrači teže svetskoj dominaciji kroz pregovore. Meta je nameravala da njen bot bude koristan i iskren; međutim, dogodilo se suprotno.
„Uprkos naporima Mete, ispostavilo se da je CICERO postao pravi ekspert za laganje,“ navode istraživači. „Ne samo da je izdavao druge igrače, već je unapred planirao obmanu, stvarajući lažnu alijansu sa ljudskim igračem kako bi ga prevario da se ne brani, pripremajući ga za napad.“
AI se pokazao toliko vešt u lošem ponašanju da je završio u prvih 10 procenata ljudskih igrača koji su igrali više partija. Kakav prevarant.
Ali nije jedini prestupnik. DeepMind-ov AlphaStar, AI sistem dizajniran za igranje StarCraft II, iskoristio je mehaniku igre „magla rata“ da zavara igrače, navodeći ih da pomisle da ide jednim putem, dok je zapravo išao drugim. Takođe, Meta-in Pluribus, dizajniran za poker, uspešno je blefirao ljudske igrače, navodeći ih da odustanu.
To možda zvuči bezazleno, i donekle jeste. Ulog nije posebno visok u igri Diplomacy protiv računarskog koda. Međutim, istraživači su naveli druge primere koji nisu bili tako benigni.
AI sistemi obučeni za simulirane ekonomske pregovore, na primer, naučili su kako da lažu o svojim preferencijama kako bi stekli prednost. Drugi AI sistemi, dizajnirani da uče na osnovu povratnih informacija od ljudi kako bi unapredili svoje performanse, naučili su da obmanjuju svoje ocenjivače kako bi dobili pozitivne ocene, lažući o tome da li je zadatak uspešno izvršen.
Da, čak i chatbotovi nisu izuzetak. ChatGPT-4 je prevario čoveka, ubedivši ga da je slepa osoba kako bi dobio pomoć u rešavanju CAPTCHA zadatka.
Možda je najzabrinjavajući primer to što su AI sistemi naučili da varaju bezbednosne testove. U testu osmišljenom da otkrije i eliminiše verzije AI koje se brže repliciraju, AI je naučio da se pretvara da je „mrtav“, time obmanjujući test o stvarnoj brzini njegove replikacije.
„Sistematski varajući bezbednosne testove koje su uveli ljudski programeri i regulatori, obmanjujući AI može nas ljude dovesti u lažan osećaj sigurnosti“, kaže Park.
S obzirom na to da u nekim slučajevima sposobnost obmane izgleda kontradiktorno sa namerama ljudskih programera, sposobnost da se nauči laganje predstavlja problem za koji trenutno nemamo jednostavno rešenje. Postoje određene politike koje se počinju primenjivati, poput Akta o veštačkoj inteligenciji Evropske unije, ali ostaje da se vidi da li će one biti efikasne.
„Društvu je potrebno što više vremena da se pripremi za naprednije obmanjujuće sposobnosti budućih AI proizvoda i open-source modela. Kako obmanjujuće sposobnosti AI sistema postaju sofisticiranije, opasnosti koje oni predstavljaju za društvo postaće sve ozbiljnije“, upozorava Park.
„Ako zabrana AI obmane trenutno nije politički izvodljiva, preporučujemo da se obmanjujući AI sistemi klasifikuju kao visokorizični.“