Tokom međunarodnog sastanka umova, neki od vodećih stručnjaka za veštačku inteligenciju okupili su se da napišu definitivan izveštaj o njenim opasnostima.
„Brzi napredak u sposobnostima sistema veštačke inteligencije gura čovečanstvo bliže svetu u kojem AI dostiže i premašuje ljudsku inteligenciju,“ započinje izjava Međunarodnih dijaloga o bezbednosti AI (IDAIS), međukulturnog konzorcijuma naučnika koji je usmeren na ublažavanje rizika od AI.
Sa ličnostima poput naučnika iz Turing instituta Geoffreyja Hintona u društvu Zhang Ya-Qina, bivšeg predsednika kineskog tehnološkog konglomerata Baidu, razni potpisnici pisma predstavljaju vrhunske mislioce o AI na globalnom nivou.
„Stručnjaci se slažu da će ovi sistemi veštačke inteligencije verovatno biti razvijeni u narednim decenijama, a mnogi veruju da će se pojaviti uskoro,“ nastavlja se izjava IDAIS-a. „Gubitak ljudske kontrole ili zla upotreba ovih sistema veštačke inteligencije mogla bi dovesti do katastrofalnih posledica za celo čovečanstvo.“
Napisana na trećem sastanku grupe u Veneciji, ova „izjava o konsenzusu“ usmerena je ne samo na isticanje rizika od AI-a, već i na usklađivanje tih rizika za „globalno javno dobro.“ Na ovim sastancima, desetine stručnjaka okupilo se da uputi poziv na akciju u vezi sa rizicima od AI prema kojima žurimo.
Razmišljajte lokalno, planirajte globalno
Budući da AI ne poznaje međunarodne granice, razmatranje ove tehnologije i njenih rizika na globalnom nivou je, kako tvrde potpisnici IDAIS-a, od najveće važnosti. Dok su učinjeni „obećavajući prvi koraci međunarodne zajednice“ prema saradnji u oblasti bezbednosti AI-a na međuvladinim samitima, napisali su, ovi napori moraju da se nastave u interesu razvoja „globalnog plana za vanredne situacije“ kada i ako ovi rizici postanu ozbiljniji.
Takvi planovi za vanredne situacije uključivali bi uspostavljanje međunarodnih tela za kreiranje pripremljenosti za hitne slučajeve — nema informacija o tome da li će to biti unutar ili izvan već uspostavljene organizacije poput Ujedinjenih nacija — kao i međusobno usaglašavanje oko „crvenih linija“ i šta raditi kada se one pređu.
Sa dodatnim potpisnicima, uključujući bivšu irsku predsednicu Mary Robinson, dobitnika Turingove nagrade Andrew Yaoa i nekoliko istraživača i zvaničnika iz akademskih institucija u Quebecu i Pekingu, izjava naglašava šta treba učiniti za ublažavanje rizika, ali je relativno nejasna u vezi sa tim koji su ti tačni rizici i kako se mogu pojaviti.
U svakom slučaju, preporuke IDAIS-a su verovatno dobre, a podsticanje međunarodnog dijaloga o ovako važnoj temi je od suštinske važnosti u svetlu nadolazeće militarizovane trke u AI između Sjedinjenih Američkih Država i Kine.