Rukovodioci OpenAI-a pozivaju na regulaciju kako bi se sprečilo da veštačka inteligencija uništi čovečanstvo. Tim iza ChatGPT-a tvrdi da je potreban ekvivalent Međunarodnoj agenciji za atomsku energiju (IAEA) kako bi se čovečanstvo zaštitilo od rizika slučajnog stvaranja nečega sa moći da ga uništi.
Kratkoročno gledano, trojka poziva na „određeni stepen koordinacije“ među kompanijama koje rade na najnovijim istraživanjima veštačke inteligencije, kako bi se osiguralo da se razvoj sve moćnijih modela glatko integriše u društvo, uz bezbednost kao prioritet. Ta koordinacija mogla bi biti postignuta kroz projekat koji vodi vlada, na primer, ili kroz kolektivni ugovor za ograničavanje rasta sposobnosti veštačke inteligencije.
„Moguće je da će u narednih 10 godina sistem veštačke inteligencije nadmašiti nivo stručnih veština u većini oblasti i obavljati jednako produktivne aktivnosti kao i jedna od najvećih korporacija današnjice. Kada je reč o potencijalnim prednostima i nedostacima, superinteligencija će biti moćnija od drugih tehnologija sa kojima se čovečanstvo moralo boriti u prošlosti. Možemo imati dramatično prosperitetniju budućnost, ali moramo upravljati rizikom kako bismo tamo stigli. S obzirom na mogućnost egzistencijalnog rizika, ne možemo samo reagovati“, upozoravaju.
Zanimljivost
U kratkoj belešci objavljenoj na veb stranici kompanije, suosnivači Greg Brockman i Ilya Sutskever, kao i izvršni direktor Sam Altman, pozivaju međunarodnog regulatora da počne raditi na tome kako bi „proveravao sisteme, zahtevao revizije, testirao usklađenost sa sigurnosnim standardima i postavljao ograničenja na nivoe implementacije i sigurnosti“, kako bi se smanjio „egzistencijalni rizik“ koji bi takvi sistemi mogli predstavljati.
Istraživači već decenijama upozoravaju na potencijalne rizike superinteligencije, ali kako je razvoj veštačke inteligencije ubrzan, ti su rizici postali konkretniji. Američki Centar za bezbednost veštačke inteligencije (CAIS), koji radi na „smanjenju rizika na društvenom nivou od veštačke inteligencije“, opisuje osam kategorija „katastrofalnih“ i „egzistencijalnih“ rizika koje razvoj veštačke inteligencije može predstavljati.
Dok se neki brinu da će moćna veštačka inteligencija potpuno uništiti čovečanstvo, slučajno ili namerno, CAIS opisuje druge pogubnije štete. Svet u kojem se sistemima veštačke inteligencije dobrovoljno predaje sve više rada mogao bi dovesti do toga da čovečanstvo „izgubi sposobnost samoupravljanja i postane potpuno zavisno o mašinama“, opisano kao „oslabljenost“; a mala grupa ljudi koja kontroliše moćne sisteme mogla bi „učiniti veštačku inteligenciju centralizujućom silom“, što bi dovelo do „zaključavanja vrednosti“, večnog kastinskog sistema između onih kojima se vlada i onih koji vladaju.