Odgovorna AI (RAI) se odnosi na dizajniranje i primenu AI sistema koji su transparentni, nepristrasni, odgovorni i prate etičke smernice. Kako sistemi veštačke inteligencije postaju robusniji i preovlađujući, od suštinske je važnosti da se osigura da se razvijaju odgovorno i da se poštuju bezbednosne i etičke smernice.
Zdravlјe, transport, upravlјanje mrežom i nadzor su bezbednosno kritične aplikacije veštačke inteligencije gde kvar sistema može da ima ozbilјne posledice. Velike kompanije su svesne da je RAI od suštinskog značaja za ublažavanje tehnoloških rizika. Ipak, prema izveštaju MIT Sloan/BCG koji je uklјučivao 1093 ispitanika, 54% kompanija nije imalo stručnost i talenat za odgovornu veštačku inteligenciju.
Iako su vođe misli i organizacije razvile principe za odgovornu AI, obezbeđivanje odgovornog razvoja sistema veštačke inteligencije i dalјe predstavlјa izazov. Hajde da detalјno istražimo ovu ideju:
5 principa za odgovornu veštačku inteligenciju
- Pravednost
Tehnolozi bi trebalo da dizajniraju procedure tako da sistemi veštačke inteligencije tretiraju sve pojedince i grupe pravedno bez pristrasnosti. Stoga je pravičnost primarni zahtev u visokorizičnim aplikacijama za donošenje odluka.
Pravednost se definiše kao:
„Ispitivanje uticaja na različite demografske grupe i odabir jedne od nekoliko matematičkih definicija grupne pravednosti koja će adekvatno zadovolјiti želјeni skup pravnih, kulturnih i etičkih zahteva.“
- Odgovornost
Odgovornost znači da pojedinci i organizacije koje razvijaju i primenjuju AI sisteme treba da budu odgovorni za njihove odluke i akcije. Tim koji primenjuje sisteme veštačke inteligencije treba da obezbedi da njihov sistem veštačke inteligencije bude transparentan, razumlјiv, podložan reviziji i da ne šteti društvu.
Odgovornost uklјučuje sedam komponenti:
- Kontekst (svrha za koju je potrebna odgovornost)
- Raspon (predmet odgovornosti)
- Agent (ko je odgovoran?)
- Forum (kome odgovorna strana mora da se prijavi)
- Standardi (kriterijumi za odgovornost)
- Proces (metod odgovornosti)
- Implikacije (posledice odgovornosti)
- Transparentnost
Transparentnost znači da je razlog za donošenje odluka u sistemima veštačke inteligencije jasan i razumlјiv. Transparentni AI sistemi su objašnjivi.
Prema Listi za procenu verodostojne veštačke inteligencije (ALTAI), transparentnost ima tri klјučna elementa:
- Sledlјivost (dostupni su podaci, koraci za prethodnu obradu i model)
- Objašnjivost (razlog iza donošenja odluka/predviđanja je jasan)
- Otvorena komunikacija (u vezi sa ograničenjem AI sistema)
- Privatnost
Privatnost je jedan od glavnih principa odgovorne veštačke inteligencije. Odnosi se na zaštitu ličnih podataka. Ovaj princip osigurava da se lični podaci lјudi prikuplјaju i obrađuju uz saglasnost i da se drže van ruku nezadovolјnih.
Kao što se nedavno pokazalo, postojao je slučaj Clearview, kompanije koja proizvodi modele za prepoznavanje lica za policiju i univerzitete. Britanski nadzornici podataka tužili su Clearview AI za £7.5 miliona zbog prikuplјanja slika stanovnika Velike Britanije sa društvenih medija bez pristanka za stvaranje baze podataka od 20 milijardi slika.
- Sigurnost
Sigurnost znači osigurati da sistemi veštačke inteligencije budu sigurni i da ne prete društvu. Primer bezbednosne pretnje od veštačke inteligencije su napadi sa strane. Ovi zlonamerni napadi prevare ML modele da donesu pogrešne odluke. Zaštita AI sistema od sajber napada je imperativ za odgovorni AI.
4 glavna izazova i rizika odgovorne veštačke inteligencije
- Pristrasnost
Ljudske predrasude vezane za godine, pol, nacionalnost i rasu mogu da utiču na prikuplјanje podataka, potencijalno dovodeći do pristrasnih AI modela. Studija američkog Ministarstva trgovine pokazala je da veštačka inteligencija za prepoznavanje lica pogrešno identifikuje lјude u boji. Dakle, korišćenje veštačke inteligencije za prepoznavanje lica u organima za sprovođenje zakona može da dovede do nezakonitih hapšenja. Takođe, pravlјenje poštenih AI modela je izazov jer postoji 21 različit parametar za njihovo definisanje. Dakle, postoji kompromis; zadovolјiti jedan fer parametar AI znači žrtvovati drugi.
- Interpretabilnost
Interpretabilnost je kritičan izazov u razvoju odgovorne veštačke inteligencije. Odnosi se na razumevanje kako je model mašinskog učenja došao do određenog zaklјučka.
Dubokim neuronskim mrežama nedostaje interpretabilnost jer funkcionišu kao crne kutije sa više slojeva skrivenih neurona, što otežava razumevanje procesa donošenja odluka. Ovo može da bude izazov u donošenju odluka sa visokim ulozima, kao što su zdravstvena zaštita, finansije itd.
Štaviše, formalizovanje interpretabilnosti u ML modelima je izazov jer je subjektivno i specifično za domen.
- Upravlјanje
Upravlјanje se odnosi na skup pravila, politika i procedura koje nadgledaju razvoj i primenu AI sistema. Nedavno je došlo do značajnog napretka u diskursu upravlјanja veštačkom inteligencijom, pri čemu su organizacije predstavile okvire i etičke smernice.
Etičke smernice za verodostojnu veštačku inteligenciju od strane EU, australijskog etičkog okvira AI i principa AI OECD-a su primeri okvira upravlјanja AI.
Ali brz napredak u AI poslednjih godina može da nadmaši ove okvire upravlјanja AI. U tom cilјu, mora da postoji okvir koji procenjuje pravednost, interpretabilnost i etičnost sistema veštačke inteligencije.
- Regulativa
Kako sistemi veštačke inteligencije postaju sve prisutniji, mora da postoji i regulacija koja će uzeti u obzir etičke i društvene vrednosti. Razvoj regulative koja ne guši inovacije veštačke inteligencije je kritičan izazov u odgovornoj veštačkoj inteligenciji.
Čak i sa Opštom uredbom o zaštiti podataka (GDPR), Kalifornijskim zakonom o privatnosti potrošača (CCPA) i Zakonom o zaštiti ličnih podataka (PIPL) kao regulatornim telima, istraživači veštačke inteligencije su otkrili da 97% web sajtova EU nije u skladu sa zahtevima pravnog okvira GDPR-a.
Štaviše, zakonodavci se suočavaju sa značajnim izazovom u postizanju konsenzusa o definiciji AI koja uklјučuje i klasične AI sisteme i najnovije AI aplikacije.
3 Glavne prednosti odgovorne veštačke inteligencije
- Smanjena pristrasnost
Odgovorni AI smanjuje pristrasnost u procesima donošenja odluka, izgrađujući poverenje u sisteme veštačke inteligencije. Smanjenje pristrasnosti u sistemima veštačke inteligencije može da obezbedi fer i pravičan sistem zdravstvene zaštite i smanji pristrasnost u finansijskim uslugama zasnovanim na veštačkoj inteligenciji itd.
- Pobolјšana transparentnost
Odgovorni AI pravi transparentne AI aplikacije koje grade poverenje u AI sisteme. Transparentni sistemi veštačke inteligencije smanjuju rizik od greške i zloupotrebe. Pobolјšana transparentnost olakšava reviziju sistema veštačke inteligencije, osvaja poverenje zainteresovanih strana i može da dovede do odgovornih sistema veštačke inteligencije.
- Bolјa bezbednost
Sigurne AI aplikacije osiguravaju privatnost podataka, proizvode pouzdane i bezopasne rezultate i bezbedne su od sajber napada.
Tehnološki giganti poput Microsoft-a i Google-a, koji su na čelu razvoja AI sistema, razvili su principe odgovorne veštačke inteligencije. Odgovorna AI osigurava da inovacije u AI nisu štetne za pojedince i društvo.
Lideri misli, istraživači, organizacije i pravni organi treba da kontinuirano revidiraju odgovornu literaturu o veštačkoj inteligenciji kako bi osigurali bezbednu budućnost za AI inovacije.