Poslednjih meseci, sve češće se postavlja pitanje: da li veštačka inteligencija (AI) postaje „woke“ ili ekstremno pristrasna? Kontroverze oko generativnih AI modela, poput Google Gemini, koje su generisale istorijski netačne ili društveno-politički opterećene slike, ponovo su otvorile diskusiju o etici, pristrasnosti i odgovornosti u razvoju AI sistema. Nije reč samo o tehničkom problemu; ovo je duboko društveno pitanje koje zahteva pažljivo razmatranje.
Šta je „woke“ kontroverza u kontekstu AI?
Izraz „woke“ se, u svom modernom kontekstu, odnosi na svest o društvenim nepravdama i diskriminaciji. Međutim, u nekim debatama, ovaj termin se koristi da se kritikuje ono što se percipira kao preterana politička korektnost ili pristrasnost ka određenim ideologijama. Kada se taj koncept primeni na AI, postavlja se pitanje: da li su AI modeli programirani, ili su pak naučili, da preferiraju određene društvene, političke ili kulturne narative, zanemarujući druge?
Nedavni primeri uključuju:
- Generisanje istorijskih slika: Google Gemini se suočio sa kritikama jer je generisao slike nacističkih vojnika kao Afrikance ili Azijate, ili američke Očeve osnivače kao obojene osobe. Cilj je verovatno bio da se promoviše diverzitet, ali je rezultat bio istorijski netačan i delovao je kao revizionizam.
- Odgovori na osetljive teme: AI modeli su pokazivali tendenciju da izbegavaju ili daju „balansirane“, a ponekad i izbegavajuće odgovore na pitanja o kontroverznim ličnostima ili istorijskim događajima, dok su o drugima iznosili jasne stavove. Ovo je izazvalo zabrinutost da AI nije neutralna, već da aktivno promoviše određenu ideologiju.
Koreni pristrasnosti u AI
Ključno je razumeti da AI sama po sebi nije svesna niti ima političke stavove. Njihova „mišljenja“ i „ponašanja“ su direktna refleksija podataka na kojima su obučeni i odluka koje su doneli njihovi kreatori. Pristrasnost u AI može proisteći iz nekoliko izvora:
- Podaci za obuku: Ovo je najčešći i najvažniji izvor pristrasnosti. AI modeli, posebno veliki jezički modeli (LLM), obučavaju se na ogromnim količinama teksta i slika sa interneta. Internet je prepun ljudske pristrasnosti – istorijske, kulturne, političke, rodne, rasne. Ako su podaci neuravnoteženi ili sadrže inherentne predrasude, AI će te predrasude naučiti i reprodukovati.
- Primer: Ako je AI obučen pretežno na tekstovima koji glorifikuju određenu ideologiju, on će je verovatno promovisati. Ako su slike na kojima je obučen pretežno prikazivale belce u određenim profesijama, AI će imati tendenciju da generiše takve slike.
- Ljudski inženjering i „usklađivanje“ (alignment): Kompanije koje razvijaju AI modele pokušavaju da ih „poravnaju“ sa ljudskim vrednostima i etičkim standardima. Međutim, „ljudske vrednosti“ nisu univerzalne i mogu se razlikovati. Programeri i timovi koji vrše fine-tuning modela donose svesne odluke o tome koje će vrednosti AI promovisati, a koje potisnuti. Ako tim koji razvija AI ima određene ideološke predrasude, one se mogu nehotice (ili namerno) ugraditi u model.
- Algoritamski dizajn: Sam način na koji su algoritmi dizajnirani može nenamerno pojačati određene pristrasnosti.
- Nedostatak diverziteta u timovima za razvoj AI: Ako su timovi koji razvijaju AI homogene u smislu demografije, kulture ili političkih ubeđenja, veća je verovatnoća da će propustiti „slepe tačke“ i pristrasnosti koje bi raznovrsniji tim mogao da uoči.
Posledice pristrasne AI
Pristrasna AI može imati ozbiljne posledice:
- Širenje dezinformacija: Ako AI generiše lažne ili pristrasne informacije, to može doprineti širenju dezinformacija i polarizaciji društva.
- Nepravedne odluke: U oblastima poput zapošljavanja, kreditiranja ili čak krivičnog pravosuđa, pristrasna AI može donositi nepravedne odluke koje diskriminišu određene grupe ljudi.
- Gubitak poverenja: Ako korisnici izgube poverenje u neutralnost i objektivnost AI, to može usporiti njeno prihvatanje i implementaciju.
- Etički problemi: Stalno pojavljivanje kontroverznih sadržaja generisanih od strane AI postavlja ozbiljna etička pitanja o odgovornosti i kontroli.
Put ka rešenju: Ka odgovornijoj AI
Rešavanje problema pristrasnosti u AI je kompleksan zadatak koji zahteva višestruki pristup:
- Raznovrsni podaci za obuku: Korišćenje balansiranijih i reprezentativnijih setova podataka koji odražavaju globalni diverzitet, a ne samo zapadnjačku perspektivu ili određene ideologije.
- Transparentnost: Veća transparentnost u vezi sa podacima na kojima su AI modeli obučeni i metodama koje se koriste za njihovo „usklađivanje“.
- Diverzitet u timovima za razvoj AI: Uključivanje ljudi različitih kultura, nacionalnosti, rodova i političkih ubeđenja u proces razvoja AI može pomoći u identifikovanju i ublažavanju pristrasnosti.
- Etičke smernice i regulativa: Razvoj jasnih etičkih smernica i, gde je to prikladno, regulative koja osigurava da AI sistemi budu pravedni, odgovorni i nepristrasni.
- Stalno testiranje i revizija: Kontinuirano testiranje AI modela na pristrasnost i aktivno traženje i ispravljanje grešaka.
- „Red teaming“: Angažovanje timova čiji je zadatak da aktivno pokušaju da „slome“ AI sistem i pronađu njegove slabosti i pristrasnosti.
Zaključak
Pitanje da li je AI „woke“ ili ekstremno pristrasna nije pitanje svesti mašine, već refleksija ljudske pristrasnosti u podacima i u odlukama dizajnera. Iako je stvaranje potpuno neutralne AI verovatno nemoguće (jer je i sam koncept „neutralnosti“ subjektivan), cilj treba da bude razvoj AI koja je što je moguće pravednija, transparentnija i odgovornija. Izazovi su veliki, ali su i ulozi ogromni. Budućnost AI zavisi od naše sposobnosti da se suočimo sa ovim problemima i izgradimo tehnologiju koja služi čitavom čovečanstvu, a ne samo delu.