OpenAI finansira akademska istraživanja algoritama koji mogu da predviđaju moralne procene ljudi.
Prema dokumentima podnetim poreskoj upravi, OpenAI Inc., neprofitna organizacija OpenAI-a, dodelila je grant istraživačima sa Univerziteta Duke za projekat pod nazivom Research AI Morality. Portparol OpenAI-a u izjavi za medije naveo je da je ova nagrada deo šireg trogodišnjeg granta u iznosu od milion dolara, namenjenog profesorima sa Duke-a koji proučavaju „kako razviti moralnu veštačku inteligenciju.“
Detalji o ovom istraživanju su oskudni, osim podatka da se grant završava 2025. godine. Glavni istraživač studije, profesor praktične etike Walter Sinot-Armstrong, izjavio je za TechCrunch putem e-pošte da trenutno „ne može govoriti“ o svom radu.
Sinot-Armstrong i ko-istraživač Jana Borg već su objavili nekoliko studija i knjigu o potencijalu veštačke inteligencije da služi kao „moralni GPS“ koji pomaže ljudima da donose bolje odluke. U sklopu većih timova, razvili su algoritam usklađen sa moralnim principima za odlučivanje o dodeli donacija bubrega i proučavali situacije u kojima bi ljudi više voleli da AI donosi moralne odluke.

Prema saopštenju za štampu, cilj istraživanja koje finansira OpenAI je obučavanje algoritama da „predviđaju ljudske moralne procene“ u scenarijima koji uključuju konflikte „među moralno relevantnim karakteristikama u medicini, pravu i poslovanju.“
Međutim, nije jasno da li je pojam kao što je moralnost dostižan za savremenu tehnologiju.
Godine 2021, neprofitna organizacija Allen Institute for AI razvila je alat pod nazivom Ask Delphi koji je trebao da daje etički zvučne preporuke. On je dovoljno dobro rešavao osnovne moralne dileme — na primer, bot je „znao“ da je varanje na ispitu pogrešno. Ali, dovoljno je bilo samo da se pitanje malo promeni i preradi, kako bi Delphi odobrio gotovo bilo šta, uključujući gušenje beba.
Razlog za ovo leži u načinu na koji savremeni AI sistemi funkcionišu.
Modeli mašinskog učenja su statistički uređaji. Obučeni na velikom broju primera sa celog interneta, oni uče obrasce u tim primerima kako bi donosili predikcije, kao što je to da fraza „to whom“ često prethodi „it may concern.“
AI nema razumevanje etičkih koncepata, niti uvid u razmišljanje i emocije koje utiču na moralno donošenje odluka. Zbog toga AI često ponavlja vrednosti zapadnih, obrazovanih i industrijalizovanih nacija — internet, a samim tim i podaci za obuku AI-a, dominiraju članci koji podržavaju te stavove.

Nema iznenađenja što mnoge vrednosti ljudi nisu izražene u odgovorima koje AI daje, naročito ako ti ljudi ne doprinose AI skupovima podataka tako što objavljuju sadržaj na internetu. AI internalizuje niz pristrasnosti, koje prevazilaze zapadnu orijentaciju. Na primer, Delphi je tvrdio da je biti strejt „moralno prihvatljivije“ od biti gej.
Izazov pred OpenAI-em — i istraživačima koje podržava — postaje još teži zbog inherentne subjektivnosti moralnosti. Filozofi su debatovali o vrednostima različitih etičkih teorija hiljadama godina, a univerzalni okvir koji bi bio primenljiv još uvek nije na vidiku.
Claude favorizuje kantizam (tj. fokusiranje na apsolutna moralna pravila), dok ChatGPT blago skreće ka utilitarizmu (prioritetizovanje najveće koristi za najveći broj ljudi). Da li je jedan od njih superiorniji od drugog? To zavisi od toga koga pitate.
Algoritam koji bi predvideo ljudske moralne procene morao bi uzeti sve ovo u obzir. To je veoma visoka granica koju treba preći — pretpostavljajući da je takav algoritam uopšte moguć.



