Pitanje o pouzdanosti informacija koje veštačka inteligencija koristi jedno je od najvažnijih u kontekstu njene primene. U eri gde AI sve više utiče na donošenje odluka i pružanje informacija, ključno je razumeti kako funkcioniše proces treniranja, koji su izvori podataka korišćeni i kako se greške ispravljaju. Međutim, izazov leži u činjenici da AI, poput ChatGPT-ja, nema inherentan način da proceni apsolutnu tačnost informacija koje pruža.
Kako funkcioniše proces treniranja AI-a?
Veštačka inteligencija, poput jezičkih modela, trenira se na velikim skupovima podataka prikupljenim iz raznovrsnih izvora, uključujući knjige, naučne radove, članke i javno dostupne sadržaje sa interneta. Cilj ovog procesa je da model nauči obrasce jezika, sintaksu, stilove i sadržaj kako bi mogao da pruža odgovore na širok spektar pitanja.
Međutim, kvalitet informacija koje AI pruža zavisi od nekoliko faktora:
- Kvalitet izvora: Ako su izvori proverenog kvaliteta, poput naučnih publikacija ili uglednih medija, veća je verovatnoća da će i informacije biti tačne.
- Raznovrsnost podataka: Širi spektar izvora smanjuje rizik od pristrasnosti, ali povećava šansu za uključivanje protivurečnih ili netačnih podataka.
- Filtriranje sadržaja: Tokom treniranja, podaci prolaze kroz proces filtriranja kako bi se smanjila količina pristrasnosti, dezinformacija i štetnih sadržaja. Ipak, ovaj proces nije savršen i ne može u potpunosti eliminisati greške.
Iako je cilj da se stvori što tačniji model, sam proces treniranja ne pruža mehanizam za apsolutnu verifikaciju istinitosti podataka. AI model oslanja se na obrasce i statističke veze u podacima, a ne na sposobnost da autonomno proveri informacije.
Kako se rešavaju netačne informacije?

Kada AI pruži netačan odgovor, ne može trenutno „naučiti“ iz greške jer je treniran na statičnim podacima do određenog trenutka i ne poseduje sposobnost samostalnog učenja u realnom vremenu. Evo kako se ovaj problem rešava u praksi:
- Prikupljanje povratnih informacija: Kada korisnici primete grešku, njihovi komentari se mogu koristiti za identifikaciju problema. Na primer, ako više korisnika prijavi istu grešku, to postaje signal za ispravku u budućim verzijama modela.
- Ažuriranje modela: Novije verzije modela obučavaju se na ažuriranim podacima, gde su prethodne greške ispravljene. Taj proces uključuje analizu prethodnih interakcija i integraciju proverenih izvora.
- Ljudska intervencija: Stručnjaci analiziraju prikupljene povratne informacije i odlučuju koje informacije treba ažurirati. Ovaj proces osigurava da se nove verzije AI sistema ne zasnivaju na dezinformacijama.
Zašto AI ne uči direktno iz interakcija?
Samostalno učenje tokom interakcija nosi nekoliko rizika:
- Zloupotreba: Korisnici bi mogli namerno uneti netačne informacije kako bi zbunili sistem.
- Pristrasnost: Učenje iz pojedinačnih interakcija moglo bi dovesti do nesistematskih i pristrasnih odgovora.
- Nedostatak konzistentnosti: Ako bi AI stalno menjao znanje, korisnici bi dobijali različite odgovore za iste upite, što bi narušilo poverenje u sistem.
Iz tih razloga, većina savremenih AI sistema je dizajnirana tako da funkcioniše na osnovu unapred obučenog znanja, uz periodične nadogradnje koje uključuju ispravke grešaka i dodavanje novih informacija.
Da li je ovo razmena znanja?
Prava razmena znanja podrazumeva da obe strane uče jedna od druge. U slučaju velikog broja AI modela, proces učenja je jednostran: ChatGPT iili Gemini prenose informacije koje su već ugrađene u model, ali ne može da ažurira svoje znanje na osnovu naših komentara. Međutim, naša povratna informacija ima ključnu ulogu u poboljšanju budućih verzija modela. Stručnjaci koji razvijaju AI oslanjaju se na te informacije kako bi unapredili sistem.
Šta možemo očekivati u budućnosti?

Budući AI modeli mogli bi imati mogućnost ograničenog, kontrolisanog učenja iz interakcija sa korisnicima. To bi podrazumevalo:
- Verifikaciju informacija: Novi odgovori bi se temeljili na proverenim izvorima, uz ljudsku intervenciju kada je potrebno.
- Pamćenje grešaka: AI bi mogao lokalno zapamtiti greške i izbegavati njihovo ponavljanje u sličnim kontekstima.
- Transparentnost: Korisnici bi bili obavešteni o tome kako njihovi komentari doprinose unapređenju sistema.
Zaključak
Pitanje pouzdanosti informacija u AI sistemima nije jednostavno. Iako AI može pružiti ogromnu količinu korisnih informacija, njegova tačnost zavisi od kvaliteta podataka na kojima je treniran i od načina na koji se greške rešavaju. Trenutno, AI ne može samostalno ispraviti svoje greške, ali povratne informacije korisnika igraju ključnu ulogu u kontinuiranom razvoju i unapređenju sistema.
Prava razmena znanja možda još nije moguća, ali svakim korakom bliže smo stvaranju AI sistema koji će biti ne samo informativni, već i sposobni da uče na način koji poštuje etiku, sigurnost i poverenje korisnika.
Milena Šović, M.Sc.,CSM
Prompt Engineer & AI Educator



