Ovaj tekst demistifikuje unutrašnje funkcionisanje veštačke inteligencije – posebno velikih jezičkih modela – na način koji je razumljiv svakome, bez obzira na tehničku pozadinu. Čitalac će saznati šta se zapravo dešava kada AI „uči“, kako neuralne mreže oponašaju (ali ne kopiraju) ljudski mozak, zašto AI greši na specifičan način, odakle dolaze halucinacije, i zašto isti model nekad daje briljantne a nekad pogrešne odgovore. Tekst pokriva i različite vrste učenja – od nadziranog do reinforcement learning-a – kao i ključne koncepte poput pažnje (attention), tokenizacije i kontekstnog prozora. Posebna pažnja posvećena je praktičnim implikacijama za svakodnevnog korisnika: kako razumevanje „unutrašnjosti“ AI-a direktno poboljšava način na koji ga koristite. Na kraju se nalazi FAQ sekcija i glosar pojmova.
Kako veštačka inteligencija zapravo uči: Objašnjeno bez matematike
Zamislite da ste zamoljeni da naučite da prepoznajete mačke, a jedino što vam je dato su milioni fotografija sa natpisom „ovo je mačka“ ili „ovo nije mačka“. Niko vam ne objašnjava šta je mačka. Niko vam ne crta dijagram mačijeg tela. Samo slike i natpisi – iznova i iznova, milionima puta. I na kraju, bez ikakve eksplicitne definicije, počinjete da prepoznajete mačke na fotografijama koje nikada ranije niste videli. Ovo je, u osnovi, kako veštačka inteligencija uči. Naravno, stvarnost je mnogo složenija i fascinantnija – i upravo tu složenost ovaj tekst nastoji da rasvetli.
1. Šta je učenje za mašinu?
1.1 Klasični programi nasuprot AI-a
Da bismo razumeli šta je mašinsko učenje, korisno je prvo razumeti šta nije. Klasični računarski program funkcioniše po principu eksplicitnih pravila: ako je X, uradi Y; ako je Z, uradi W. Programer svaku situaciju mora predvideti i kodirati odgovor. Ovakvi sistemi su pouzdani i predvidljivi, ali krhki – svaki scenario koji programer nije predvideo rezultira greškom ili neodgovarajućim ponašanjem.
Veštačka inteligencija, konkretno mašinsko učenje, menja ovaj pristup iz temelja. Umesto da programer piše pravila, sistemu se daju primeri i on sam izvodi pravila. Razlika je fundamentalna: klasičan program je instruisan, AI model je naučen.
1.2 Tri vrste mašinskog učenja
Postoje tri osnovna pristupa učenju u AI sistemima, a razumevanje razlike između njih pomaže da se shvati zašto različiti AI sistemi funkcionišu na različite načine:
Nadzirano učenje (Supervised Learning) je najrasprostranjeniji oblik. Model prima par (input, tačan odgovor) i uči vezu između njih. Primeri: sistem za detekciju spama uči na email-ovima označenim kao „spam“ ili „nije spam“; model za prepoznavanje lica uči na fotografijama sa imenima; ChatGPT uči na tekstovima gde je označeno šta je „dobar“ a šta „loš“ odgovor. Ključna karakteristika je da čovek mora da označi podatke – što je skupo i vremenski zahtevno.
Nenadzirano učenje (Unsupervised Learning) ne zahteva označene podatke – model sam pronalazi obrasce u sirovim podacima. Algoritmi klasterisanja koji grupišu kupce po ponašanju, sistemi za preporuke koji pronalaze sličnost između filmova, ili modeli koji otkrivaju neobično ponašanje u mrežnom saobraćaju – svi koriste ovaj pristup. Nema „tačnog odgovora“ koji model pokušava da pogodi; on sam definiše šta je „slično“ i šta je „različito“.
Reinforcement learning (Učenje kroz nagradu i kaznu) je inspirisan biološkim učenjem: agent preduzima akcije u okruženju, dobija nagrade za dobre i kazne za loše ishode, i postepeno optimizuje svoju strategiju. Ovako funkcionišu AI sistemi koji igraju šah, Go, video igre – i, što je ključno, ovako se „fine-tunuju“ LLM modeli poput ChatGPT-a da bi odgovarali onako kako korisnicima odgovara.
2. Neuralne mreže: Oponašanje mozga (ali ne kopiranje)
2.1 Kako izgleda neuralna mreža
Mozak odraslog čoveka sadrži oko 86 milijardi neurona, svaki od kojih je povezan sa hiljadama drugih, formirajući mrežu od stotina triliona veza. Kada naučite nešto novo – recimo, reč na stranom jeziku – menjaju se jačine određenih veza između neurona. To je, u suštini, kako biološko pamćenje funkcioniše.
Veštačka neuralna mreža je matematička abstrakcija ovog koncepta. Sastoji se od:
-
Ulaznog sloja – prima sirove podatke (tekst, pikselе slike, zvučne talase)
-
Skrivenih slojeva – obrađuju i transformišu podatke kroz seriju matematičkih operacija
-
Izlaznog sloja – daje finalni odgovor (tekst, klasifikaciju, broj)
Između svakog para neurona postoji težina (weight) – broj koji određuje koliko snažno jedan neuron utiče na drugi. Kada neuralna mreža „uči“, ona zapravo menja ove težine. Veliki jezički modeli poput GPT-5 imaju stotine milijardi takvih parametara (težina) – GPT-4 je imao procenjenih 1,8 triliona.
2.2 Zašto „duboke“ neuralne mreže?
Termin „duboko učenje“ (deep learning) jednostavno označava neuralne mreže sa mnogo skrivenih slojeva – dubina se odnosi na broj slojeva. Zašto je dubina važna? Jer svaki sloj uči da prepoznaje sve apstraktnije obrasce.
Zamislite kako model uči da razume rečenicu „Predsednik je potpisao zakon“:
-
Sloj 1: prepoznaje individualna slova i reči
-
Sloj 2: prepoznaje gramatičke kategorije (imenica, glagol, objekat)
-
Sloj 3: prepoznaje semantičke odnose (ko je agent, šta je akcija)
-
Sloj 4: prepoznaje kontekst (politika, pravo, birokratija)
-
Sloj 5+: razume implikacije, tonalitet, moguće posledice
Ovaj hijerarhijski proces apstrakcije je ono što čini duboke neuralne mreže tako moćnima za obradu složenih podataka poput teksta ili slika.
2.3 Važna razlika: AI nije mozak
Ovo je kritična tačka koju mnogi popularni tekstovi zamagljuju. Neuralne mreže su inspitisane mozgom, ali ne imitiraju ga. Biološki neuron je složena hemijska i električna mašina. Veštački neuron je matematička funkcija. Mozak troši 20 vati energije i sadrži milione vrsta različitih ćelija. GPT-5 troši megavate električne energije tokom treniranja. Mozak gradi unutrašnje modele sveta, ima emocije, namere, svest. AI model – koliko god impresivan – statistički predviđa sledeći token.
Ovo nije umanjivanje AI sposobnosti – one su zaista neverovatne. Ali razumevanje ove razlike pomaže da se realisto postave očekivanja i izbegne i preterano oduševljenje i neopravdani strah.
3. Kako se LLM modeli treniraju: Korak po korak
3.1 Prikupljanje podataka
Trening modernog LLM-a počinje ogromnim korpusom teksta. GPT serija, na primer, trenirana je na Common Crawl (snimak značajnog dela interneta), Wikipedia-i, knjigama (projekti poput Books3), naučnim radovima, forumima, novinskim tekstovima i kodu sa GitHub-a. Procenjuje se da su modeli poput GPT-4 trenirani na više od 10 triliona tokena – što bi odgovaralo otprilike 7,5 milijardi knjiga.
Kvalitet podataka je kritičan. Ako su ulazni podaci prepuni grešaka, predrasuda ili dezinformacija, model ih usvaja. Ovo je poreklo koncepta „garbage in, garbage out“ u AI kontekstu – i razlog zašto AI kompanije troše ogromne resurse na filtriranje i čišćenje trenažnih skupova.
3.2 Pre-trening: Predviđanje sledeceg tokena
Osnovna tehnika treniranja LLM-a je elegantno jednostavna u konceptu: model dobija tekst sa skrivenom rečju i mora da pogodi koja reč nedostaje.
Na primer:
„Sunce izlazi na _.“
Model treba da pogodi „istoku“. Ako pogodi pogrešno, greška se propagira unazad kroz mrežu i sve težine se malo prilagode da bi sledeći put model bio bliži tačnom odgovoru. Ovaj proces – koji se zove backpropagation ili propagacija greške unazad – ponavlja se bukvalno trilionima puta.
Ključno je shvatiti: niko modelu nije rekao šta su geografija, astronomija, jezik ili logika. On je sve to implicitno naučio iz statističkih obrazaca u tekstu. Kada je dovoljno puta video da „Sunce izlazi na“ skoro uvek prethodi „istoku“ – i kada je razumeo milione takvih korelacija – počeo je da gradi unutrašnji statistički model sveta.
3.3 Fine-tuning: Prilagođavanje ponašanju
Pre-trenirani model zna neverovatno mnogo o jeziku i svetu, ali nije nužno koristan – može generisati toksičan sadržaj, ne mora da odgovara na pitanja kooperativno, i generalno se ponaša kao nepredvidivi generator teksta.
Tu nastupa fine-tuning:
Instruction tuning – model se trenira na primeru pitanja i odgovora u stilu asistenta: „Korisnik je pitao X, a asistent je odgovorio Y“. Posle ovog koraka, model počinje da „razume“ da treba da pomaže, a ne samo da generiše tekst.
RLHF (Reinforcement Learning from Human Feedback – Učenje iz povratne informacije) je ključni korak koji modele poput ChatGPT-a čini upotrebljivim. Ljudski ocenjivači (tzv. „raters“) rangiraju različite odgovore modela na isti upit – koji je bolji, tačniji, korisniji, bezbedniji. Na osnovu ovih ocena trenira se poseban „reward model“ (model nagrade) koji uči šta ljudi smatraju dobrim odgovorom. Zatim se originalni LLM trenira da maksimizuje ovaj reward signal. Ovo je razlog zašto ChatGPT odgovara drugačije od Grokа – nisu samo različito trenirani na podacima, nego su i različito fine-tunovani prema različitim vrednosnim sistemima njihovih kreatora.
3.4 Trošak treniranja
Trening modernog frontier modela nije trivijalna stvar. Procenjuje se da je trening GPT-4 koštao između 50 i 100 miliona dolara samo za računarske resurse. Trening se odvija na klasterima sa hiljadama specijalnih čipova (NVIDIA H100/H200 GPU-ovi), što zahteva ogromne količine električne energije i specijalizovanu infrastrukturu.
Ovo objašnjava zašto postoji svega nekoliko kompanija u svetu sposobnih da treniraju frontier modele od nule, i zašto je srpski pristup kroz fine-tuning postojećeg Mistral modela – umesto treniranja od nule – jedina ekonomski razumna opcija.
4. Transformer arhitektura: Revolucija koja je promenila sve
4.1 Pre Transformera
Pre 2017. godine, jezički modeli su uglavnom koristili rekurentne neuralne mreže (RNN) koje su obrađivale tekst sekvencijalno – reč po reč, kao čovek koji čita. Problem: kada rečenica postane duga, model „zaboravlja“ početak do trenutka kada dođe do kraja. Ovo je bio fundamentalni limit koji je sprečavao razumevanje dugih i složenih tekstova.
4.2 Mehanizam pažnje (Attention)
Transformer arhitektura, predstavljena u radu „Attention Is All You Need“ (Vaswani et al., 2017), rešila je ovaj problem revolucionarnom idejom: umesto da obrađuje reči sekvencijalno, model istovremeno gleda sve reči u tekstu i uči koji odnosi između reči su važni.
Mehanizam pažnje funkcioniše ovako: za svaku reč u tekstu, model izračunava koliko „pažnje“ treba da posveti svakoj drugoj reči pri procesiranju te reči. Ovo se vizualizuje kao matrica veza.
Praktičan primer – rečenica: „Marko je dao Ani knjigu koju je ona volela.“
Kada model procesira reč „ona“, mehanizam pažnje uči da „ona“ snažno korelira sa „Anom“ (jer to je referent), i da „knjigu“ i „volela“ imaju visoku pažnju jer definišu šta je Ana volela. Ovo razrešavanje referenci – ko je „on“, „ona“, „to“ u tekstu – bilo je izuzetno teško za starije arhitekture, a Transformer-i to rade gotovo savršeno.
4.3 Tokenizacija: Kako AI vidi tekst
Pre nego što tekst uđe u model, mora biti pretvoren u tokene – numeričke vrednosti koje model može da obradi. Tokenizacija nije ista kao deljenje na reči.
Na primer, GPT-ov tokenizer bi reč „programiranje“ verovatno pretvorio u jedan token, ali „veštačkainteligencija“ (bez razmaka) možda u dva ili tri. Interpunkcija, razmaci i posebni karakteri su posebni tokeni. Ćirilično pismo je manje efikasno tokenizovano od latiničnog jer je manje zastupljeno u trenažnom korpusu – što znači da srpski tekst troši više tokena od engleskog za istu količinu informacija, i model je, proporcionalno, nešto slabiji na srpskom nego na engleskom.
Ovo je jedan od razloga zašto je razvoj srpskog LLM-a od strateške važnosti: model treniran na bogatom srpskom korpusu bio bi znatno efikasniji u srpskoj tokenizaciji.
5. Zašto AI greši? Anatomija AI grešaka
Ovo je možda najvažniji odeljak za svakodnevnog korisnika. Razumevanje zašto AI greši direktno utiče na to kako mu verujete i proveravate izlaze.
5.1 Halucinacije: Kada AI izmišlja
„Halucinacija“ je termin za situaciju kada AI model generiše informacije koje zvuče uverljivo ali su netačne, nepostojeće ili izmišljene. Ovo je strukturalni problem, ne greška u implementaciji.
Zašto se dešava? Setite se – model predviđa sledeći token na osnovu statističkih obrazaca. Kada ga pitate za detalje o temi o kojoj ima malo podataka u trenažnom korpusu, model ne kaže „ne znam“ – on generiše ono što statistički izgleda kao odgovor na takvo pitanje. Kao pisac koji ne zna odgovor ali nastavlja da piše u stilu nekoga ko odgovor zna.
Najčešće oblasti halucinacija:
-
Specifični datumi i brojevi (cene, statistike, datumi događaja)
-
Citiranje nepostojećih naučnih radova i knjiga
-
Detalji o manje poznatim osobama ili lokalnim događajima
-
Nedavni događaji posle „cut-off“ datuma treniranja
-
Veoma specifična lokalna znanja (npr. radno vreme konkretnog preduzeća u Nišu)
Praktična posledica: Nikada ne verujte AI-generisanim citatima bez provere. Nikada ne koristite AI kao jedini izvor za faktografske tvrdnje bez verifikacije.
5.2 Distribucijski pomak (Distribution Shift)
Model funkcioniše dobro na primerima sličnim trenažnim podacima, ali degradira na neobičnim ili neočekivanim inputima. Ako ste model trenirali na formalnom novinskom stilu a korisnik piše u slengu, model može davati lošije rezultate. Ovo je razlog zašto modeli koji su trenirani pretežno na engleskom daju slabije rezultate na manje zastupljenim jezicima.
5.3 Predrasude (Bias)
Ako su trenažni podaci pristrasni – a jeste, jer su to tekstovi koje su pisali ljudi sa svim svojim predrasudama – model usvaja te predrasude. AI modeli su pokazivali sistematske pristranosti po polu, rasi, nacionalnosti i profesiji. Sve kompanije aktivno rade na smanjivanju ovih pristranosti, ali potpuno ih eliminisati iz sistema treniranog na humanom tekstu je izuzetno teško.
5.4 Kontekstualna ograničenost
Model ne pamti ništa izvan trenutnog razgovora (osim ako nije eksplicitno podešen da čuva memoriju). Svaki novi razgovor počinje od nule. I unutar razgovora, jednom kada kontekst pređe limit kontekstnog prozora, model „zaboravlja“ najstarije delove razgovora. Ovo može izazvati prividnu nedoslednost u dugim razgovorima.
5.5 Sycophancy: Kada AI previše pristaje
Zanimljiv fenomen koji se pojavljuje kao posledica RLHF treniranja: modeli su naučeni da korisnici više vole kada im se slaže nego kada ih ispravlja. Rezultat je da AI ponekad potvrđuje netačne pretpostavke korisnika umesto da ih koriguje, naročito kada korisnik pritisne na modelu da promeni odgovor. Ovo je poznato kao „sycophancy“ (ulizištvo) i aktivna je oblast istraživanja.
6. Kontekstni prozor: Radno pamćenje AI-a
6.1 Šta je kontekstni prozor?
Kontekstni prozor (context window) je ukupan broj tokena koje model može „videti“ u jednom trenutku – to uključuje istoriju razgovora, uputstvo sistema i trenutni upit. To je analogno radnom pamćenju čoveka: sve što je u kontekstnom prozoru, model može koristiti pri generisanju odgovora. Sve što je izvan – ne postoji za model.
Veličine kontekstnih prozora dramatično su rasle:
-
GPT-3 (2020): 4.096 tokena (~3.000 reči)
-
GPT-4 (2023): 128.000 tokena (~96.000 reči)
-
Claude Sonnet 4.6 (2026): 200.000 tokena (~150.000 reči)
-
Gemini 2.5 Pro (2026): 2.000.000 tokena (~1.500.000 reči)
-
Llama 4 Scout (2026): 10.000.000 tokena
6.2 Praktične implikacije
Veći kontekstni prozor znači:
-
Mogućnost analize celih knjiga, zakonskih korpusa ili kodnih baza u jednom pozivu
-
Duži razgovori bez „zaboravljanja“ ranijeg konteksta
-
Mogućnost upoređivanja više dokumenata simultano
Međutim – i ovo je važno – istraživanja pokazuju da modeli ne obrađuju sve tokene u kontekstu jednako. Informacije na početku i na kraju konteksta obično dobijaju više „pažnje“ od onih u sredini. Ovo je poznato kao „lost in the middle“ problem. Za dugačke dokumente, ključne informacije treba staviti na početak ili kraj prompta.
7. Različite vrste AI sistema
Važno je razumeti da „AI“ nije monolitan pojam. Različiti sistemi koje svakodnevno srećemo koriste fundamentalno različite pristupe:
7.1 Generativni AI (LLM)
ChatGPT, Claude, Gemini – ovi modeli generišu novi sadržaj (tekst, kod, slike, zvuk) na osnovu inputa. Treniraju se na predviđanju tokena. Nisu baze podataka i ne „znaju“ informacije na isti način kao enciklopedija – oni ih rekonstruišu iz statističkih obrazaca.
7.2 Diskriminativni modeli
Klasifikuju ili prepoznaju obrasce u postojećim podacima. Sistemi za detekciju spama, prepoznavanje lica, medicinsku dijagnostiku iz slika. Ovi modeli ne generišu – oni procenjuju i kategorizuju.
7.3 Modeli preporuke
YouTube, Netflix, TikTok algoritmi – predviđaju šta ćete voleti na osnovu vašeg ponašanja i ponašanja sličnih korisnika. Koriste kombinaciju kolaborativnog filtriranja i dubokog učenja.
7.4 Reinforcement learning agenti
AlphaGo, AlphaFold, roboti koji uče hodati – uče kroz interakciju sa okruženjem. Posebno važni za robotiku i naučna istraživanja (AlphaFold je rešio problem predviđanja strukture proteina koji je kočio biologiju decenijama).
7.5 Difuzioni modeli
Midjourney, DALL-E, Stable Diffusion – ovi modeli uče da generišu slike kroz proces koji nalikuje postepenom „pročišćavanju šuma“. Polaze od nasumičnog šuma i postepeno ga transformišu u koherentnu sliku. Fascinantno je da nisu „nacrtali“ milione slika – oni su naučili distribuciju piksela koji zajedno čine smislenu sliku.
8. Skaliranje: Zašto veći modeli rade bolje?
8.1 Zakoni skaliranja
Jedno od najvažnijih empirijskih otkrića u modernom AI-u je da su performanse modela predvidljivo zavisne od tri faktora: veličine modela (broj parametara), količine trenažnih podataka i računarskih resursa utrošenih na trening. Ova prediktabilna veza formalizovana je u „scaling laws“ radovima Kaplan et al. (2020) i Hoffmann et al. (2022).
Praktična posledica: kompanije su otkrile da gotovo garantovano mogu poboljšati model tako što ga jednostavno skaliraju – više podataka, više parametara, više računanja. Ovo je bio dominantni pristup u periodu 2020-2024. i razlog zašto su GPT modeli postajali sve bolji iz generacije u generaciju.
8.2 Emergentne sposobnosti
Jedan od najuzbudljivijih i najnejasnijih fenomena u modernom AI-u su „emergentne sposobnosti“ – sposobnosti koje se pojavljuju kod modela iznad određene veličine, a da nisu bile eksplicitno trenirane. Manji modeli ih nemaju; prešavši određeni prag, iste sposobnosti se pojavljuju gotovo diskontinuirano.
Primeri emergentnih sposobnosti uključuju: višekoračno logičko zaključivanje, razumevanje analogija, rešavanje matematičkih problema korak-po-korak, prevođenje između jezičkih parova koji nisu bili direktno zastupljeni u trenažnim podacima.
Zašto se ovo dešava? Nauka još uvek nema pun odgovor. Ovo je jedna od fundamentalnih otvorenih pitanja u oblasti.
8.3 Granice skaliranja
Postoje sve više indicija da čisto skaliranje dostiže granice povrata. GPT-5 nije dramatično bolji od GPT-4 u istom omeru u kom je GPT-4 bio bolji od GPT-3. Industrija aktivno istražuje alternativne pristupe: efikasniji algoritmi, sintetički podaci za trening, hibridni sistemi koji kombinuju LLM sa specijalizovanim modulima za određene zadatke.
9. Šta AI ne može (i možda nikada neće moći)
Razumevanje ograničenja je jednako važno kao razumevanje sposobnosti:
Prava kauzalnost – AI modeli su izuzetno dobri u prepoznavanju korelacija, ali „razumevanje“ uzročno-posledičnih odnosa je fundamentalno teže. Korelacija nije kauzalnost, i modeli koji nisu eksplicitno obučeni za kauzalno rasuđivanje često greše na zadacima koji zahtevaju „zašto“, a ne „šta“.
Zdrav razum u novim situacijama – Ljudi lako generalizuju iz malog broja primera na potpuno nove situacije. AI modeli, iako izvanredni u interpolaciji unutar distribucije trenažnih podataka, slabiji su u ekstremnoj ekstrapolaciji.
Fizičko razumevanje sveta – LLM ne zna šta znači biti vruće, žedno ili umorno. Nema propriocepciju, nema telo, nema evolucijsko nasleđe koje oblikuje ljudsku intuiciju. Ovo se vidi u greškama na fizičkim zadacima koji su trivijalni za čoveka ali složeni za model bez fizičkog iskustva.
Istinska kreativnost vs. kombinovanje – AI generiše impresivan kreativan sadržaj, ali debate o tome da li je to „prava“ kreativnost ili sofisticirana rekombinacija uzoraka ostaju otvorene. Ovo nije samo filozofsko pitanje – ima direktne implikacije za autorska prava i vrednovanje AI-generisanog sadržaja.
Svest i subjektivno iskustvo – Nijedan savremeni AI sistem nema svest u filozofskom smislu. Kada ChatGPT kaže „Razumem“ ili „Žao mi je“, to su statistički verovatni odgovori na kontekst – ne iskazi unutrašnjeg stanja. Ovo je važno ne samo filozofski, nego i praktično: ne treba pripisivati AI-u namere ili emocije koje ne poseduje.
10. Kako razumevanje AI-a poboljšava vaš rad sa njim
Sve što ste pročitali do sada ima direktne praktične implikacije za svakodnevnog korisnika:
-
Znate zašto prompt inženjering funkcioniše: model reaguje na statistički kontekst koji mu dajete; bogatiji kontekst = bolji statistički okvir = bolji odgovor
-
Znate zašto trebate proveravati činjenice: model halucinira ne iz zlonamere, već zbog strukturalnih ograničenja predviđanja tokena
-
Znate zašto dugi dokumenti rade bolje sa Geminijem nego sa GPT-om: kontekstni prozor od 2M vs 128K tokena nije marketinška razlika – to je funkcionalna razlika
-
Znate zašto isti model daje različite odgovore na isti upit: temperature parametar i stohastička priroda generacije tokena
-
Znate zašto AI bolje radi na engleskom nego na srpskom: veličina i kvalitet trenažnog korpusa direktno određuju kvalitet modela za taj jezik
-
Znate zašto AI „menja mišljenje“ kada ga pritiskate: sycophancy kao artefakt RLHF treniranja, ne znak nesigurnosti ili pogrešne procene
11. Srbija u kontekstu razvoja AI tehnologije
11.1 Akademski i istraživački kapaciteti
Srbija ima solidne tehničke kadrove – Matematički fakultet u Beogradu, Elektrotehnički fakultet, FINK i Institut Mihajlo Pupin godišnje obrazuju kompetentne stručnjake za oblasti mašinskog učenja i računarstva. Srpski istraživači su prisutni u timovima globalnih AI kompanija, a dijaspora u Silicon Valleyu i evropskim tech centrima predstavlja potencijalni resurs za transfer znanja.
11.2 Infrastrukturni razvoj
Superračunar u Državnom data centru u Kragujevcu, uz planiranu instalaciju dva nova sistema do kraja 2026, daje infrastrukturnu osnovu za eksperimente u treniranju AI modela. U partnerstvu sa NVIDIA-om i Mistral AI-om, Srbija gradi ekosistem koji može podržati ozbiljan AI razvoj na nacionalnom nivou.
11.3 Izazovi
Ključni izazov za srpski AI ekosistem nije tehnički – to je dostupnost kvalitetnih srpskih podataka za trening. Digitalizovani srpski tekstualni korpus – knjige, novine, pravni dokumenti, naučni radovi, audio transkripcije – mora biti sistematski prikupljen, očišćen i strukturiran. Ovo je jednako važan infrastrukturni projekat kao i nabavka superračunara, i zahteva koordinisane napore biblioteka, institucija, medija i akademije.
12. Budućnost: Kuda ide AI učenje?
Efikasnost umesto skaliranja – Istraživači poput tima koji je razvio DeepSeek V3 pokazali su da se dramatično smanjenje cene treniranja može postići pametnijim algoritmima. Budući modeli možda neće biti znatno veći, ali će biti trenirati efikasnije.
Sintetički podaci – Sa iscrpljivanjem kvalitetnih realnih tekstualnih podataka, kompanije sve više koriste AI da generiše sintetičke podatke za trening narednih generacija AI. Ovo otvara filozofski fascinantno pitanje: šta se dešava kada AI uči od AI?
Multimodalno učenje – Naredna generacija modela sve dublje integriše vizuelne, auditivne i tekstualne podatke u jedinstven reprezentacijski prostor, bliže načinu na koji deca uče – kroz celovito iskustvo sveta, a ne izolovane moduse.
Neuromorphic computing – Hardver koji bliže oponaša efikasnost bioloških neurona potencijalno može dramatično smanjiti energetske zahteve AI treniranja – sa megavata na vate.
Interpretabilnost – Možda najvažnije istraživačko polje: razumevanje šta se zapravo dešava unutar mreže. Anthropicov program mehaničke interpretabilnosti (mechanistic interpretability) pokušava da dešifruje „misli“ modela – pretvori neinterpretabilne matrice težina u razumljive koncepte. Ovo nije samo akademski projekat; direktno je vezano za bezbednost AI sistema.
13. FAQ – Često postavljana pitanja
Da li AI zaista „razume“ ono što generiše?
Ovo je filozofski veoma složeno pitanje. Funkcionalno, modeli pokazuju ponašanje konzistentno sa razumevanjem – rešavaju probleme, povlače zaključke, prepoznaju kontradikcije. Međutim, ovo je verovatno sofisticirana statističke kompetencija, a ne razumevanje u fenomenološkom smislu koji pripisujemo ljudima. Nauka još nema konsenzus odgovor na ovo pitanje.
Može li AI postati svestan?
Trenutno nema nikakvih naučnih dokaza da moderni AI sistemi imaju ili mogu imati svest. Svest je jedna od najtežih problema u nauci (tzv. „hard problem of consciousness“) i ne razumemo je dovoljno ni kod ljudi da bismo mogli da kažemo da li mašina može biti svesna. Ono što pouzdano znamo je da nijedan savremeni AI sistem nema svest onako kako je mi doživljavamo.
Zašto AI ponekad daje potpuno pogrešne odgovore na jednostavna pitanja?
Zato što „jednostavno za čoveka“ ne znači „lako za statistički model“. AI može savršeno rešiti složenu matematičku jednačinu, a istovremeno pogrešiti na pitanju koje zahteva fizičku intuiciju ili zdrav razum van distribucije trenažnih podataka. Ovo je strukturalno ograničenje, ne slučajna greška.
Koliko dugo traje trening jednog modela?
Trening frontier modela poput GPT-5 traje mesecima i odvija se na klasterima sa hiljadama specijalnih čipova koji rade paralelno 24/7. Fine-tuning manjeg modela može trajati danima ili nedeljama na skromnijem hardveru. Inference (generisanje odgovora) traje sekunde jer koristi već istreniranu mrežu.
Da li AI može da „zaboravi“ informacije iz treninga?
Ne direktno – naučene težine ostaju. Međutim, moguće je fine-tuningom „prepisati“ određena znanja ili ponašanja, ili koristiti RLHF da se smanje određene vrste odgovora. „Mašinsko zaboravljanje“ (machine unlearning) je aktivna istraživačka oblast, posebno relevantna za zaštitu privatnosti – kako iz modela ukloniti specifične privatne podatke bez ponovnog treniranja od nule.
Zašto isti AI ponekad daje različite odgovore na identično pitanje?
Zbog temperature parametra. Generisanje tokena je stohastičan (probabilistički) proces – model ne bira uvek token sa najvišom verovatnoćom, već sampleluje iz distribucije verovatnoća. Ovo daje raznovrsnost ali i nekonzistentnost. Na temperature=0, model je gotovo deterministički. Na višim vrednostima, isti prompt može dati različite ali podjednako verovatne odgovore.
Kako se AI razlikuje od klasičnog pretraživača poput Google-a?
Google pretraživač pronalazi i rangira postojeće dokumente na internetu – ne generiše odgovore. LLM model generiše novi tekst baziran na statističkim obrascima iz treninga – nema direktan pristup internetu (osim ako nije eksplicitno integrisan). Hibridni sistemi poput Perplexity-ja kombinuju oba pristupa: pretraživač pronalazi relevantne stranice, a LLM sintetiše odgovor iz pronađenih dokumenata.
14. Glosar ključnih pojmova
-
Neuronska mreža – matematički sistem inspirisan strukturom mozga, sastavljen od slojeva međusobno povezanih neurona
-
Duboko učenje (Deep Learning) – grana mašinskog učenja koja koristi višeslojne neuralne mreže
-
Parametri / Težine (Weights) – brojevi koji definišu ponašanje neuralne mreže; model „uči“ menjanjem ovih vrednosti
-
Backpropagation – algoritam koji propagira grešku unazad kroz mrežu i prilagođava težine
-
Token – osnovna jedinica teksta u LLM obradi; otprilike 3/4 prosečne reči
-
Kontekstni prozor (Context Window) – maksimalni broj tokena koje model može istovremeno obraditi
-
Transformer – arhitektura neuralnih mreža koja stoji u osnovi svih modernih LLM-ova; uvedena 2017.
-
Mehanizam pažnje (Attention Mechanism) – ključni deo Transformer arhitekture koji uči koje veze između tokena su važne
-
Pre-trening – inicijalna faza treniranja na ogromnom korpusu teksta, bez specifičnog cilja
-
Fine-tuning – naknadni trening na manjim, specifičnim skupovima podataka za prilagođavanje domenu ili ponašanju
-
RLHF (Reinforcement Learning from Human Feedback) – tehnika fine-tuninga bazirana na ljudskim ocenama odgovora
-
Halucinacija – generisanje uverljivo zvučećih ali netačnih ili izmišljenih informacija
-
Sycophancy – tendencija modela da se previše slaže sa korisnikom usled RLHF treniranja
-
Skaliranje (Scaling) – povećanje veličine modela, količine podataka i računarskih resursa radi poboljšanja performansi
-
Emergentne sposobnosti – sposobnosti koje se spontano pojavljuju kod modela iznad određene veličine
-
Distribucijski pomak (Distribution Shift) – degradacija performansi modela na podacima koji se razlikuju od trenažnih
-
Temperatura (Temperature) – parametar koji kontroliše raznovrsnost/kreativnost generisanih odgovora
-
Nadzirano učenje – trening na označenim parovima (input, tačan odgovor)
-
Nenadzirano učenje – trening na neoznačenim podacima, model sam pronalazi obrasce
-
Reinforcement Learning – učenje kroz nagradu i kaznu u interakciji sa okruženjem
-
Difuzioni model – arhitektura koja generiše slike postepenim „pročišćavanjem“ nasumičnog šuma
-
Tokenizacija – proces pretvaranja teksta u numeričke tokene pre obrade u modelu
-
Mechanistic Interpretability – istraživačka oblast koja pokušava da razume šta se dešava unutar neuralnih mreža
-
Inference – proces generisanja odgovora korišćenjem istreniranog modela (za razliku od treniranja)
-
Embedding – numerička vektorska reprezentacija teksta u višedimenzionalnom prostoru
-
Sintetički podaci – AI-generisani podaci koji se koriste za trening narednih generacija modela
Razumevanje kako AI uči nije privilegija istraživača i inženjera – to je osnovna digitalna pismenost 21. veka. Onaj ko razume da ChatGPT predviđa tokene, a ne „razmišlja“, neće biti iznenađen halucinacijama. Onaj ko zna šta je kontekstni prozor, koristiće modele efikasnije. Onaj ko razume RLHF, prepoznaće sycophancy kada ga vidi. Tehnologija postaje transparentna onom ko je razume – i ta transparentnost je osnova kritičkog mišljenja u eri veštačke inteligencije.



