Odgovori koje vam daju veliki jezički modeli (LLM) variraju jer zavise od jezika na kojem se pitanje postavi, stila, konteksta i memorije
Veliki jezički modeli (Large Language Models – LLM), poput Grok-a ili ChatGPT-a, predstavljaju vrhunske sisteme veštačke inteligencije koji ne poseduju svest niti sposobnost razmišljanja onakvu kakvu ima čovek. Međutin, njihovi odgovori često izgledaju „baš kao da su pisani za nas” I da je LLM „tačno znao šta smo hteli da čujemo”. Ova sposobnost proizilazi iz kompleksne interakcije između ulaznih podataka i internih mehanizama modela, zasnovanih na statističkim obrascima naučenim tokom treninga.
U ovom članku ćemo objasniti koji su ključni faktori koji određuju način na koji LLM generišu odgovore i zašto su ti odgovori različiti ali prilagođeni svakom korisniku, uz osvrt na tehničke aspekte i napredne funkcije poput dugoročne memorije.
Važno je na kom jeziku postavimo pitanje
Jezik upita igra ključnu ulogu u određivanju jezika odgovora. LLM-ovi su trenirani na masivnim korpusima tekstualnih podataka, gde engleski jezik dominira, iako postoji podrška i za druge jezike. Kada korisnik postavi pitanje na srpskom, model prepoznaje lingvističke karakteristike jezika – gramatiku, sintaksu i leksiku – i generiše odgovor na istom jeziku na kom ste postavili pitanje.
Odgovori koje daju jezički modeli mogu se razlikovati u zavisnosti od jezika na kome je upit postavljen. Svaki jezik nosi svoje osobenosti, stil i drugačiji kulturni kontekst, pa samim tim postoje i nijanse u prevodu i preciznosti samog odgovora.
LLM kopira vaš stil izražavanja i vokabular
Način na koji je pitanje postavljeno – da li je formalno ili neformalno – direktno utiče na ton odgovora. Tako će formulacija tipa ’Molim te, objasni mi teoriju relativiteta’ dovesti do struktuiranog i tehnički stručnog odgovora, dok pitanje u stilu ’Ej, šta je fora sa relativitetom?’ podstiče opušteniji ton sa kolokvijalnim izrazima. LLM će jednostavno kopirati i podražavati vaš stil izražavanja, i personalizovati odgovor koji vam daje.
Eksplicitna uputstva koja zadajemo modelu su ključna
Način na koji formulišete pitanje direktno utiče na to kakav će odgovor model dati – da li će biti kraći ili opširniji, jednostavan ili struktuiran. Jezički modeli su podešeni da prate jasne instrukcije. Ako u pitanju navedete „objasni ukratko” ili „objasni detaljno”, dobićete upravo takav odgovor. Tako će zahtev „Objasni gravitacionu silu kao da sam učenik osnovne škole” rezultirati jednostavnim i sažetim odgovorom, prilagođenim deci, dok će zahtev „Napiši mi definiciju gravitacione sile i formulu za njeno izračunavanje.” dati struktuiran i detaljan odgovor sa formulama. Zato različiti korisnici, iako postavljaju suštinski ista pitanja, dobijaju različite odgovore – razlika nastaje iz toga koliko su u svojim uputstvima bili precizni.
Kontekst razgovora i prethodna pitanja utiču na odgovor
U okviru iste sesije razgovora, LLM-ovi obezbeđuju kontinuitet i koherentnost tako što „pamte” prethodne poruke kao deo ulaznog prompta. Ovo nije trajno pamćenje, već dinamička obrada istorije razgovora, što omogućava povezivanje novih upita sa prethodnim. Na primer, ako korisnik prvo pita „Šta je gravitacija?”, a zatim zatraži „Objasni detaljnije”, model integriše prethodni kontekst da bi izbegao ponavljanje i obezbedio logičan nastavak. Ovaj mehanizam čini odgovore konzistentnijim unutar sesije, ali razlike nastaju zbog varijacija u toku razgovora: različiti stilovi pitanja ili redosled informacija utiču na finalni izlaz, što objašnjava zašto isti model može generisati različite odgovore za slične upite u različitim sesijama.
Kako funkcija „dugoročne memorije” utiče na output
Napredna funkcija dugoročne memorije, uvedena u nekim modelima kao što su ChatGPT i Grok, omogućava čuvanje opštih informacija o korisniku ili preference u vezi sa stilom i dužinom odgovora iz prethodnih interakcija. LLM može da upamti da, na primer, volite da odgovor bude jasno strukturiran ili da prvo dobijete kraći pregled, pa tek onda postavljate dodatna pitanja.
Ova memorija funkcioniše tako što model integriše sačuvane podatke u buduće odgovore – na primer, ako korisnik spomene interesovanje za naučnu fantastiku, model može ugraditi relevantne primere iz tog žanra.
Funkcija je podrazumevano aktivna, ali se može deaktivirati preko podešavanja. Korisnici mogu da uključe privatni režim razgovora u kom se podaci ne čuvaju. To utiče i na odgovore koje dobijaju: oni koji imaju aktiviranu memoriju dobijaju personalizovanije odgovore, dok oni bez memorije dobijaju generičke odgovore a svaki novi razgovor počinje bez prethodnog konteksta.
Da li LLM može jednom korisniku dati tačan, a drugom netačan odgovor?
Kada se govori o razlikama u odgovorima, najveća bojazan odnosi se upravo na to – mogu li modeli jednom korisniku dati tačnu informaciju, a drugom netačnu? Odgovor je: da, to je moguće.
Razlog ne leži u tome što model namerno „bira” kome će reći istinu, a kome ne. Problem je u prirodi samog sistema. LLM ne poseduje unutrašnje znanje niti način da proveri da li je nešto istina, već kreira tekst predviđanjem sledeće reči na osnovu verovatnoće. Što je upit nejasniji ili dvosmisleniji, odgovor ima veće šanse da bude netačan!
Ako jedan korisnik postavi pitanje vrlo precizno, sa jasnim kontekstom, dobiće odgovor koji je bliži proverenim činjenicama. Drugi korisnik, ako pitanje postavi neodređeno, može dobiti odgovor koji deluje uverljivo, ali je faktički netačan. Zato se ovde ne radi samo o stilu ili dužini odgovora, već o samoj suštini sadržaja. Upravo zato je neophodno da korisnici zadrže kritički odnos i da odgovore, bez obzira koliko odgovori zvučali uverljivo, proveravaju u pouzdanim izvorima.
Milena Šović, M.Sc.,CSM, CSPO
AI Implementation Specialist & Content Trainer



