U ovom tekstu nećemo vam prodavati ni teorije zavere ni optimizam. Najbitnije: generativni AI modeli specijalno trenirani za dezinformacije (meta-dezinformacije) već 2026. godine kreiraju koherentne, emotivne i samoreplicirajuće lažne narative koji ciljaju tačno određene demografije – po godinama, lokaciji, interesovanjima ili ranjivostima. EEAS 4th FIMI Report (mart 2026.) pokazuje da je AI u potpunosti ugrađen u ruske i kineske operacije – 1 od 4 incidenta koristi generativne alate za masovnu proizvodnju deepfake-ova i personalizovanih laži. WEF upozorava da kognitivna manipulacija i AI oblikuju dezinformacije 2026. godine, a EDMO beleži rekordnih 16 % AI-generisane dezinformacije u faktčeking uzorcima. U Srbiji outsourcing firme i političke kampanje već testiraju slične alate, ali bez regulative. Ako ne počnemo sa detekcijom, edukacijom i zakonima odmah, rizikujemo da lažne narative postanu jače od istine – i da se šire brže od bilo kog virusa. Nije pitanje „da li će se desiti“, već „ko će platiti cenu kada generativni ratovi stignu do nas“.
Zamislite ovo: jedan AI model, treniran samo za laži, kreira priču o „otrovnoj vakcini“ ili „stranoj zavjeri“ koja je savršeno prilagođena baš vama – po vašem uzrastu, lokaciji, strahovima i onome što već volite da čitate. Priča je emotivna, koherentna, sa lažnim video-snimcima i „svedocima“. Zatim se sama replicira – deli je na hiljade naloga, prilagođava jeziku i tonu, i širi se kao požar. To nije više „lažna vest“. To je samoreplicirajući narativ koji živi svoj život. I to se već dešava 2026. godine. Generativni ratovi nisu budućnost. To je sadašnjost koja nas je sustigla dok smo još uvek pričali o „fejk njuzima na Fejsbuku“.
Šta su zapravo generativni ratovi i meta-dezinformacije
Generativni ratovi su nova faza informacionog rata u kojoj AI modeli nisu samo alat za širenje laži – oni su oružje čija je jedina svrha da stvaraju, prilagođavaju i repliciraju lažne narative. Meta-dezinformacije idu korak dalje: to su laži koje se same „uče“ iz reakcija publike, postaju emotivnije, koherentnije i teže za otkrivanje.
Za razliku od starih botova koji su samo kopirali tekstove, ovi modeli koriste agentni AI (kao Devin ili CrewAI iz našeg ranijeg teksta) da planiraju kampanje, analiziraju emocije publike u realnom vremenu i generišu sadržaj koji se sam širi. Cilj nije samo da lažu – cilj je da laž postane „istina“ za određenu grupu ljudi.
Prema EEAS 4th Report on Foreign Information Manipulation and Interference (mart 2026.), u 2025. godini AI je bio ugrađen u 1 od 4 FIMI incidenata – ruske i kineske operacije masovno koriste generativne alate za deepfake-ove, personalizovane narative i „cognitive warfare“. WEF u martu 2026. upozorava da kognitivna manipulacija i AI oblikuju dezinformacije na novi način: duboki fejkovi su sada neprepoznatljivi, a AI omogućava „plausible deniability“ – „nismo mi, to je AI“.
EDMO (European Digital Media Observatory) beleži rekord: 16 % faktčekovanih članaka u decembru 2025. bilo je AI-generisano. Lažne vesti o Ukrajini, farmerima i EU koristile su AI za emotivne slike i video-snimke koji se šire brže od istine.
Kako se prave ovi modeli i zašto su tako opasni
Proces je jednostavan i jeftin. Uzima se veliki jezički model (kao GPT ili Llama), finetunira se na hiljadama primera lažnih narativa, dodaje se agentni sloj za planiranje i repliciranje, pa se pušta u rad. Model uči iz reakcija publike: ako neka laž bolje „pali“ kod starijih muškaraca u ruralnim područjima – prilagođava se tome. Ako emotivni ton sa strahom radi bolje od činjenica – pojačava strah.
Primeri iz prakse 2026. godine:
- Ruske operacije koriste AI za masovnu proizvodnju deepfake-ova o Ukrajini (EEAS izveštaj).
- Kineske kampanje protiv Tajvana koriste personalizovane narative preko AI (Atlantic Council).
- Grok skandal (krajem 2025. i početkom 2026.) – korisnici su koristili model za generisanje nekonzualnih deepfake-ova, što je dovelo do istraga u EU i Indiji.
- Izbori 2026. u SAD – super PAC-ovi eksperimentišu sa AI deepfake napadima (WITF izveštaj decembar 2025.).
U Srbiji? Još uvek tiho, ali outsourcing firme već testiraju AI za „content creation“. Političke kampanje koriste generativne alate za targeted oglase. Bez regulative – rizik je ogroman.
Pročitajte naše ranije tekstove na ITNetwork.rs:
- Agentni AI – Kraj Softverskog Inženjeringa? – isti agenti koji pišu kod sada pišu laži.
- Pravo na Kognitivnu Slobodu – meta-dezinformacije napadaju i um.
- VR Placebo Efekat – digitalna sugestija koja menja percepciju, baš kao generativne laži.
Rizici i budućnost: Kada laž postane jača od istine
Najveći rizik je samoreplikacija – laž se širi brže od bilo kog virusa jer je personalizovana i emotivna. U 2026. godini već vidimo „AI poisoning“ (trovanje modela lažima) i „slop“ (masovni generisani sadržaj).
Budućnost 2026–2035:
- 2026–2028: Masovni generativni ratovi u izborima. EU uvodi zabrane za AI „nudification“ i deepfake-ove.
- 2029–2032: AI modeli postaju autonomni „dezinformacioni agenti“ koji rade bez ljudskog nadzora.
- 2033–2035: Ako se ne reguliše – „istina“ više ne postoji. Ili, uz globalne standarde (kao UNESCO), detekcija postaje standard.
U Srbiji: Ako ne uvedemo regulativu i edukaciju – postajemo meta za strane operacije.
Kako se zaštititi – praktični vodič (HowTo)
- Proveravajte izvore – Koristite faktčeking sajtove pre deljenja.
- Detekcija AI sadržaja – Alati poput Hive Moderation ili InVID.
- Edukacija – Učite se prepoznavanju deepfake-ova.
- Za kompanije – Implementirajte watermarking i transparentnost.
- Za državu – Usvojite zakone protiv generativnih dezinformacija.
- Lična higijena – Ograničite vreme na društvenim mrežama.
- Advokacija – Tražite od RATEL-a i vlade regulativu.
Zaključak – oštro i bez ulepšavanja
Generativni ratovi nisu igra. To je oružje koje može da uništi demokratiju brže od bilo kog metka. Dok Rusija i Kina koriste AI za masovne laži, mi u regionu još uvek delimo „zanimljive“ vesti bez provere. To nije naivnost. To je saučesništvo.
Počnite danas. Proveravajte. Delite ovaj tekst. Jer kada laž postane samoreplicirajuća – istina više neće imati šansu.



