Zamislite sledeću scenu. Godina je 2029. ili 2030. Vi sedite ispred televizora i gledate debatu dva kandidata za predsednika. Jedan je harizmatičan, govori tačno ono što većina birača želi da čuje, odgovara brzo, nikad ne greši u statistikama i uvek ima spreman odgovor na svako pitanje. Drugi je „običan“ političar – ponekad se spotakne, ponekad kaže nešto što nije popularno, ali deluje iskreno. Prvi kandidat pobedi sa ubedljivom prednošću. Tek kasnije, u nekom curenju podataka, saznajete da je njegov „lični stil“ zapravo kreirao AI tim iz jedne velike tech kompanije. Oni su analizirali milijarde podataka o vama, vašim prijateljima, vašim strahovima i željama, pa su ga „trenirali“ mesecima da bude savršen kandidat – za njihove interese.
Ovo više nije teorija zavere. Ovo je logičan sledeći korak. Big Tech već godinama utiče na izbore preko algoritama, targetiranih oglasa i dezinformacija. Sada, sa napretkom generativnog AI-a i agentic AI sistema, sledeći korak je direktno „regrutovanje“ i „trening“ političara. Oni neće više samo uticati na birače – oni će birati kandidate koji su najkompatibilniji sa njihovim poslovnim modelima. Na ITNetwork.rs ne pišemo ovaj tekst da bismo vas uplašili ili optužili svaku tech kompaniju. Pišemo jer smo u poslednjih nekoliko godina videli kako se granica između tehnologije i politike sve više briše, a mi, obični građani, ostajemo van te igre. Hajde da razgovaramo otvoreno i oštro: kako bi to moglo da izgleda, zašto je već počelo, koliko je opasno za demokratiju i šta možemo da uradimo pre nego što postane prekasno.
Kako smo došli dovde: Od targetiranih oglasa do AI kandidata
Sve je počelo sa Cambridge Analytica 2016. godine. Jedna kompanija je koristila podatke sa Fejsbuka da targetira birače u Americi i Britaniji sa preciznim porukama koje su ih plašile ili motivisale. To nije bilo hakovanje – to je bilo legalno korišćenje podataka. Od tada smo videli slične kampanje u desetinama zemalja. Meta, Google, TikTok i X (bivši Twitter) su postali glavni kanali političke komunikacije. Algoritmi odlučuju šta vidite, a time i šta mislite.
Sada, 2026. godine, AI je otišao korak dalje. Generativni modeli poput GPT serije i Grok već pišu govore, kreiraju slike i čak simuliraju debate. Agentic AI sistemi (autonomni agenti) mogu da analiziraju javno mnjenje u realnom vremenu, predviđaju reakcije birača i predlažu poruke koje će imati najveći efekat. Sledeći logičan korak? Umesto da samo savetuju postojeće političare, Big Tech može da „trenira“ nove – odabere ljude sa pravim profilom (harizma, pozadina, slabosti), pa ih oblikuje pomoću podataka i simulacija da budu savršeni za njihove interese.
Primer iz prakse koji nas upozorava: tokom američkih izbora 2024. godine pojavili su se duboki fake videi kandidata koji su bili toliko dobri da su ih milioni ljudi delili pre nego što su razotkriveni. U Evropi, na izborima za Evropski parlament 2024, koordinisane AI kampanje su koristile personalizovane poruke na desetinama jezika. U Srbiji smo videli slične trendove na lokalnim izborima – botovi i targetirani oglasi koji su uticali na percepciju kandidata. To je samo početak.
Kako bi AI mogao da „regrutuje“ i „treninguje“ političare?
Proces bi izgledao ovako:
- Masovna analiza podataka – Big Tech već ima podatke o milijardama ljudi – šta lajkujete, šta delite, gde se krećete, šta kupujete, čak i kako dišete prema podacima sa satova. Algoritmi mogu da identifikuju ljude koji imaju „politički potencijal“: harizmu na kameri, sposobnost da utiču na druge, slabosti koje se mogu kontrolisati.
- Simulacije i trening – AI može da simulira hiljade izbornih scenarija. Testira kako bi kandidat reagovao na krizu, na skandal, na promenu javnog mnjenja. Zatim ga „treninguje“ – šalje mu predloge za govore, savete za nastupe, čak i psihološke profile birača koje treba da targetira.
- Finansiranje i podrška – Preko PAC-ova, donacija i „nezavisnih“ organizacija, tech kompanije mogu da finansiraju kampanju. U isto vreme, algoritmi na njihovim platformama favorizuju tog kandidata.
- Kontinuirana kontrola – Jednom izabran, kandidat ostaje pod uticajem – preporuke za zakone, poruke za javnost, čak i lične savete. Ako se „pobuni“, algoritam može da ga „kazni“ smanjenjem vidljivosti ili curenjem podataka.
Ovo nije daleka budućnost. Već 2025. godine kompanije poput OpenAI i Anthropic su javno priznale da njihovi modeli mogu da generišu politički sadržaj. U zatvorenim krugovima se već razgovara o „AI political consultants“. U Srbiji, gde su društvene mreže glavni kanal političke komunikacije, ovaj proces bi mogao da bude još brži i jeftiniji.
Realni primeri koji pokazuju da smo blizu
- Cambridge Analytica 2.0 – Iako je kompanija zatvorena, tehnologija koju je koristila živi. Danas je dostupna svakome ko ima dovoljno podataka. U izborima u Brazilu 2022. i Indiji 2024. godine korišćene su slične metode sa još većom preciznošću.
- Deepfake kandidati – U Argentini 2023. godine pojavio se deepfake video kandidata koji je „priznao“ korupciju. Iako je razotkriven, šteta je bila napravljena. Do 2027. godine takvi napadi će biti svakodnevni.
- AI u kampanjama – U Americi 2024. godine obe strane su koristile AI za pisanje govora i targetiranje oglasa. Sledeći korak je očigledan: AI koji bira samog kandidata.
U Srbiji smo već videli prve znake. Na lokalnim izborima 2023. i 2024. godine pojavile su se koordinisane kampanje lažnih naloga koje su promovisale određene kandidate. Nisu bili AI, ali su bili prvi korak ka sistemu koji će to moći da radi automatski.
Zašto je ovo opasno za demokratiju?
Prvo, gubimo autentičnost. Političar postaje proizvod – optimizovan za angažman, a ne za stvarne potrebe društva. Drugo, koncentracija moći. Nekoliko kompanija u Silicijumskoj dolini i Pekingu moći će da utiče na izbore u desetinama zemalja. Treće, erozija poverenja. Kada birači shvate da su kandidati „trenirani“ od AI-a, prestaju da veruju u bilo koga. Četvrto, manipulacija na nivou koji ranije nije postojao – kandidat može da bude programiran da favorizuje određene zakone (npr. one koji štite Big Tech od regulacije).
U Srbiji, gde je poverenje u institucije već nisko, ovaj proces bi mogao da bude posebno destruktivan. Zamislite izbore gde jedan kandidat „zvuči“ savršeno jer je oblikovan prema podacima iz Fejsbuka i TikToka.
Budućnost 2026–2035.: Tri moguća scenarija
Scenarij 1 – Optimistički (malo verovatan): Države uvode stroge regulacije. AI u politici mora da bude transparentan. Kandidati moraju da objave ako su koristili AI trening. Demokratija se prilagođava i postaje otpornija.
Scenarij 2 – Realistički (najverovatniji): Big Tech nastavlja da utiče indirektno preko algoritama i sadržaja. Direktno „treningovanje“ kandidata ostaje u sivoj zoni. Poverenje pada, ali sistem nekako opstaje uz veće polarizacije.
Scenarij 3 – Distopijski (moguć ako ne reagujemo): AI postaje „kralj maker“. Kompanije biraju kandidate, oblikuju ih i kontrolišu. Izbori postaju predstava. Demokratija postoji samo na papiru.
Šta možemo da uradimo?
Ne tražim da zabranimo AI. Tražim regulaciju i transparentnost.
- Obavezno označavanje AI sadržaja u političkim kampanjama.
- Javni registar ko koristi AI za trening kandidata.
- Nezavisni auditi algoritama društvenih mreža koji utiču na izbore.
- Edukacija građana kako da prepoznaju manipulaciju.
- Međunarodni sporazumi o zabrani direktnog AI uticaja na izbore.
U Srbiji treba da počnemo sa tim odmah – pre nego što nas neko drugi oblikuje.
Demokratija nije samoodrživa
Big Tech već ima moć da oblikuje šta mislimo. Sledeći korak je da oblikuje koga biramo. Ako dozvolimo da AI bira i treninguje političare, gubimo suštinu demokratije – pravo da biramo slobodno i informisano.
Podijelite ovaj tekst ako ste ikada pomislili da su izbori samo predstava. Razgovarajte sa prijateljima, sa političarima, sa onima koji odlučuju. Jer ako ne reagujemo sada, sutra nećemo birati mi – biraće algoritam.



