Tradicionalne metode praćenja javnog mnjenja – ankete, fokus grupe, statističke analize – pružaju korisne uvide u stavove građana, ali imaju ozbiljna ograničenja koja ih čine manje efikasnim u dinamičnom političkom okruženju. Njihov glavni problem je kašnjenje: od trenutka prikupljanja podataka do objave rezultata često prođe više dana ili nedelja, što znači da ključni signali poput naglog porasta nezadovoljstva ili promene podrške kandidatima mogu biti propušteni u trenucima kada su najkritičniji. U političkom i društvenom kontekstu gde se situacija menja iz sata u sat, ova sporost ograničava sposobnost donošenja pravovremenih odluka. Veštačka inteligencija (AI) menja ovaj pristup iz osnova, omogućavajući analizu javnog mnjenja gotovo u realnom vremenu i otvarajući prostor za praćenje i predviđanje promena stavova građana brzinom koja ranije nije bila moguća, čime se političari i organizacije stavljaju u bolji položaj za reagovanje.
AI sistemi u ovoj oblasti koriste širok spektar izvora podataka, uključujući objave na društvenim mrežama poput Twittera i Instagrama, komentare na vestima, diskusije na forumima, televizijske i radijske transkripte, pa čak i govor tela ili ton glasa u javnim nastupima političara i aktivista, koji se analiziraju kroz video i audio snimke. Obrada prirodnog jezika (NLP) i algoritmi za analizu sentimenta prepoznaju ne samo osnovne stavove – pozitivne, negativne, neutralne – već i složenije nijanse poput skepticizma, iritacije, entuzijazma ili latentnog nezadovoljstva, često koristeći duboko učenje za preciznije rezultate. Kada se ovi podaci prikupe iz miliona pojedinačnih interakcija, formira se dinamična slika društvenog raspoloženja koja se može pratiti iz sata u sat, na primer, prateći reakcije na izjavu predsednika u realnom vremenu tokom krize 2024. godine. Ova sposobnost omogućava praćenje trenutnih emocija i stavova na način koji klasične metode ne mogu da pruže.
Prediktivni aspekt AI analize ide korak dalje jer kombinovanjem istorijskih trendova sa aktuelnim podacima, algoritmi mogu da procene kako će se stavovi verovatno razvijati u narednim danima ili nedeljama, pružajući proaktivne uvide. Na primer, ako se primećuje rast negativnog sentimenta prema određenoj ekonomskoj meri i istovremeno planira javna rasprava o njoj, model može predvideti koliki će otpor biti, koje demografske grupe će ga predvoditi i koji argumenti bi mogli ublažiti tenzije. Takvi uvidi daju političarima, nevladinim organizacijama i medijima mogućnost da proaktivno prilagode komunikaciju, planiraju reakcije ili menjaju strategiju, poput prilagođavanja poruka o porezima tokom kampanje u Velikoj Britaniji 2023. godine, gde je AI predvideo pad podrške zbog loše formulacije predloga.
Međutim, tačnost ovih predviđanja zavisi od kvaliteta i reprezentativnosti podataka jer online diskusije ne odražavaju uvek strukturu čitave populacije, a glasne manjine poput aktivista mogu stvarati iskrivljenu sliku koja ne uključuje mišljenje starijih građana ili ruralnih zajednica. Postoji i rizik od algoritamske pristrasnosti – ako se modeli treniraju na podacima koji već nose ideološke ili kulturne predrasude, poput prekomernog oslanjanja na urbanu populaciju, one će se preneti i na rezultate, što može dovesti do netačnih zaključaka. Dodatni izazov je zaštita privatnosti jer granica između javno dostupnih podataka, poput objava na društvenim mrežama, i onih koji otkrivaju lične informacije građana, poput lokacije ili političkih stavova izvedenih iz pretraga, često nije jasno definisana, izazivajući etička pitanja.
U praksi, ovakvi sistemi već se koriste širom sveta jer tokom izbornih kampanja u SAD-u, AI analize su u realnom vremenu pratile reakcije na debate, mereći promene u podršci kandidatima iz minuta u minut, što je pomoglo Demokratskoj stranci da prilagodi taktiku 2024. godine. Evropske vlade testiraju modele koji mogu detektovati rani rast ekstremističkog narativa na društvenim mrežama i time sprečiti njegov prelazak u realne akcije, poput praćenja desničarskog diskursa u Nemačkoj 2023. godine. U Latinskoj Americi, nevladine organizacije koriste AI za praćenje percepcije korupcije i javnog poverenja u institucije, povezujući online diskusije sa rezultatima istraživanja javnog mnjenja, što je pokazalo porast sumnje u vlast u Brazilu 2024. godine. Ovi primeri ukazuju na široku primenu tehnologije u različitim kontekstima.
Ovi primeri pokazuju da AI ne menja samo način na koji pratimo javno mnjenje, već i brzinu i kvalitet političkih i društvenih reakcija jer omogućava donošenje odluka zasnovanih na trenutnim podacima, a ne na zaostalim procenama. Prava vrednost ove tehnologije leži u njenoj sposobnosti da identifikuje promene pre nego što postanu vidljive u klasičnim indikatorima, poput anketnih rezultata, čime se političke kampanje mogu brzo prilagoditi. Ipak, da bi se izbegle zloupotrebe i pogrešne interpretacije, ovakvi sistemi moraju biti praćeni transparentnim metodologijama, nezavisnim proverama i jasnim etičkim pravilima, poput onih koje predlaže Evropska unija u smernicama za AI iz 2024. godine, koje zahtevaju javnu objavu algoritamskih kriterijuma.
Ako se koristi odgovorno, AI analiza javnog mnjenja u realnom vremenu može postati jedan od najmoćnijih alata savremenog upravljanja i političkog planiranja jer može pomoći u oblikovanju politika koje bolje odgovaraju potrebama građana, poput prilagođavanja zdravstvenih mera tokom pandemije 2022. godine. Ako se koristi neodgovorno, može postati sofisticiran instrument manipulacije, poput ciljanog širenja poruka koje pojačavaju polarizaciju, što je primećeno u Rusiji 2023. godine. Granica između ta dva scenarija zavisiće od toga koliko društva budu spremna da uspostave kontrolu nad tehnologijom pre nego što ona preuzme kontrolu nad njima, uključujući regulative koje ograničavaju pristup privatnim podacima i sankcije za zloupotrebu.
Kako se tehnologija razvija, očekuje se da će do avgusta 2025. godine AI sistemi postati još sofisticiraniji, integrišući više izvora podataka poput pametnih uređaja i IoT senzora za još preciznije predviđanje. Ključni izazov biće uspostavljanje globalnog konsenzusa o etičkoj upotrebi jer UN predlaže smernice koje uključuju obavezu transparentnosti i zaštitu privatnosti, ali nailaze na otpor zbog nacionalnih interesa i razlika u tehnološkom razvoju. Bez ovog balansa, postoji opasnost da AI postane alat za manipulaciju umesto podršku demokratiji, posebno u polarizovanim društvima.
Zaključno, AI za analizu javnog mnjenja u realnom vremenu nudi ogroman potencijal za praćenje i predviđanje promena stavova građana, ali zahteva pažljivo upravljanje rizicima vezanim za podatke, pristrasnost i privatnost. U svetu gde javno mnjenje oblikuje političke ishode, uspešna integracija ove tehnologije zavisi od sposobnosti da se ona koristi kao alat za povećanje transparentnosti, a ne kao sredstvo za njeno podrivanje.
Milena Šović, M.Sc.,CSM, CSPO
AI Implementation Specialist & Content Trainer



