U februaru 2026. godine, dok sedim za računarom u svojoj kancelariji u Nišu i gledam kroz prozor na hladan zimski dan, ne mogu a da se ne zapitam: šta ako je sve što znam o prošlosti laž? Ne, ne govorim o teorijama zavere koje kruže društvenim mrežama, već o nečem mnogo opasnijem – veštačkoj inteligenciji (AI, veštačka inteligencija) koja može da kreira deepfakes (duboke laži, sintetički mediji koji izgledaju potpuno autentično). Zamislite da vidite video snimak Josipa Broza Tita kako priznaje nešto što nikad nije rekao, ili digitalno izmenjeni dnevnik Anne Frank sa dodatim stranicama koje menjaju njenu priču. Ovo nije naučna fantastika; to je realnost koja se već dešava. Za čitaoce IT portala www.itnetwork.rs, ovaj tekst će duboko zaroniti u temu, sa stručnim uvidima, primerima iz prakse i pogledom u budućnost. Neću ulepšavati: situacija je alarmantna, a ako ne reagujemo, cela naša kolektivna memorija može postati upitna. Ali hajde da krenemo korak po korak, jer ova tema zaslužuje da se razume – ne samo od stručnjaka, već od svakog ko koristi internet.
Deepfakes nisu novost, ali njihova sofisticiranost u 2026. godini je dostigla vrhunac. Ovi sintetički mediji koriste generative adversarial networks (GAN, generativne suparničke mreže) da kreiraju lažne slike, video zapise, audio snimke i čak dokumente koji izgledaju kao da su iz prošlosti. Problem? Oni mogu da manipulišu istorijom na način koji uništava poverenje. Prema izveštaju Brookings Institution iz 2019. godine, koji je još uvek relevantan, deepfakes „skrambuju naše razumevanje istine“ tako što eksploatišu našu sklonost da verujemo onome što vidimo sopstvenim očima. Ali danas, sa napretkom AI modela poput Sora ili Runway, ovo ide korak dalje: AI ne samo da falsifikuje trenutne događaje, već i rekonstruiše prošlost. A to nas dovodi do ključnog pitanja: kome da verujemo kada više ne možemo razlikovati laž od istine?
Koreni problema: Kako je AI ušao u istoriju?
Da bismo razumeli zašto je ovo toliko opasno, vratimo se malo unazad. Koncept deepfakes prvi put se pojavio 2017. godine na Reddit-u, gde je korisnik pod nadimkom „deepfakes“ koristio AI da kreira neautentične intimne slike poznatih ličnosti. Od tada, tehnologija je evoluirala brzinom svetlosti. Do 2024. godine, prema New York Times-u, AI je već mogao da kreira lažne političke skandale, poput glasovnih imitacija političara koji „priznaju“ nešto što nisu rekli. Ali šta sa istorijom? Tu ulazi „liar’s dividend“ (lažov dividend, fenomen gde prisustvo deepfakes omogućava da se istiniti dokazi odbace kao lažni). Ovaj termin, kovan 2019. godine, opisuje kako deepfakes omogućavaju da se pravi dokazi diskredituju, što je posebno opasno za arhive i dokumente.
U Srbiji, gde je istorija i dalje bolna tema – od Drugog svetskog rata do devedesetih – ovo ima poseban značaj. Zamislite da AI generiše lažni dnevnik iz logora Jasenovac, ili video snimak sa Kosova 1999. godine koji prikazuje događaje koji se nisu desili. Prema izveštaju Diplo Foundation iz decembra 2025, deepfakes su već iskorišćeni u finansijskim prevarama, ali implikacije za diplomatiju i istorijsko pamćenje su još gore: „Kada audio ili video dokazi mogu biti fabricirani sa minimalnim naporom, poverenje samo postaje sporno resurs.“ Ovo nije samo teorija; to je realnost koja erodira osnove našeg razumevanja prošlosti.
Još jedan koren problema je u samoj prirodi AI treninga. Modeli poput GPT ili DALL-E trenirani su na ogromnim setovima podataka sa interneta, koji su puni predrasuda i netačnosti. Prema članku u Los Angeles Times-u iz marta 2025, AI generisani video zapisi o Kalifornijskoj zlatnoj groznici mešaju holivudske trope sa istorijskim greškama, stvarajući „haphazard blend“ koji može zbuniti publiku. Ako AI „uči“ iz pristrasnih izvora, kako možemo očekivati da generiše tačnu istoriju? Odgovor: ne možemo. Ovo dovodi do situacije gde prošlost nije samo reinterpretirana, već izmišljena.
Trenutni status: Deepfakes u 2026. godini
U 2026. godini, deepfakes su prestali da budu novost i postali mainstream. Prema Forresterovom izveštaju iz novembra 2025, troškovi na deepfake detection (detekcija dubokih laži) rastu za 40% godišnje, jer pretnja prelazi sa reputacionog oštećenja na direktnu monetizaciju od strane loših aktera. U Sjedinjenim Državama, Deloitte predviđa da će gubici od AI fraud-a, uključujući deepfakes, dostići 40 milijardi dolara do 2027, sa godišnjim rastom od 32%. Ali fokus ovde je na istoriji: AI sada može da kreira „istorijske“ arhive koji izgledaju autentično.
Na X (bivši Twitter), diskusije o ovome su vrele. Jedan post iz maja 2025. od @fakehistoryhunt pokazuje AI generisani video sa promptom „VEO3“, gde se sve – zvuk, vizueli – kreira iz ničega, i upozorava: „Yeah, we’re doomed.“ Drugi korisnik, @martianwyrdlord, kaže da se vraćamo u svet gde je sve osim ličnog iskustva „hearsay“ (glasina), jer video više ne može da se veruje. Ovo odražava širi trend: poverenje u digitalne medije opada. Prema Talker Research iz 2025., skeptizam prema online sadržaju raste zbog AI.
U Evropi, memoriali poput Auschwitz-Birkenau upozoravaju na „AI slop“ – sintetički sadržaj koji izmišlja žrtve Holokausta. U januaru 2026., na Dan sećanja na Holokaust, institucije su potpisale apel za detekciju i označavanje takvog sadržaja. Ovo nije samo o etici; to je o očuvanju istine. U Srbiji, gde se istorija često koristi u političke svrhe, ovo može da dovede do novih sukoba – lažni dokazi o ratovima devedesetih mogli bi da podstaknu mržnju.
Tehnički dubinski pogled: Kako AI falsifikuje istoriju
Sa IT tačke gledišta, deepfakes rade kroz kombinaciju mašinskog učenja (machine learning) i dubokog učenja (deep learning). GAN mreže imaju dva dela: generator koji kreira lažne sadržaje i diskriminator koji ih proverava, dok se ne dostigne savršenstvo. Za istorijske dokumente, AI koristi text-to-image ili text-to-video modele poput Stable Diffusion ili Sora, koji generišu slike na osnovu prompta.
Primer: Ako unesete „Josip Broz Tito u Beogradu 1945. godine, crno-bela slika“, AI može da kreira autentičan izgledajući foto. Ali problem je u detaljima – AI često halucinira, dodajući netačne elemente. Prema Springerovom pregledu iz 2025., izazovi uključuju prepoznavanje deepfakes iz različitih distribucija podataka. Detekcija koristi algoritme poput Isolation Forest za anomalije ili CNN (convolutional neural networks, konvolucione neuronske mreže) za prepoznavanje obrazaca.
Ali ograničenja su velika: AI se trenira na postojećim podacima, koji su pristrasni. Na X, @truthstreamnews ističe da AI optužuje korisnike za širenje dezinformacija kada pokušavaju da generišu sadržaj iz starih knjiga, jer nema online izvora. Ovo pokazuje: AI nije neutralan; on je ogledalo naših digitalnih predrasuda.
Za arhive, blockchain može da pomogne sa watermarking (vodeni žig, nevidljivi markeri za poreklo). Prema New York Times-u, watermarking na novom sadržaju je ključan, ali stari materijali ostaju ranjivi. U budućnosti, hibridni sistemi – AI plus ljudska verifikacija – mogu biti rešenje.
Primeri iz prakse: Gde je AI već izmenio istoriju
Hajde da pogledamo konkretne slučajeve koji pokazuju opasnost.
- Dokumentarni filmovi i deepfakes: U filmu „Welcome to Chechnya“ (2020), deepfakes su korišćeni da zaštite identitete žrtava, sa disclaimer-om. Ali u „Roadrunner“ (2021), AI je generisao glas Anthonyja Bourdaina bez dozvole, izazivajući etičke debate. Prema Taylor & Francis članku iz 2023., ovo dovodi do pitanja: „Zašto bismo verovali dokumentarcu koji koristi deepfakes?“
- Sudski slučajevi: U decembru 2025., u Kaliforniji, tužioci su optuženi za podnošenje AI generisanog video svedočenja. Prema KOMO News, ovo ugrožava sudove, jer „postaje teže verovati dokazima“. Eksperti upozoravaju na „liar’s dividend“ u sudnicama.
- Holokaust memorijali: U januaru 2026., AI generisane slike žrtava – poput fiktivne 13-godišnje devojčice u Auschwitzu – proširile su se online. Apel memoriala traži označavanje sintetičkog sadržaja.
- Akademski radovi: Na X, @Nicole_Lee_Sch deli kako studenti koriste AI da kreiraju lažne citate iz realnih ili izmišljenih knjiga, uništavajući kritičko mišljenje.
- Politički manipulacije: U 2025., Trump je lažno tvrdio da je pravi video „AI generisan“. Ovo pokazuje kako deepfakes omogućavaju odbijanje istine.
Ovi primeri nisu izolovani; oni pokazuju sistemski problem.
Budućnost: Šta nas čeka u 2027. i dalje?
Gledajući unapred, slika budućnosti sa deepfakes nije samo spekulacija – ona je bazirana na brzom napretku tehnologije i trenutnim trendovima koji nas upozoravaju na ozbiljne izazove. Do 2027. godine, prema predikcijama Deloitte Centra za finansijske usluge, gubici od deepfake prevara u Sjedinjenim Državama sami će dostići 40 milijardi dolara, rastući godišnje po stopi od 32% od 12,3 milijarde u 2023. Ovo nije samo brojka; to je znak da će deepfakes postati integralni deo cyber prevara, gde će sintetički audio i video omogućiti kriminalcima da se predstavljaju kao rukovodioci, zaobilaze biometrijsku autentifikaciju i manipulišu finansijskim podacima. Zamislite scenarije gde deepfake video konferencija dovodi do transfera miliona dolara, poput slučaja iz 2024. kada su prevaranti koristili deepfake da oponašaju finansijskog direktora i ukradu 25 miliona dolara. Ovo pokazuje da su deepfakes već prelaze granicu od zabave do ozbiljne ekonomske pretnje.
U skorijoj budućnosti, između 2026. i 2027, očekujemo eksplozivni rast broja deepfakes. Prema izveštajima, broj deljenih deepfake sadržaja na društvenim mrežama skočio je sa 500.000 u 2023. na procenjenih 8 miliona u 2025, a taj trend će se nastaviti, sa dubokim lažima koje će činiti veći deo online sadržaja. Do 2031., prema Gartneru, proliferacija manipulisanog sadržaja će stvoriti značajne izazove za održavanje javnog poverenja, sa mogućim ishodima poput povećane skeptičnosti prema svim digitalnim medijima. U tom periodu, detekcija deepfakes će postati prioritet, sa troškovima za detekciju koji rastu 40% godišnje. Međutim, izazovi ostaju: trenutni algoritmi za detekciju, poput onih baziranih na CNN ili Isolation Forest, bore se sa generalizacijom preko različitih setova podataka i sa adversarial robustness (otpornošću na napade), što znači da će napadači uvek biti korak ispred. U Srbiji, gde su društvene mreže ključne za političku komunikaciju, ovo bi moglo da dovede do pojačanih kampanja dezinformacija tokom izbora, sličnih onima koje su već viđene globalno, poput deepfakes u izborima 2024. godine.
Što se tiče regulacija, Evropska unija će do avgusta 2026. u potpunosti implementirati AI Act, koji zahteva jasno označavanje AI-generisanog ili manipulisanog medija, osim u umetničkim ili novinarskim svrhama. Ovo će biti model za druge zemlje, uključujući Srbiju, koja bi mogla da usvoji slične zakone kroz usklađivanje sa EU standardima. Ali, provokativno rečeno, regulacije neće zaustaviti napredak – deepfakes će se razvijati sa poboljšanjima u generativnim modelima poput diffusion models i ensemble learning, omogućavajući stvaranje multimodalnih deepfakes (kombinacija video, audio i teksta) koji će biti još teže detektovati. Do 2027, očekujemo da će se pojaviti hibridni sistemi detekcije, kombinujući AI sa ljudskom verifikacijom, ali sa troškovima koji će opteretiti manje institucije poput muzeja ili arhiva.
U daljoj budućnosti, posle 2030., situacija postaje još kompleksnija. Prema prognozama, do 2031. većina video sadržaja na internetu mogla bi biti veštački generisana, prema izveštajima iz Deeptrace Labs. Ovo će zahtevati prelazak na napredne tehnologije poput quantum authentication (kvantne autentifikacije) ili sledeće generacije verifikacije, gde će blockchain igrati ključnu ulogu u praćenju porekla sadržaja. Ali, šta ako vlade ili korporacije iskoriste ovo za revizionizam istorije? Na primer, u kontekstu nacionalne bezbednosti, deepfakes bi mogli da se koriste za manipulaciju diplomatijom ili javnim mišljenjem, kao što je predviđeno u izveštajima Recorded Future o deepfakes u globalnim izborima. U Srbiji, ovo bi moglo da utiče na nacionalni identitet, sa lažnim arhivima o istorijskim događajima koji bi se koristili u političkim debatama. Ako ne razvijemo globalne standarde, deepfakes bi mogli da dovedu do „post-istine“ ere, gde je prošlost potpuno fluidna, a poverenje u institucije minimalno. Međutim, postoji i svetla strana: deepfakes bi mogli da se koriste pozitivno, u obrazovanju za simulaciju istorijskih događaja ili u medicini za generisanje podataka za trening. Ključ je u balansu – inovacije moraju ići ruku pod ruku sa etičkim smernicama i tehnološkim odbranama. Ako ne delujemo, rizikujemo da istorija postane samo još jedna manipulativna alatka u rukama moćnih.
Filozofske implikacije: Redefinisanje istine
Ova tema nije samo tehnička; ona duboko prodire u srž filozofije, postavljajući pitanja o prirodi istine, znanja i realnosti. Deepfakes ne samo da uvode laži u naš svet – oni erodiraju same mehanizme kojima društva konstruišu zajedničko razumevanje. Prema UNESCO-vom izveštaju iz 2025., deepfakes ne predstavljaju samo krizu dezinformacija, već krizu znanja (epistemološka kriza), gde se granica između stvarnog i sintetičkog zamagljuje do te mere da postaje teško uspostaviti istinu. Zamislite svet gde više ne možemo da verujemo sopstvenim očima – video koji izgleda autentično, ali nije, dovodi do „liar’s dividend“ (lažovog dividenda), gde se čak i istiniti dokazi mogu odbaciti kao lažni. Ovo nije novo; filozofija je vekovima razmatrala skeptične scenarije, poput Descartesovog „zlog demona“ koji nas vara, ali deepfakes čine to realnim i svakodnevnim.
Sa epistemološke tačke gledišta, deepfakes smanjuju količinu informacija koje video nosi gledaocu, prema analizi Briana Skyrmsa. Ranije, video je bio „epistemički backstop“ – autoritativni dokaz protiv kojeg se proveravaju tvrdnje. Sada, sa deepfakes, ta funkcija slabi, što dovodi do erozije poverenja u sve digitalne medije. Filozofkinja Regina Rini upozorava da će ovo omogućiti da se laži šire brže, jer će debunkovanje trajati duže, a javna borba oko istine će biti sama po sebi problematična. U kontekstu istorije, ovo znači da bi deepfakes mogli da omoguće revizionizam na masovnom nivou – lažni snimci holokausta ili ratova bi mogli da se koriste za širenje mržnje, slično kako su lažne „Protokoli sionskih mudraca“ hranili antisemitizam vekovima.
Provokativno, deepfakes nisu inherentno zli – oni su moralno sumnjivi, ali ne i pogrešni po sebi, prema nekim analizama. Mogu da se koriste za dobro, poput zaštite identiteta u dokumentarcima ili istraživanja alternativnih istorija, kao u MIT-ovom filmu „In Event of Moon Disaster“. Međutim, njihova duplicitetnost koreni se u našoj kulturi vizuelne etike, gde verujemo onome što vidimo, uprkos istorijskim primerima prevare. U Srbiji, gde je istorija još uvek živa rana, ovo bi moglo da dovede do novih podele – lažni arhivi o Drugom svetskom ratu ili devedesetim bi mogli da podstaknu etničke tenzije, erodirajući društveni kohezioni faktor.
Na dubljem nivou, deepfakes nas teraju da preispitamo pojam istine. Prema Brookings Institution, oni čine istinu „eluzivnom“, jer više ne možemo da razlikujemo fikciju od fakta. Ovo dovodi do „truth decay“ (propadanja istine), gde koristi imaju samo demagozi i anarhisti. Filozofski, ovo liči na Platonovu alegoriju pećine – deepfakes su senke koje nas drže u iluziji, sprečavajući nas da vidimo pravu realnost. Ali, postoji i optimizam: neki veruju da deepfakes neće izazvati apokalipsu, jer su slični postojećim skeptičnim brigama u filozofiji, i da će društvo razviti otpornost. Ključ je u obrazovanju – ne samo u detekciji, već u razumevanju kako se istina konstruiše u AI-medijiranom svetu. Ako ne redefinišemo istinu, rizikujemo društvo gde je svaka prošlost pod sumnjom, a budućnost bazirana na lažima. Ovo nije samo filozofska vežba; to je poziv na akciju da sačuvamo srž onoga što nas čini ljudima – potragu za istinom.
Vreme za akciju protiv digitalne laži
Na kraju ove duboke analize, ne možemo a da ne postavimo oštra pitanja koja nas sve tište. Da li smo zaista spremni da prihvatimo svet u kojem AI može da izbriše ili izmisli prošlost, ostavljajući nas bez sidra u realnosti? Ili ćemo nastaviti da budemo žrtve korporativnih giganta koji profitiraju od naših podataka, dok deepfakes erodiraju poverenje u sve – od sudskih dokaza do istorijskih arhiva? Ovo nije samo tehnička kriza; to je egzistencijalna pretnja. Zamislite svet gde vaši unuci ne mogu da veruju ni u jednu sliku iz Drugog svetskog rata, jer „mogla je biti AI generisana“. Ali budimo iskreni: platforme poput OpenAI ili Meta neće rešiti ovo same – one žive od podataka, a mi smo samo resurs. Ako ne uvedemo stroge regulacije, poput obaveznog watermarking-a i AI detekcije, rizikujemo da postanemo društvo bez istine, gde je svaka prošlost upitna.
Provokativno rečeno, zašto bismo dozvolili da nas AI pretvori u sumnjičave skeptike, zaključane u večitom sumnji? Danas, sa rastom deepfakes u 2026., cancel culture i politička manipulacija cveta na lažnim dokazima, a korporacije se smeju sve do banke. Ako ne reagujemo, gubitak poverenja neće biti samo u medijima – to će biti u nama samima. Ali šta ako uvedemo promene? Hoće li to značiti gubitak inovacija, ili upravo spas za našu kolektivnu memoriju? Psiholozi nas uče da poverenje nije samo emocija; to je osnova društva. U Srbiji, gde se istorija još uvek koristi za podele, ova tehnologija može da izazove nove sukobe, od lažnih dokaza o ratovima do revizionizma u obrazovanju.
Gledajući u budućnost, ako regulatorni pritisci poput EU AI Act-a postanu stroži do 2027., možda ćemo videti prve korake ka rešenju – decentralizovane arhive sa blockchain-om, gde je svaki dokument verifikovan. Zamislite da do 2030. deepfake detekcija postane standard, gde AI algoritmi ne samo detektuju već i predviđaju manipulacije, oslobađajući nas za očuvanje istine. Ali rizik: Šta ako to dovede do cenzure, gde vlade manipulišu verifikacijom da kontrolišu narativ? Ovo je dvosekli mač: inovacija nasuprot integriteta. Ako ne delujemo sada, rizikujemo da naši potomci naslede svet u kojem je prošlost fluidna, a istina – luksuz.
Ovaj tekst nije samo za čitanje – on je poziv na akciju. Podelite ga na društvenim mrežama, razgovarajte sa prijateljima, pokrenite debatu na forumima. Stručnjaci iz IT-a i istorije, koristite ga kao referencu; podaci su bazirani na najsvežijim izvorima iz 2025. i 2026. godine. Na kraju krajeva, da li ćete dozvoliti da AI definiše vašu prošlost, ili ćete zahtevati pravo na istinu? Vreme je da biramo: očuvanje ili haos. Ako ne promenimo ovo sada, možda nikad nećemo imati šansu da verujemo u ono što vidimo – jer prošlost će nas uvek vući u sumnju. Šta vi mislite? Podignite glas, jer tišina znači poraz.



