Godinama se o njemu šaputalo, mesecima pregovaralo, a sada je postao realnost. Evropska unija je usvojila Akt o veštačkoj inteligenciji (AI Act), prvi sveobuhvatni pravni okvir na svetu koji pokušava da ukroti „divljeg konja“ moderne tehnologije – veštačku inteligenciju. Ovaj dokument nije samo birokratska vežba; to je geopolitička izjava, pokušaj definisanja globalnih standarda i, za mnoge u IT industriji, potencijalna noćna mora usklađenosti.
Dok se mastilo na ovom istorijskom dokumentu još suši, IT zajednica širom sveta, od Silicijumske doline do tehnoloških parkova u Beogradu i Novom Sadu, pokušava da dešifruje šta nova pravila znače u praksi. Da li je ovo kraj brze inovacije „lomljenja stvari“ (move fast and break things)? Da li Evropa puca sebi u nogu preteranom regulacijom? I najvažnije za nas – gde se u toj novoj, regulisanoj mapi sveta nalazi Srbija, zemlja koja nije u EU, ali čija je IT industrija pupčanom vrpcom vezana za evropsko tržište?
Ova analiza zaranja duboko u srž AI Act-a, ne samo prepričavajući njegove odredbe, već tražeći odgovore na pitanja koja muče inženjere, osnivače startapa i direktore kompanija. Rasekli smo ovaj kompleksni zakon na razumljive delove, analizirali „zabranjene zone“ i pokušali da predvidimo budućnost razvoja AI-a u Evropi i na Balkanu.
Anatomija Zakona: Pristup zasnovan na riziku (Risk-Based Approach)
Evropski zakonodavci nisu pokušali da regulišu AI kao monolitnu tehnologiju. Umesto toga, usvojili su pragmatičan pristup zasnovan na riziku. Osnovna ideja je jednostavna: što je veći potencijalni rizik koji AI sistem predstavlja po zdravlje, bezbednost ili osnovna ljudska prava građana, to su stroža pravila koja se na njega primenjuju.
Ovaj pristup deli AI sisteme u četiri kategorije, stvarajući piramidu regulative:
1. Neprihvatljiv rizik (Zabranjene prakse)
Na vrhu piramide su sistemi koji se smatraju toliko opasnim da su u potpunosti zabranjeni u EU. Ovo je „crvena linija“ preko koje se ne sme preći. (Detaljnije o ovome u nastavku).
2. Visok rizik (High-Risk)
Ovo je najkritičnija kategorija za IT industriju. Ovde spadaju sistemi koji nisu zabranjeni, ali imaju značajan uticaj na živote ljudi. Primeri uključuju:
-
AI u medicinskim uređajima: Algoritmi za dijagnostiku bolesti ili asistenciju u hirurgiji.
-
Kritična infrastruktura: AI koji upravlja energetskim mrežama, vodosnabdevanjem ili saobraćajem.
-
Zapošljavanje i HR: Alati za automatsko filtriranje CV-jeva, rangiranje kandidata ili praćenje performansi zaposlenih.
-
Obrazovanje: Sistemi za ocenjivanje učenika ili određivanje pristupa obrazovanju.
-
Sprovođenje zakona i pravosuđe: Alati za procenu rizika od ponavljanja krivičnog dela, analizu dokaza ili pomoć sudijama u donošenju odluka.
-
Biometrijska identifikacija: U određenim, strogo kontrolisanim slučajevima.
Za ove sisteme, AI Act uvodi drakonske zahteve:
-
Obavezna procena usklađenosti (Conformity Assessment) pre izlaska na tržište.
-
Visok kvalitet podataka na kojima se modeli treniraju, kako bi se izbegla pristrasnost (bias) i diskriminacija.
-
Detaljna tehnička dokumentacija i vođenje evidencije o radu sistema (logging).
-
Transparentnost prema korisnicima: Ljudi moraju znati da komuniciraju sa AI-em ili da se odluka o njima donosi uz pomoć AI-a.
-
Ljudski nadzor (Human-in-the-loop): Mora postojati mogućnost da čovek interveniše ili preinači odluku AI sistema.
-
Robustnost, tačnost i sajber bezbednost: Sistemi moraju biti otporni na greške i napade.
Za IT kompanije, ovo znači drastično povećanje troškova razvoja i duže vreme izlaska na tržište (time-to-market).
3. Ograničen rizik (Limited Risk)
Ovde spadaju sistemi sa manjim potencijalom za štetu, poput chatbotova (npr. za korisničku podršku), sistema za generisanje sadržaja (npr. midjourney za slike) ili „deepfake“ tehnologije. Glavni zahtev ovde je transparentnost. Korisnik mora biti jasno obavešten da interaguje sa mašinom, a sadržaj generisan AI-em (posebno deepfake) mora biti jasno označen.
4. Minimalan rizik (Minimal Risk)
Ovo je najšira kategorija koja obuhvata većinu AI aplikacija koje danas koristimo – od filtera za spam u emailu, preko preporuka filmova na Netflixu, do AI protivnika u video igrama. Za ove sisteme se ne uvode nova, stroga pravila, ali se preporučuje usvajanje dobrovoljnih kodeksa ponašanja.
Crvena Zona: Šta je EU definitivno zabranila?
Deo zakona koji je izazvao najviše debate (i lobiranja) odnosi se na zabranjene prakse. Ove zabrane direktno ciljaju na scenarije iz distopijskih romana, ali i na neke prakse koje su već uveliko u upotrebi u drugim delovima sveta (npr. Kini ili SAD-u).
Šta se ukida nakon prelaznog perioda od šest meseci?
-
Biometrijska kategorizacija na osnovu osetljivih karakteristika: Zabranjeno je korišćenje AI sistema koji analiziraju biometrijske podatke (lice, glas, hod) kako bi ljude svrstavali u kategorije na osnovu političkih uverenja, religije, filozofskih stavova, rase ili seksualne orijentacije. Ovo je direktan udar na potencijalnu masovnu diskriminaciju.
-
„Struganje“ (Scraping) lica sa interneta: Zabranjeno je neselektivno prikupljanje fotografija lica sa društvenih mreža ili snimaka sa CCTV kamera radi kreiranja baza podataka za prepoznavanje lica (poput onoga što je radila kontroverzna kompanija Clearview AI).
-
Prepoznavanje emocija na radnom mestu i u školama: Ideja da AI kamera prati da li je radnik „dovoljno srećan“ ili učenik „dovoljno fokusiran“ je odbačena kao duboko narušavanje privatnosti i ljudskog dostojanstva.
-
Društveno bodovanje (Social Scoring): Eksplicitno je zabranjen sistem sličan onome u Kini, gde država ili privatne kompanije boduju građane na osnovu njihovog društvenog ponašanja, što dovodi do privilegija ili kazni.
-
Manipulativni AI (Subliminalne tehnike): Zabranjeni su sistemi koji koriste tehnike koje utiču na podsvest osobe ili eksploatišu ranjivosti (npr. kod dece ili osoba sa invaliditetom) kako bi ih naveli na ponašanje koje im može naneti štetu.
-
Prediktivno policijsko delovanje (Predictive Policing): Zabranjeno je korišćenje AI-a za predviđanje ko će počiniti zločin isključivo na osnovu profilisanja ili procene osobina ličnosti. Ovo je ključno za sprečavanje diskriminacije manjinskih grupa koje su često meta ovakvih sistema zbog pristrasnih istorijskih podataka.
Izuzetak koji potvrđuje pravilo: Biometrija u realnom vremenu
Jedna od najžešćih bitaka vodila se oko upotrebe daljinske biometrijske identifikacije (npr. prepoznavanje lica) u realnom vremenu na javnim mestima od strane policije.
Konačni dogovor je kompromis: generalno je zabranjeno, ali su dozvoljeni strogi izuzeci u hitnim situacijama, i to samo uz prethodno odobrenje suda ili nezavisnog administrativnog tela. Ti izuzeci su:
-
Ciljana potraga za nestalim osobama (npr. decom) ili žrtvama otmice.
-
Sprečavanje neposredne terorističke pretnje.
-
Lociranje ili identifikacija osumnjičenih za teška krivična dela (poput terorizma, trgovine ljudima, ubistva, silovanja).
Čak i u ovim slučajevima, upotreba mora biti vremenski i prostorno ograničena na ono što je apsolutno neophodno. Mnoge organizacije za ljudska prava i dalje kritikuju ove izuzetke, smatrajući ih „odškrinutim vratima“ za masovni nadzor.
„General-Purpose AI“ (GPAI): Kako ukrotiti ChatGPT?
Originalni nacrt AI Act-a nije predvideo eksploziju generativne veštačke inteligencije (poput ChatGPT-a, DALL-E-a, Midjourney-a) koja se desila krajem 2022. godine. Zakonodavci su morali hitno da reaguju i dodaju nova pravila za AI sisteme opšte namene (General-Purpose AI – GPAI).
Ovi modeli su problematični jer nemaju jednu specifičnu namenu. Oni su „švajcarski nož“ koji se može koristiti za pisanje pesama, ali i za pisanje malicioznog koda, širenje dezinformacija ili kreiranje „deepfake“ pornografije.
AI Act uvodi dvostruki režim za GPAI modele:
1. Osnovni GPAI modeli
Svi provajderi GPAI modela (uključujući i open-source modele, uz određene izuzetke) moraju poštovati osnovna pravila:
-
Transparentnost: Moraju obezbediti tehničku dokumentaciju o modelu.
-
Poštovanje autorskih prava: Moraju se pridržavati zakona EU o autorskim pravima, posebno kada je reč o podacima korišćenim za trening (što je ogromno minsko polje za kompanije poput OpenAI-a i Google-a).
-
Javni sažetak podataka: Moraju objaviti detaljan sažetak sadržaja korišćenog za obuku modela.
2. GPAI modeli sa „sistemskim rizikom“
Ovo se odnosi na najmoćnije modele (trenutno definisane kao oni čija je računarska snaga za trening prešla određeni prag – 10^25 FLOPs, poput GPT-4 ili Google Gemini Ultra). Za njih važe dodatna, stroža pravila:
-
Procena modela (Model Evaluation): Obavezno testiranje i evaluacija modela kako bi se identifikovali i ublažili sistemski rizici (npr. rizik od generisanja uputstava za pravljenje biološkog oružja, sajber napada ili masovnih dezinformacija).
-
Adversarial Testing (Red Teaming): Sprovođenje testova gde timovi stručnjaka pokušavaju da „provale“ model i nateraju ga da uradi nešto loše.
-
Izveštavanje o incidentima: Obavezno prijavljivanje ozbiljnih incidenata Evropskoj komisiji.
-
Sajber bezbednost: Obezbeđivanje adekvatnog nivoa zaštite modela i njegove infrastrukture.
Gde smo tu mi? Srbija i AI Act
Srbija nije članica Evropske unije. Formalno-pravno, AI Act se ne primenjuje direktno na teritoriji Srbije. Mogli bismo pomisliti: „Sjajno, mi smo ostrvo slobode, možemo da inoviramo bez briselskih stega!“
Realnost je, međutim, mnogo komplikovanija. Zahvaljujući fenomenu poznatom kao „Briselski efekat“ (The Brussels Effect), evropska regulativa često postaje de facto globalni standard.
Evo kako AI Act direktno utiče na srpski IT sektor:
1. Eksteritorijalnost: Zakon vas prati
Ključna odredba AI Act-a je njegova eksteritorijalna primena. Zakon se primenjuje na svaku kompaniju, bez obzira gde joj je sedište, ako:
-
Stavlja svoj AI sistem na tržište EU.
-
Pruža uslugu zasnovanu na AI sistemu korisnicima u EU.
-
Rezultati (output) njenog AI sistema se koriste u EU.
To znači: Ako srpski startap iz Novog Sada razvije AI rešenje za HR (koje spada u visokorizične sisteme) i želi da ga proda kompaniji u Nemačkoj, taj sistem mora biti u potpunosti usklađen sa AI Act-om. Nema prečica.
2. Lanac snabdevanja (Supply Chain)
Čak i ako ne prodajete direktno u EU, možda ste deo lanca snabdevanja evropske kompanije. Ako razvijate komponentu koja se integriše u veći, visokorizični AI sistem nemačke firme, ta firma će od vas zahtevati (ugovorno) da vaša komponenta ispunjava određene standarde kako bi oni mogli da ispune svoje obaveze prema AI Act-u. Usklađenost se „preliva“ niz lanac dobavljača.
3. Konkurentska prednost ili mana?
Ovo je mač sa dve oštrice.
-
Mana: Srpske kompanije, posebno manji startapi, suočiće se sa istim visokim troškovima usklađivanja (pravnici, konsultanti, testiranje, dokumentacija) kao i njihovi EU konkurenti, ali bez istog pristupa EU fondovima i podršci (poput „regulatornih peskarnika“ – regulatory sandboxes). Ovo može biti ozbiljna barijera za ulazak na tržište.
-
Prednost (za one koji se snađu): Kompanije koje prve shvate pravila i izgrade proizvode koji su „AI Act compliant by design“ imaće ogromnu prednost. Mogu se pozicionirati kao pouzdani partneri za evropske klijente koji traže bezbedna rešenja. Može se razviti i cela nova niša konsultantskih i tehničkih usluga u Srbiji specijalizovanih za pomaganje drugima da se usklade sa AI Act-om.
4. Domaće zakonodavstvo: Usklađivanje je neminovno
Kao zemlja kandidat za članstvo u EU, Srbija ima obavezu usklađivanja svog zakonodavstva sa pravnim tekovinama EU. Pitanje nije da li će Srbija usvojiti sličan zakon, već kada. Vlada Srbije je već usvojila Etičke smernice za razvoj i upotrebu AI, što je prvi korak. Očekuje se da će domaći zakon u velikoj meri „prepisati“ evropski AI Act, možda uz manja prilagođavanja. IT zajednica u Srbiji mora biti aktivno uključena u proces javne rasprave kada do toga dođe, kako bi se osiguralo da lokalna implementacija bude sprovodiva i da ne uguši domaću inovaciju nepotrebnim birokratskim teretom.
Nova era je počela, vreme je za adaptaciju
Usvajanjem AI Act-a, Evropa je povukla potez koji će redefinisati globalno tehnološko igralište. Završena je era „divljeg zapada“ u razvoju veštačke inteligencije. Ulazimo u eru gde se inovacija mora kretati unutar definisanih etičkih i bezbednosnih granica.
Za neke je ovo kraj sna o neograničenom tehnološkom napretku i početak birokratske noćne more koja će Evropu pretvoriti u tehnološki muzej. Za druge, ovo je neophodan korak ka izgradnji „odgovornog AI-a“ (Trustworthy AI), jedine vrste AI-a koju će društvo dugoročno prihvatiti i koja neće ugroziti temeljne demokratske vrednosti.
Za IT sektor u Srbiji, poruka je jasna: ignorisanje AI Act-a nije opcija. On je tu i njegova gravitacija se već oseća. Pobednici će biti oni koji ne čekaju, već proaktivno uče, prilagođavaju svoje procese razvoja (npr. uvođenjem MLOps praksi koje podržavaju zahteve za dokumentacijom i testiranjem) i strateški se pozicioniraju za tržište koje sada zahteva ne samo pametne, već i bezbedne i zakonite algoritme. Vreme za pripremu je sada. Sat otkucava.



