Zamislite tri naizgled nepovezane scene koje se upravo sada odvijaju u našoj zemlji.
- Scena prva, Beograd: Mladi bračni par sa uzbuđenjem aplicira za svoj prvi stambeni kredit. Nekoliko minuta kasnije, stiže automatski generisan imejl: „Vaš zahtev je odbijen.“ Nema objašnjenja. Nema kontakta. Iza hladne poruke stoji algoritam koji je analizirao stotine parametara – od njihove kreditne istorije do poštanskog broja ulice u kojoj žive. Da li su odbijeni zato što AI smatra njihov kraj „rizičnim“? Imaju li pravo da znaju? Ko je odgovoran?
- Scena druga, Novi Sad: Uspešna marketinška agencija za svog klijenta, poznati brend vina, generiše seriju prelepih slika vinograda na Fruškoj gori koristeći AI alat poput Midjourney-ja. Kampanja je uspešna. Mesec dana kasnije, agenciji stiže tužba. Poznati fotograf tvrdi da je AI besramno iskopirao njegov prepoznatljiv, sanjivi stil fotografisanja pejzaža, stil koji je gradio decenijama. Ko je u pravu? Ko je vlasnik AI slike? Da li mašina može da počini plagijat?
- Scena treća, Kragujevac: U lokalnom domu zdravlja, preopterećeni lekar koristi novi AI softver za trijažu pacijenata. Na osnovu simptoma koje je unela medicinska sestra, algoritam sugeriše da pacijent sa bolom u grudima verovatno ima anksiozni napad. Lekar se oslanja na preporuku. Kasnije se ispostavlja da je pacijent imao početak srčanog udara. Ko je kriv? Programer koji je stvorio algoritam? Kompanija koja ga je prodala? Dom zdravlja koji ga je implementirao? Ili lekar koji je verovao mašini?
Ovo nisu hipotetički scenariji iz budućnosti. Ovo su realni pravni i etički košmari koji postaju naša svakodnevica. Veštačka inteligencija je tiho, ali munjevito, prodrla u sve pore našeg društva, donoseći neverovatnu efikasnost i napredak. Ali, istovremeno je otvorila i Pandorinu kutiju pitanja na koja naši postojeći zakoni i moralni kompasi jedva da imaju odgovor.
Dok se divimo sposobnosti mašina da pišu, slikaju i razmišljaju, moramo postaviti teža pitanja. Gde se povlači linija? Ko snosi odgovornost kada algoritam pogreši? I kako da osiguramo da ova moćna tehnologija služi čovečanstvu, a ne da ga potkrada, diskriminiše ili obmanjuje?
Ovaj tekst nije namenjen samo pravnicima i inženjerima. Namenjen je svima nama – građanima, preduzetnicima, umetnicima, roditeljima. Jer odluke koje donose algoritmi već sada utiču na naše živote, a regulatorni i etički okvir koji gradimo danas definisaće društvo u kojem ćemo živeti sutra. Zaronimo duboko u ovo minsko polje, bez straha, ali sa velikom dozom opreza.
Poglavlje 1: Zašto je AI pravno i etičko minsko polje?
Problem sa veštačkom inteligencijom je što ona funkcioniše na način koji je fundamentalno stran našim tradicionalnim pravnim sistemima. Naši zakoni su građeni vekovima oko koncepta ljudskog delovanja, namere i odgovornosti. A onda se pojavio AI, koji donosi odluke:
- Brzinom svetlosti: AI može doneti milione odluka u sekundi, stvarajući štetu ili korist na masovnoj skali pre nego što čovek uopšte primeti.
- Bez jasne „namere“: Da li algoritam može da ima „nameru“ da nekoga diskriminiše? Ne u ljudskom smislu. On samo prati matematičke obrasce u podacima na kojima je treniran.
- Kao „crna kutija“: Kod najnaprednijih AI modela (tzv. „deep learning“), čak ni njihovi tvorci ne mogu u potpunosti da objasne zašto je doneta baš određena odluka. Algoritam je naučio sam, a proces zaključivanja je skriven u kompleksnoj mreži miliona parametara.
Ovo stvara vrtlog problema koji se mogu svesti na četiri ključna izazova:
- Odgovornost: Ko je kriv kada autonomno vozilo izazove nesreću? Vlasnik? Proizvođač automobila? Softverska kompanija koja je napravila AI? Onaj ko je prikupljao podatke za trening?
- Privatnost: AI sistemi su gladni podataka. Da bi funkcionisali, moraju da analiziraju ogromne količine informacija, često uključujući i naše lične podatke. Kako to regulisati?
- Pristrasnost (Bias): AI je ogledalo podataka na kojima uči. Ako ga treniramo na istorijskim podacima punim ljudskih predrasuda, AI će te predrasude ne samo usvojiti, već i pojačati, stvarajući sistemsku, automatizovanu diskriminaciju.
- Transparentnost: Ako ne znamo kako algoritam donosi odluke, kako možemo da mu verujemo? Kako možemo da se žalimo na odluku koju ne razumemo?
Na ova pitanja, svet tek počinje da traži odgovore. A Srbija, kao zemlja koja teži da postane deo Evropske unije, svoj put mora da traži u skladu sa standardima koji se postavljaju u Briselu.
Poglavlje 2: Pravni okvir – Usklađivanje sa Evropom kao jedini put
Zaboravite na ideju da će Srbija pisati svoje, jedinstvene AI zakone iz temelja. U globalizovanom digitalnom svetu, a posebno za zemlju kandidata za članstvo u EU, jedini logičan i održiv put je harmonizacija sa evropskim zakonodavstvom. U oblasti AI, to znači jednu stvar: EU Akt o veštačkoj inteligenciji (EU AI Act).
Ovaj Akt, koji je u procesu finalizacije i primene, predstavlja najambiciozniji pokušaj na svetu da se sveobuhvatno reguliše AI. Njegova osnovna ideja je genijalno jednostavna: ne reguliše se tehnologija kao takva, već nivo rizika njene primene.
Razumevanje EU Akta o AI: Pristup zasnovan na riziku
Evropski zakonodavci su podelili sve AI sisteme u četiri kategorije rizika, kao na semaforu:
1. Nedopustiv rizik (Crveno svetlo – ZABRANJENO): Ovo su AI sistemi koji se smatraju previše opasnim za demokratska društva i ljudska prava. Njihova upotreba će biti potpuno zabranjena. U ovu kategoriju spadaju: * Sistemi za „društveno bodovanje“ (social scoring) od strane države, poput onih u Kini. * AI koji koristi subliminalne tehnike da manipuliše ljudskim ponašanjem i nanese štetu. * Masovni biometrijski nadzor u realnom vremenu na javnim mestima od strane policije (sa vrlo malo izuzetaka, npr. potraga za žrtvama otmice).
2. Visok rizik (Žuto svetlo – STROGA PRAVILA): Ovo je najvažnija kategorija i odnosi se na AI sisteme čiji bi kvar ili pogrešan rad mogao da ima ozbiljne posledice po bezbednost, zdravlje ili fundamentalna prava ljudi. Kompanija u Srbiji koja razvija ili koristi ovakav sistem moraće da ispuni rigorozne uslove. Primeri visokorizičnih sistema su: * AI u medicinskim uređajima (npr. softver za dijagnostiku raka). * AI koji upravlja kritičnom infrastrukturom (energetske mreže, saobraćaj). * AI u obrazovanju (npr. softver za ocenjivanje ispita ili upis na fakultet). * AI u zapošljavanju (softver za selekciju biografija, procenu kandidata). * AI u kreditiranju (algoritmi za procenu kreditne sposobnosti – naš primer sa početka). * AI u pravosuđu i policiji (procena rizika od ponavljanja krivičnog dela, prepoznavanje lica).
Šta to znači za firmu u Nišu koja pravi AI za zapošljavanje? Moraće da ima: sistem za upravljanje rizikom, detaljnu tehničku dokumentaciju, logovanje svake odluke, ljudski nadzor i visok nivo sajber bezbednosti. Ukratko, ogroman teret odgovornosti.
3. Ograničen rizik (Zeleno svetlo – OBAVEZA TRANSPARENTNOSTI): Ovde spadaju sistemi gde je ključno da korisnik zna da interaguje sa mašinom. * Četbotovi: Moraju jasno da naznače da su AI. * Deepfake sadržaj: Mora biti označen kao veštački generisan. * Generatori teksta/slika: Moraju obavestiti korisnika da je sadržaj kreiran od strane AI.
4. Minimalan rizik (Slobodan prolaz): Ogromna većina AI aplikacija spada ovde. To su spam filteri, AI u video igrama, preporuke na Netflixu, itd. Za njih ne postoje posebne obaveze.
Ovaj Akt će, kada Srbija uskladi svoje zakone, direktno uticati na svaku domaću kompaniju koja razvija ili koristi AI. To više nije apstraktna preporuka, već postavljanje jasnih i obavezujućih pravila igre.
GDPR i naš Zakon o zaštiti podataka o ličnosti (ZZPL)
Pre nego što je AI postao glavna tema, dobili smo GDPR, odnosno njegovu srpsku verziju – ZZPL. Ovaj zakon je već sada izuzetno relevantan za AI. Svaki AI sistem koji za svoj rad koristi bilo kakve lične podatke (ime, JMBG, lokacija, IP adresa, biometrijski podaci) mora da poštuje principe ZZPL-a.
Ključna tačka je član 37. ZZPL-a, koji se odnosi na automatizovano pojedinačno odlučivanje. On kaže da građanin ima pravo da „ne bude predmet odluke donete isključivo na osnovu automatizovane obrade… ako ta odluka proizvodi pravne posledice po njega ili na sličan način značajno utiče na njegov položaj.“
Vratimo se na naš par odbijen za kredit. Po ovom članu, oni imaju pravo da zahtevaju da njihovu aplikaciju pregleda živi službenik, a ne samo algoritam. Takođe imaju pravo da dobiju smisleno objašnjenje o logici koja stoji iza odluke. Upravo tu leži problem „crne kutije“ – da li banka tehnički može da pruži to objašnjenje? ZZPL kaže da mora.
Autorska prava: Digitalni Divlji zapad
Ovo je verovatno najkompleksnija i trenutno najmanje rešena pravna oblast. Postoje dva fundamentalna pitanja:
1. Legalnost trening podataka: Da li je kompanija OpenAI prekršila autorska prava svih nas kada je „pročitala“ ceo internet, uključujući naše blogove, slike i knjige, kako bi trenirala ChatGPT i DALL-E? Umetnici i izdavači širom sveta (uključujući New York Times) pokrenuli su tužbe tvrdeći da jeste. Tehnološke kompanije se brane konceptom „fer upotrebe“ (fair use) za potrebe istraživanja. Presude u ovim slučajevima će oblikovati budućnost AI. Dok se to ne desi, ovo je ogromna siva zona.
2. Vlasništvo nad AI generisanim sadržajem: Ko je autor slike koju ste vi generisali na Midjourney-ju napisavši genijalan prompt? Preovlađujući stav u svetu, recimo u Američkom birou za autorska prava, jeste da ljudsko autorstvo ostaje nezamenljiv uslov za zaštitu. Mašina ne može biti autor. Ako je delo stvorio isključivo AI, ono verovatno spada u javno dobro (public domain) i svako može da ga koristi. Ako ste vi značajno modifikovali, doradili i preradili AI generisanu sliku (npr. u Photoshopu), onda možete tražiti autorsko pravo na taj vaš doprinos, ali ne i na osnovnu sliku.
Za našu marketinšku agenciju iz Novog Sada, to znači da fotograf verovatno ne može da ih tuži za kršenje autorskog prava na stilu (jer stil kao takav nije zaštićen), ali i da agencija verovatno nema ekskluzivno vlasništvo nad slikom koju je generisala i ne može sprečiti konkurenciju da je koristi. Haos, zar ne?
Poglavlje 3: Etika – S one strane zakona
Zakon nam govori šta je dozvoljeno, ali etika nas pita šta je ispravno. I tu stvari postaju još komplikovanije. Zakoni kaskaju za tehnologijom, i u tom vakuumu, naša moralna odgovornost je ogromna.
Algoritamska pristrasnost (Bias): „Đubre na ulazu, đubre na izlazu“
Ovo je najpodmukliji etički problem. AI nema predrasude. On je samo mašina za prepoznavanje obrazaca. Problem je što su naši podaci, naša istorija, prepuni predrasuda.
- Primer za Srbiju: Zamislite da grad Beograd odluči da koristi AI za predviđanje „rizičnih“ zona kriminala kako bi efikasnije rasporedio policijske patrole. Model se trenira na desetogodišnjoj istoriji hapšenja. Ako je policija u prošlosti nesrazmerno više patrolirala i hapsila u siromašnijim naseljima ili naseljima sa romskom populacijom, AI će naučiti taj obrazac. Zaključiće da su ta naselja „opasnija“ i slati još više patrola tamo. To će dovesti do još više hapšenja u tim naseljima, što će dodatno „potvrditi“ AI modelu da je bio u pravu. Stvara se začarani krug diskriminacije, samo što je sada automatizovan, „objektivan“ i skriven iza vela tehnologije.
Isti princip važi za zapošljavanje (ako je AI učen na podacima gde su menadžeri bili samo muškarci, favorizovaće muškarce), kreditiranje i svaku drugu oblast. Borba protiv pristrasnosti zahteva svestan napor da se podaci za trening „očiste“ i da se modeli redovno testiraju na fer i nediskriminatorno postupanje.
Manipulacija i uticaj na društvo
Generativna AI je najmoćniji alat za stvaranje ubeđivog, ali lažnog sadržaja ikada stvoren.
- Deepfakes: Mogućnost stvaranja realističnih video snimaka i audio zapisa gde političari ili javne ličnosti govore stvari koje nikada nisu rekli, predstavlja egzistencijalnu pretnju za demokratiju, posebno u politički polarizovanom društvu kao što je naše.
- Personalizovana propaganda: AI može kreirati hiljade varijacija lažnih vesti, prilagođenih da ciljaju tačno određene demografske grupe na osnovu njihovih strahova i uverenja prikupljenih sa društvenih mreža.
- Erozija poverenja: Kada bilo šta može biti lažirano, kako verovati bilo čemu? Ovo vodi u opštu apatiju i cinizam, gde se istina gubi u moru laži.
Odgovornost platformi (Facebook, TikTok, X) da regulišu ovaj sadržaj je ogromna, ali i naša lična odgovornost da razvijamo medijsku pismenost i kritičko razmišljanje.
Poglavlje 4: Studije slučaja – AI na optuženičkoj klupi
Hajde da se vratimo na naše početne scene i analiziramo ih sa novim znanjem.
- Slučaj 1: Odbijeni kredit u Beogradu. Po EU Aktu o AI, ovaj sistem je visokorizičan. Banka bi morala da ima sistem ljudskog nadzora i da paru, na njihov zahtev, pruži transparentno objašnjenje. Po ZZPL-u, oni već sada imaju pravo da traže da čovek pregleda njihovu aplikaciju. Problem je što mnogi građani ne znaju svoja prava.
- Slučaj 2: AI plagijat u Novom Sadu. Pravno, fotograf je u teškoj poziciji. Teško je dokazati kršenje autorskih prava. Etički, međutim, stvar je jasnija. AI kompanija je iskoristila njegov životni rad bez kompenzacije da bi stvorila proizvod koji mu je direktna konkurencija. Ovo otvara pitanje potrebe za novim modelima licenciranja i kompenzacije za umetnike u doba veštačke inteligencije.
- Slučaj 3: Pogrešna dijagnoza u Kragujevcu. Ovo je najteži slučaj. Po EU Aktu, AI sistem je visokorizičan. Odgovornost je višeslojna.
- Proizvođač softvera: Ima najveću odgovornost. Mora da dokaže da je preduzeo sve mere da smanji rizik, da je model detaljno testiran i da je pružio jasna uputstva o njegovim ograničenjima.
- Dom zdravlja: Ima odgovornost jer je odlučio da koristi taj alat. Da li su adekvatno obučili svoje osoblje? Da li su imali procedure za slučajeve kada AI preporuka deluje sumnjivo?
- Lekar: Zadržava finalnu profesionalnu odgovornost. AI je alat, pomoćnik, a ne zamena za lekarsku procenu. Međutim, ako je lekar preopterećen i sistem je uveden da ubrza rad, može se postaviti pitanje sistemske odgovornosti.
Ovaj slučaj savršeno ilustruje da krivica retko leži na jednom mestu. Odgovornost u doba veštačke inteligencije je često difuzna, podeljena duž celog lanca, od programera do krajnjeg korisnika.
Zaključak: Navigacija bez mape – Kako dalje?
Stojimo na pragu nove ere, a naši pravni i etički kompasi se vrte kao ludi. Zakonodavstvo, po svojoj prirodi tromo, uvek će kaskati za tehnologijom. Čekanje na savršene zakone nije opcija. Šta onda možemo da uradimo?
- Za državu: Prioritet mora biti što brža i kvalitetnija harmonizacija sa EU Aktom o AI. Ali ne samo prepisivanje zakona, već i izgradnja kapaciteta institucija (poput Poverenika) da te zakone sprovode. Potrebno je pokrenuti široku javnu debatu o ovim temama.
- Za kompanije: Ignorisanje etike više nije samo loš PR, već postaje i ogroman poslovni rizik. Kompanije u Srbiji koje razvijaju ili koriste AI moraju hitno da počnu da razmišljaju o „etici po dizajnu“ (ethics by design). To znači ugrađivanje etičkih principa u sam koren razvoja proizvoda, formiranje internih etičkih odbora i usvajanje principa transparentnosti.
- Za pojedince: Moramo biti svesniji i zahtevniji. Moramo znati svoja prava po ZZPL-u. Moramo razvijati kritičko mišljenje da bismo se odbranili od dezinformacija. Moramo postavljati teška pitanja kompanijama čije usluge koristimo.
Tehnologija je samo alat. Čekićem možete sagraditi kuću ili srušiti zid. Veštačka inteligencija je najmoćniji čekić koji je čovečanstvo ikada stvorilo. Kakav svet ćemo njime sagraditi ne zavisi od silicijuma i koda, već od naše mudrosti, naše etike i naše hrabrosti da povučemo crvenu liniju kada je to neophodno.
Budućnost se ne dešava nama. Mi je stvaramo. Svakim algoritmom koji napišemo, svakim podatkom koji podelimo i svakom odlukom koju prepustimo mašini. Vreme je da počnemo da donosimo te odluke svesno.
Kakvo je vaše mišljenje? Koji etički ili pravni aspekt AI vas najviše brine?



