Postoji paradoks koji se razvija usred naše industrije, i malo ko ga gleda direktno u lice. Kompanije su masovno uvele AI coding alate – GitHub Copilot, Cursor, Amazon Q, Claude Code. Brzina isporuke koda je porasla dramatično. Svi su zadovoljni. A onda počinju da se pojavljuju incidenti.
Bezbednosni propusti koje niko nije tražio jer „AI je pisao“. Biblioteke koje ne postoje, koje je AI izmislio, a koje je napadač već registrovao i napunio malverom. Ranjivosti koje nikad ne bi prošle kroz ručni code review, ali su prošle jer je niko sistematski nije tražio. Tehnički dug koji se akumulira tiho i brzo, kao sneg koji ne topi ali se gomila.
Ovo nije teorijski problem. Ovo je problem koji koštao prave kompanije pravi novac – već sada, u 2026. godini.
Šta ćete naći u ovom tekstu:
-
Zašto je AI generisani kod strukturno opasan bez sistematske revizije
-
Ko je AI auditor i zašto je ovo uloga koja je nastala iz nužde, ne iz mode
-
Koliko se zarađuje i kakva je tražnja globalno i u Srbiji
-
Koje veštine su potrebne i kako se postaje AI auditor bez prethodnog iskustva
-
Zašto je ova uloga zapravo savršen ulaz u IT za generaciju koja ulazi u industriju 2026.
-
Šta industrija mora da promeni u načinu na koji misli o QA (quality assurance – kontrola kvaliteta) u doba AI-a
Ako ste junior koji traži upad u industriju koja vam govori da ne zapošljava juniore – čitajte pažljivo. Jer ta ista industrija upravo gradi gomile koda koji niko ne proverava, i desperatno treba ljude koji znaju kako se to radi.
Problem koji je previše velik da se ignoriše
Hajde odmah da razjasnimo zašto ovaj tekst postoji. Nisu to trendovi, ni buzzwords, ni LinkedIn postovi o „poslovima budućnosti“. Ovo je konkretna, izmerena, dokumentovana kriza bezbednosti i kvaliteta koja nastaje direktno iz brzog i nekontrolisanog usvajanja AI alata za pisanje koda.
Veracode, kompanija koja se bavi bezbednošću softvera, sprovela je 2025. godine istraživanje na uzorku od 80 coding zadataka testiranih na 100+ LLM (large language model – veliki jezički model) sistema. Nalaz: 45% AI generisanog koda pada na sigurnosnim testovima i uvodi OWASP Top 10 bezbednosne ranjivosti. Isti Veracode u svom GenAI Code Security izveštaju konstatuje da AI generisani kod sadrži 2,74 puta više ranjivosti od koda kojeg piše čovek.
NYU studija koja je analizirala 1.692 programa generisana kroz GitHub Copilot pokazala je da 40% tih programa sadrži eksploatabilne bezbednosne ranjivosti. Ne potencijalne – eksploatabilne. One koje napadač može odmah da iskoristi.
I tu dolazimo do možda najfascinantnijeg i najzabrinjavajućeg podatka: istraživanje Univerziteta Texas u San Antoniju, Virginia Tech i Univerziteta Oklahoma testiralo je 16 code-generation LLM-ova na uzorku od 576.000 primera koda. Rezultat: 19,7% preporučenih paketa (biblioteka) koje AI sugeriše – ne postoji. Izmišljeni su. I 58% tih izmišljenih paketa ponavlja se konzistentno kroz više upita, što znači da napadač može da ih predregistruje i napuni malverom. Jedna takva izmišljena biblioteka, „huggingface-cli“, preuzeta je više od 30.000 puta u tri meseca – uprkos tome što nije sadržala nikakav kod.
Čitajte taj podatak ponovo. Trideset hiljada preuzimanja paketa koji ne postoji – jer je AI rekao da postoji.
Zašto to niko nije uhvatio
Odgovor je bolan u svojoj jednostavnosti: zato što junior koji je implementirao AI-sugestiju nije znao da proveri. A senior koji je trebalo da uradi code review nije imao vremena – jer je senior sada preopterećen volumenom AI generisanog koda koji stiže na pregled, a koji je 5-10 puta veći nego pre uvođenja AI alata.
Devops.com je krajem 2025. objavio istraživanje čiji su ispitanici – inženjeri i tech lead-ovi – u velikoj meri potvrdili da „AI alati povećavaju blast radius (obim) lošeg koda koji treba da se debuguje i popravlja“. Produkcija koda je porasla. Kvalitet nije pratio isti ritam. Neko mora da zatvori taj jaz.
Urednik koji ne piše, ali garantuje da tekst sme u štampu
Postoji analogija koja savršeno opisuje ono o čemu govorimo – i nije slučajno da dolazi iz sveta koji je već rešio ovaj problem.
U novinama, postoji urednik koji ne piše vesti. Dopisnici pišu. Agencije šalju materijal. Danas – AI generiše sadržaj. Ali nijedna ozbiljna redakcija ne pušta tekst u štampu bez da ga urednik pročita. Urednik proverava: da li su izvori pouzdani? Da li su navodi tačni? Da li postoji pravna odgovornost? Da li tekst može da naudi nekome? Da li je gramatika ispravna i stil konzistentan?
Urednik nije tu da napiše tekst umesto dopisnika. Tu je da garantuje da tekst sme da ide u štampu.
Tačno tu ulogu sada industrija gradi u softverskom inženjerstvu. AI piše kod. Brzo, obilno, 24/7. Ali neko mora da garantuje da taj kod sme da ide u produkciju – da je bezbedan, da ne uvodi ranjivosti, da nema etičke propuste, da je usklađen sa regulativom, da je efikasan i da ne uvodi tehnički dug koji će za godinu dana zaustaviti ceo tim.
Taj neko je AI auditor – i to je uloga koja se 2026. pojavljuje na oglasnim tablama kao jedna od najperspektivnijih entry-level pozicija u IT-u.
Šta AI auditor zapravo radi: Opis posla koji nije buzzword
Freelancermap, jedna od vodećih evropskih platformi za freelance IT stručnjake, definiše AI auditora kao osobu koja je odgovorna za procenu i mitigaciju (smanjivanje) bezbednosti, zakonitosti i etičnosti AI algoritama i koda koji generišu.
Ovo zvuči apstraktno, pa hajde da to razložimo na konkretan radni dan:
Jutro: Junior AI auditor dobija pull request (zahtev za spajanje koda) koji sadrži 400 linija koda generisanih kroz GitHub Copilot za novi payment processing (obrada plaćanja) modul. Njegov zadatak nije da napiše taj kod – nego da ga prođe kroz checklist koji uključuje:
-
Pokretanje static analysis alata (SonarQube, Semgrep) i analizu izlaza
-
Ručnu proveru svih eksternih library poziva – da li te biblioteke postoje i da li su aktuelne verzije
-
Proveru da li postoji bilo koji od OWASP Top 10 propusta, posebno injection ranjivosti i improper authentication (neispravna autentifikacija) u payment kontekstu
-
Verifikaciju da kod koji rukuje podacima kartica prati PCI-DSS standard
-
Proveru da li su svi input validation (validacija ulaznih podataka) mehanizmi ispravno implementirani
Popodne: Isti junior učestvuje u AI bias audit (revizija pristrasnosti AI) sesiji za ML model koji kompanija koristi za odobravanje kreditnih zahteva. Zadatak: proći kroz dokumentovane testne rezultate i proveriti da li model pokazuje disparate impact (nejednaki uticaj) po osnovu demografskih varijabli.
Kasno popodne: Pisanje audit izveštaja za compliance tim sa dokumentovanim nalazima, ocenom rizika i preporukama za popravku.
Ovo nije pisanje koda. Ali je duboko tehničan posao koji zahteva razumevanje koda – i mnogo toga izvan njega.
Šta AI auditor mora da zna
Prema analizi freelancermap i study.com istraživanja o entry-level AI pozicijama, profil veština AI auditora uključuje:
Tehničko znanje:
-
Osnove programiranja – Python i/ili Java na nivou čitanja i razumevanja koda, sposobnost praćenja logike i identifikacije antipatterna
-
OWASP Top 10 – lista najkritičnijih bezbednosnih propusta u web aplikacijama, obavezna osnova za svaki code audit
-
Osnove ML algoritama – kako funkcioniše model, šta je training data, šta je bias, kako se meri fairness (pravednost)
-
Poznavanje regulatory okvira – EU AI Act, GDPR, PCI-DSS, HIPAA (za zdravstvene sisteme)
-
Static analysis alati – SonarQube, Semgrep, Snyk, Checkmarx, Veracode
Analitičke veštine:
-
Sposobnost kritičke evaluacije koda koji nisi pisao
-
Strukturirano dokumentovanje nalaza i rizika
-
Risk assessment (procena rizika) i prioritizacija
Soft skills:
-
Precizna pisana komunikacija – audit izveštaj mora biti jasan i tehničarima i menadžerima
-
Etičko rasuđivanje – sposobnost da se prepozna kada sistem može da naudi korisnicima
-
Skepticizam kao profesionalni refleks – ne veruj kodu na reč, verifikuj
Brojevi koji govore sami za sebe: Plata i tražnja
Kada bi ova uloga bila samo lepa ideja bez tržišne potražnje, ne bi vredelo o njoj pisati. Hajde da pogledamo šta se zapravo dešava.
Prema ZipRecruiter podacima za mart 2026, prosečna godišnja plata AI auditora u SAD iznosi 72.633 dolara, uz raspon od 47.000 do 98.500 dolara za 75% pozicija, a gornji percentil dostiže 113.000 dolara godišnje. Za poređenje, klasični junior software engineer na entry-level u SAD zarađuje između 60.000 i 80.000 dolara u zavisnosti od lokacije i kompanije.
Yahoo Finance je u februaru 2026. objavio listu najbolje plaćenih entry-level AI pozicija za 2026. godinu:
AI auditor se pozicionira između data analista i klasičnog junior softverskog inženjera – uz tendenciju rasta jer je tražnja znatno brža od ponude.
LinkedIn je u svom izveštaju za 2026. rangirao AI Engineer kao broj jedan najbrže rastući naziv pozicije u SAD, sa porastom oglasa za 143% u 2025. godini. A unutar tog umbrella termina, AI auditing i governance uloge predstavljaju segment koji raste najbrže jer je to segment gde je deficit talenata najveći.
Study.com istraživanje o entry-level AI pozicijama eksplicitno navodi da su AI Governance i Compliance pozicije u 52% najvećem talentu deficitu od svih AI uloga. Prevedeno: tražnja je ogromna, ponuda je mala, i to je recept za dobre plaćene pozicije sa brzim napredovanjem za one koji se pravilno pozicioniraju.
Zašto je ovo savršen ulaz u IT za 2026. generaciju
Hajde da budemo direktni o tome šta ova uloga znači za nekoga ko tek ulazi u IT industriju.
Klasičan ulaz u IT izgledao je ovako: nauči programski jezik, napravi projekte, pošalji CV, dođi na coding intervju, dobij posao kao junior developer. Ovaj put je 2026. postepeno zatvoren – ne potpuno, ali je ulaz značajno suženiji nego što je bio. Kompanije ne zapošljavaju juniore kao što su to radile 2020-2022.
Ali otvorili su se drugi ulazi – i AI auditing je jedan od najjasnijih. I evo zašto je, paradoksalno, pogodniji za neke profile od klasičnog junior developer puta:
Manji barrier to entry za code production: Da bi pisao produkcijski kod, moraš da znaš da ga pišeš bez grešaka, da razumeš arhitekturu, da upravljaš edge casevima. Da bi auditovao kod, moraš da ga razumeš i da znaš šta tražiš. To je niži prag ulaska, ali ne trivijalan – zahteva drugačiji skup veština.
Regulatory znanje kao differentiator: Neće svaki junior da čita EU AI Act i GDPR i da razume implikacije za softverske sisteme. Oni koji hoće – imaju ogroman differentiator u 2026. Gartner procenjuje da će do 2026. 60% organizacija imati formalizovane AI governance programe. Neko mora da ih implementira i verifikuje.
Prirodan growth path: AI auditor koji dobro radi posao postaje – gotovo neizbežno – senior security engineer, AI governance specijalist ili compliance architect. Sve su to uloge koje su bolje plaćene i u kojima je deficit talenata još veći. Ovo nije slepa ulica.
Radi i u Srbiji – ne samo u SAD: Za razliku od nekih AI uloga koje su još uvek pretežno američki fenomen, AI auditing je direktno pokrenuta EU regulativom koja važi i za srpske kompanije koje rade sa EU klijentima.
Srpski kontekst: Zašto je ovo relevantno ovde i sada
Srbija ima IT sektor koji je daleko napredniji i razvijeniji nego što se to reflektuje u globalnoj percepciji. Kompanije iz Beograda, Novog Sada, Niša i drugih gradova razvijaju softver za neke od najvećih kompanija u Nemačkoj, Austriji, Holandiji i Skandinaviji.
I upravo zato je EU AI Act za srpski IT sektor relevantan od prvog dana – ne od dana kada Srbija eventualno uđe u EU. EU AI Act važi za softver koji koriste EU korisnici, bez obzira gde je razvijen. Srpska firma koja piše AI-asistovani kod za nemačkog klijenta u healthcare ili fintech sektoru mora da poštuje EU AI Act.
Od avgusta 2026, puna primena za high-risk AI sisteme znači konkretne obaveze: dokumentovana risk procena, human oversight mehanizmi, conformity assessment pre puštanja u produkciju, automatsko logovanje aktivnosti sistema. Ko će to da radi u srpskim IT kompanijama koje dosad nisu imale dedicated compliance tim?
Odgovor, u velikom broju slučajeva, biće junior sa profilom AI auditora.
Prema Serbian Times analizi trendova za 2026. na srpskom tržištu rada, digitalna transformacija i AI regulativa su identifikovani kao pokretači novih uloga u IT sektoru. Ovo nije apstraktna prognoza – to je trend koji se već vidi u oglasima, samo još uvek pod različitim nazivima: „AI quality assurance specialist“, „AI governance associate“, „ML audit engineer“, „code security reviewer“.
Za više resursa o karijernim putevima u IT sektoru prilagođenim srpskom tržištu, Python ostaje lingua franca i za AI auditing pozicije.
AI generisani kod i tehnički dug: Crna rupa koja proguta kompanije
Da bismo u potpunosti razumeli zašto je AI auditing tako hitno potreban, moramo da razgovaramo o tehničkom dugu. Ne onom koji smo uvek znali, već o novoj, specifičnoj vrsti tehničkog duga koji nastaje iz AI generisanog koda.
Technical debt (tehnički dug) je termin koji opisuje akumulirane troškove koji nastaju kada se shortcutevi u razvoju koriste umesto pravilnih dugoročnih rešenja. Svaka loša arhitekturna odluka, svaki workaround koji „radi za sada“, svaki copy-paste iz Stack Overflowa bez razumevanja – to su komponente tehničkog duga koji se jednog dana mora platiti, i uvek sa kamatom.
AI je ovaj problem pretvorio u nešto kvalitativno drugačije. Qodo analiza iz 2025. konstatuje: „Skriveni problemi se akumuliraju, a zavisnost od AI raste, što dovodi do sve veće gomile AI generisanog koda koji je teže detektovati i rešiti od tradicionalnog tehničkog duga.“
Jellyfish.co istraživanje opisuje scenario koji već viđaju u kompanijama: „Developeri spajaju AI generisani kod bez pravog razumevanja kako funkcioniše. Timovi grade na vrhu misterioznih funkcija, brze zakrpe postaju core infrastruktura, i codebase se puni logikom koju niko sa sigurnošću ne može da modifikuje ni da objasni.“
Okoone to opisuje na ovaj način: „Imamo sisteme koje niko ne razume – čak ni osoba koja je submitovala pull request. Svaki bugfix postaje istraga, i tim gubi kontrolu nad sopstvenim codebase-om.“
Ovo nije futurizam. Ovo je sadašnjost u kompanijama koje su bezglavo uvele AI coding alate bez pratećeg procesa revizije.
Slopsquatting: Napad koji dolazi direktno iz AI halucinacije
Jedan od fenomena koji je 2025-2026. dobio naziv i pažnju security istraživača direktno pokazuje kako AI halucinacije postaju napadački vektori.
„Slopsquatting“ je napad koji funkcioniše ovako: AI model halucinira ime biblioteke koja ne postoji. Ako ta biblioteka konzistentno pojavljuje u AI odgovorima (što je slučaj za 58% fabricated paketa, kako je pokazalo istraživanje), napadač registruje taj naziv na npm, PyPI ili drugom package registry-ju i puni ga malverom. Svaki developer koji slepo prati AI sugestiju i instalira tu „biblioteku“ – instalira malver.
Ovo nije teoretski scenario. Realno se desilo sa paketom „huggingface-cli“ koji je preuzet 30.000 puta. I svaka od tih 30.000 instalacija bila je proveriva – od strane nekog ko zna šta traži.
AI auditor koji zna šta je slopsquatting, koji proverava svaki preporučeni paket pre implementacije i koji drži tim odgovornim za taj korak – to je vrednost koja se može direktno monetizovati.
Alati koje AI auditor koristi: Praktičan pregled
Ovo nije uloga u kojoj sediš i gledaš u kod golim okom. Postoji ekosistem alata koji su specijalizovani za reviziju AI generisanog koda, i poznavanje ovih alata je preduslov za posao.
SonarQube je verovatno najrasprostranjeniji alat za static code analysis (statička analiza koda). Automatski skenira kod i identifikuje bugove, bezbednosne ranjivosti, code smellove i odstupanja od coding standarda. Posebno je vredan za AI generisani kod jer AI često generiše funkcionalan ali strukturno problematičan kod koji prolazi testove ali ne i duboku analizu. <a href=“https://www.sonarsource.com/solutions/ai/“ rel=“nofollow“ target=“_blank“>SonarSource eksplicitno promoviše alat za reviziju AI koda</a>.
Semgrep je lightweight static analysis alat koji omogućava pisanje custom pravila za detekciju specifičnih antipatterna. Posebno je koristan za timove koji žele da definišu vlastite standarde – na primer, da sve AI generisane SQL upite skenira na SQL injection ranjivosti.
Snyk se fokusira na bezbednost dependency lanca – što je direktno relevantan alat za problem slopsquattinga. Verifikuje da library preporuke postoje, da su aktuelne i da nemaju poznate CVE (Common Vulnerabilities and Exposures – zajednička lista ranjivosti) ranjivosti.
Checkmarx i Veracode su enterprise alati koji kombinuju static analysis, software composition analysis (analiza komponenti softvera) i API security testing u jedan workflow.
GitHub Advanced Security je integrisan direktno u GitHub i automatski skenira pull requestove. Sve veći broj kompanija ga koristi kao first line of defense, a AI auditor analizira izlaz i odlučuje šta zahteva ručnu reviziju.
IRIS framework – ICLR 2025 – posebno vredi pomenuti jer je pokazao da detektuje 55 ranjivosti u poređenju sa CodeQL-ovim 27 na istom uzorku koda, uz redukciju false positive-a sa 225 na 20. Ovo je primer kako se nauka o detekciji ranjivosti brzo razvija, i AI auditor koji prati ove razvoje ima prednost.
Etička dimenzija: Više od bezbednosti koda
AI auditing nije samo pitanje bezbednosnih ranjivosti. Postoji dimenzija koja je, dugoročno, možda i važnija: etička pristrasnost i fairness AI sistema koji donose odluke.
Fisher Phillips je u januaru 2026. objavio upozorenje kompanijama da je AI bias u sistemima koji donose odluke o zapošljavanju, ocenjivanju i napredovanju zaposlenih već predmet sudskih tužbi u SAD, čak i kada kompanije veruju da su sistemi neutralni. Poruka je jasna: nije dovoljno da sistem funkcioniše – mora da funkcioniše pravedno i dokumentovano pravedno.
Ovo otvara dimenziju AI auditinga koja prevazilazi čisto tehničke veštine. AI auditor koji razume šta je disparate impact (nejednaki uticaj), koji ume da testira model na demografskim podgrupama i koji može da dokumentuje fairness metriku – ima vrednost za svaku kompaniju koja koristi AI u HR, kreditnoj proceni, medicinskoj dijagnostici ili bilo kojoj oblasti koja utiče na ljudske živote.
European Institute of Internal Auditors (ECIIA) je u novembru 2025. izveštavao da je AI preskočio na top 3 rizika za 2026, sa 58% chief audit executive-a koji navode da će digitalni poremećaji biti top-pet audit fokus u naredne tri godine. Ovo direktno kreira potrebu za profilima koji kombinuju tehničko razumevanje AI sistema sa auditing metodologijom.
Rebranding koji nije samo marketing: Zašto je ova promena stvarna
Neko bi mogao da prigovori: „Ovo zvuči kao QA (quality assurance) sa novim imenom.“ I taj neko bi bio delimično u pravu – i potpuno u krivu.
Klasični QA tester proverava da li softver radi onako kako je specifikacija rekla da treba da radi. To je relativno jasna provera funkcionalnosti.
AI auditor radi nešto fundamentalno drugačije:
-
Proverava kod koji niko nije napisao sa punim razumevanjem – jer AI ne razume, on generiše
-
Traži ranjivosti koje nisu posledica human logičke greške, već statističkih propusta u ML modelu koji je generisao kod
-
Evaluira etičke implikacije koda i sistema, ne samo funkcionalnu korektnost
-
Primenjuje regulatorni okvir koji je specifičan za AI sisteme i koji se menja brže nego ikoji prethodni standard
-
Radi sa probabilistic sistemima čije je ponašanje inherentno manje predvidivo nego deterministic koda
Ovo nije QA na steroidima. To je nova profesija koja je nastala jer stara paradigma nije imala alate da se nosi sa novim problemom.
Dev.to to formuliše precizno: „Definicija softverskog developera se fundamentalno menja. Postajemo orchestratori (dirigenti) više nego implementatori. Arhitekti više nego graditelji.“ A AI auditor je specijalizovani orkestratorski profil koji se fokusira na kvalitet i bezbednost onoga što AI gradi.
Kako izgleda career path (put karijere) AI auditora
Jedna od najčešćih zabrinutosti vezanih za novu ulogu je: „Kuda to vodi?“ Odgovor je zapravo jedan od jačih argumenata za ovu putanju.
Entry level (0-2 godine): Junior AI Auditor, AI Quality Reviewer, Code Security Associate. Fokus na operativni audit – pokretanje alata, analiza izlaza, pisanje izveštaja, eskalacija nalaza.
Mid level (2-4 godine): AI Security Engineer, AI Governance Specialist, ML Fairness Analyst. Fokus se pomera na dizajniranje audit procesa, definisanje standarda za tim, direktna komunikacija sa klijentima o nalazima.
Senior level (4+ godina): Chief AI Ethics Officer (uloga koja se pojavljuje u velikim kompanijama), AI Risk Director, Head of AI Governance. Ovo su C-level adjacentne pozicije koje kombinuju duboko tehničko razumevanje sa strateškim i regulatornim znanjem.
Gartner procena da će 60% organizacija do 2026. imati formalizovane AI governance programe znači da postoji direktna potražnja za svim ovim nivoima – a pipeline kandidata koji dolaze sa pravim profilom veština je za sada veoma tanak.
Praktičan roadmap: Šest meseci do prve pozicije
Ako ste junior koji želi da se pozicionira kao AI auditor, evo konkretnog, primenljivog puta koji ima logiku i strukturu:
Mesec 1-2: Fundamenti
Počnite od osnova programiranja ako ih nemate – Python je idealan jer je i jezik AI ekosistema i jezik koji audit alati najčešće koriste. <a href=“https://www.itnetwork.rs/python“ rel=“dofollow“>ITNetwork.rs Python kurs</a> je dobar polazni punkt. Paralelno, pročitajte OWASP Top 10 – ne kao listu, već kao razumevanje svakog propusta sa konkretnim primerima koda.
Mesec 3: Alati
Instalirajte SonarQube Community Edition lokalno. Nađite nekoliko open-source projekata na GitHubu koji koriste AI generisani kod – ili generišite kod sa Copilotom na nekom demo projektu, a onda ga skenujte. Naučite da čitate i tumačite izlaz. Naučite šta je false positive i kako se razlikuje od pravog nalaza.
Mesec 4: Regulatory osnove
Pročitajte EU AI Act plain language summary na <a href=“https://artificialintelligenceact.eu“ rel=“nofollow“ target=“_blank“>artificialintelligenceact.eu</a>. Fokusirajte se na risk kategorije i šta one podrazumevaju. Pročitajte GDPR člane koji se odnose na automatizovano odlučivanje (posebno člane 13-15 i 22). Ovo vas odmah razlikuje od 90% juniora koji ovo nikada nisu otvorili.
Mesec 5: Portfolio
Napravite GitHub repozitorijum koji dokumentuje audit jednog open-source projekta. Pokrenite Semgrep i SonarQube, dokumentujte nalaze, procenite rizike, napišite preporuke. Ovo je portfolio koji govori poslodavcu sve što treba da zna o vašem načinu razmišljanja – i koji je drastično drugačiji od repozitorijuma sa CRUD aplikacijom koja „radi na mom laptopu“.
Mesec 6: Sertifikacija i networking
CompTIA Security+ je zlatni standard za entry-level cybersecurity razumevanje i prepoznat je globalno. Ako imate budget i ambiciju, ISO 42001 Lead Auditor program direktno targetira AI management systems auditing. Na LinkedIn-u i u lokalnim IT zajednicama, počnite da govorite o ovim temama – pisanje kratkih analiza o AI bezbednosnim incidentima gradi vidljivost u nichednom prostoru koji će to ceniti.
Šta kompanije moraju da shvate o ovoj ulozi
Postoji rizik da kompanije krenu da zapošljavaju „AI auditore“ kao još jedan checkbox u compliance listi – bez pravog razumevanja šta ta uloga treba da radi i kakvu vrednost donosi.
Ranger, kompanija koja se bavi QA za AI generisani kod, precizno formuliše izazov: „Kada je reč o validaciji AI generisanog koda, razvojni timovi se često bore da uravnoteže efikasnost automatizovanih alata sa nijansiranom procenom koju samo čovek može da pruži.“ Rešenje nije ni samo automatizacija, ni samo ručni pregled – to je kombinacija u kojoj čovek interpretira, prioritizuje i donosi konačne odluke.
Ovo znači da AI auditor mora imati stvaran autoritet da blokira merge (spajanje koda) u produkciju. Ako je AI auditor samo još jedan „step“ koji se formalno prođe, bez posledica za loše nalaze – ta uloga nema vrednost. Kompanije koje shvate ovo razlikovanje, i daju AI auditorima pravi mandat, videće povrat investicije u smanjenom broju bezbednosnih incidenata i nižem tehničkom dugu.
Budućnost ove uloge: Šta nas čeka do 2030.
Ako je AI auditing uloga nastala iz nužde u 2025-2026, šta će biti do 2030?
Standardizacija certificiranja: Već sada se ISO 42001 (standard za AI management systems) pozicionira kao equivalent ISO 27001 za AI governance. Do 2028, možemo očekivati da sertifikovani AI auditori budu regulatorni zahtev za kompanije koje razvijaju high-risk AI sisteme, slično kao što je CISA sertifikat zahtev za finansijsku reviziju.
Specijalizacija po domenima: Generalist AI auditor se verovatno bifurkuje na specijalizacije: healthcare AI auditor (koji razume HIPAA i medicinske standarde), fintech AI auditor (koji razume PCI-DSS i Basel regulative), i autonomous systems auditor (za automobile, droove, robotiku). Svaka specijalizacija nosi veću platu i manji broj kvalifikovanih kandidata.
Automatizacija nižih slojeva: Do 2028, alati poput SonarQube-a i Semgrep-a će biti znatno napredniji i automatizovati više od onoga što danas zahteva ručnu analizu. To ne ukida AI auditora – kao što nisu digitalni forenzički alati ukinuli digitalne forenzičare. Pomiče fokus prema složenijoj analizi, etičkoj proceni i regulatornom tumačenju.
Uloga u razvoju AI samih modela: Najinteresantniji pravac je AI auditor koji ne samo evaluira kod generisan AI-jem, već učestvuje u dizajnu procesa treniranja modela – obezbeđujući da se u model ne „upeku“ pristrasnosti i ranjivosti od početka, umesto da se love retroaktivno.
Detektiv kao nova figura ulaska u IT
U zlatnom dobu noir romana i filmova, detektiv nije bio onaj koji je počinio zločin. Ali bez detektiva, zločin bi ostao nerešen, pravda bi izostala i sistem bi se urušio.
AI auditor je detektiv modernog softverskog inženjerstva. Nije pisao kod koji ispituje. Ali bez njega, taj kod ide u produkciju sa ranjivostima koje niko nije tražio, sa bibliotekama koje ne postoje, sa pristrasnostima koje nikoga ne diskriminišu na papiru a svakoga u praksi, sa tehničkim dugom koji će za godinu dana koštati više nego sav posao koji je ubrzao.
To što junior više ne kuca kod – nije poraz. To je evolucija. Industrija koja je godinama romantizovala „kucanje koda“ kao ulaz oduvek je imala važniju ulogu: razumevanje sistema koji se gradi i odgovornost za ono što se isporuči.
AI auditor tu odgovornost uzima ozbiljno, sa alatima i okvirom koji 2026. industrija hitno treba. I ako pitate da li je ovo uloga vredna gradnje karijere – pitajte se koliko kompanija sada ima 45% AI generisanog koda koji niko sistematski ne proverava, i koliko dugo mogu da si to priušte.
Za sve koji žele da istraže konkretne veštine potrebne za ovu ulogu – od osnova programiranja do bezbednosnih koncepta – ITNetwork.rs je polazna tačka sa najboljim srpskim resursima za izgradnju tehničke osnove na kojoj AI auditing karijerа može da počiva.



