Postoji jedna vrsta problema koja nastaje kada neko dugo i uporno radi ono što mu odgovara, ignorišući sistemske rizike – sve dok te iste posledice ne počnu da kucaju na njegova vrata. Industrija veštačke inteligencije upravo prolazi kroz nešto nalik tome. I slučaj koji to najdramatičnije ilustruje nije neka distopijska fikcija – to se desilo u martu 2026, između jedne AI kompanije, njenog osnivača i Ministarstva odbrane SAD.
Slučaj koji je otkrio sve kontradikcije industrije
Anthropic je dugo važio za nešto što je u Silicon Valleyju postalo retkost – AI kompaniju koja zaista ozbiljno shvata bezbednost. Osnivači su napustili OpenAI, delimično zbog neslaganja oko tempa i odgovornosti razvoja. Kompanija je u svoju strukturu ugradila Long-Term Benefit Trust – telo koje nominalno štiti javni interes. Razvila je Constitutional AI pristup gde model sam sebe koriguje prema etičkim principima. Godinama je bila primer koji su regulatori citirali kao dokaz da industrija može sama da se uredi.
A onda je Pentagon zakucao na vrata.
Ministarstvo odbrane SAD zahtevalo je od Anthropica pristup tehnologiji za potrebe koje su uključivale masovni nadzor i primenu u borbenim operacijama. Anthropic je odbio. Pentagon je odgovorio pretnjom da će kompaniju proglasiti „rizikom u lancu snabdevanja“ – što bi de facto značilo blacklistovanje i isključenje iz federalnih ugovora. Anthropic je tužio vladu.
Ono što se desilo sledećih nedelja je gotovo neverovatno: više od 220 zaposlenih iz Google-a i OpenAI-a – dva najveća rivala Anthropica – potpisalo je peticiju u podršku. Ne iz solidarnosti sa konkurentom, već iz straha od presedana koji bi omogućio vladama da prinude AI kompanije da razvijaju tehnologiju za masovni nadzor i autonomne vojne operacije.
Jednog dana partneri, sledećeg zajednički tužioci. Dobrodošli u krizu upravljanja AI-em.
Kako se dolazi do situacije bez pravila
Da bi se razumelo zašto je ovaj slučaj toliko značajan, treba se vratiti korak nazad i pitati: kako smo uopšte dospeli u situaciju u kojoj nema jasnih pravnih okvira koji bi regulisali šta vlada sme, a šta ne sme da zatraži od AI kompanije?
Odgovor je neugodan za industriju, jer ga je sama industrija delimično napisala.
Tokom poslednjih deset godina, dok su AI sistemi postajali sve moćniji, kompanije su lobbirale protiv obavezujuće regulacije. Argument je bio standardan: regulacija guši inovaciju, SAD mora da ostane ispred Kine, industrija je dovoljno odgovorna da se sama uredi. Umesto toga, kompanije su pisale etičke kodekse, formirale interne odbore za bezbednost, potpisivale dobrovoljne obaveze i organizovale skupove o „odgovornoj AI“.
MIT profesor Max Tegmark, jedan od glasnijih kritičara ovog pristupa, ima za to termin koji dobro opisuje situaciju: „korporativna amnestija“. Kompanije su efektivno rekle: „Verujte nam. Ne trebaju nam zakoni.“ I u velikoj meri su u tome uspele.
Rezultat? Prema podacima citiranim u LinkedIn analizi ovog slučaja, Sjedinjene Države trenutno imaju manje regulatorne kontrole nad naprednim AI sistemima nego nad bezbednošću hrane. Ako pekarnica ne prođe sanitarnu inspekciju, biva zatvorena. Ako AI kompanija pusti sistem koji može da utiče na izbore, simulira odnose sa maloletnicima ili ubrzava vojne operacije – ne postoji ekvivalentna regulatorna procedura koja bi to sprečila.
Zamka koja se zatvara
Ovde dolazimo do ključne ironije situacije koju je Tegmark nazvao „zamkom“.
AI kompanije su se decenijama borile za regulatornu slobodu i uglavnom je dobile. Ali ta sloboda ima jednu drugu stranu: u pravnom vakuumu, vlada može da zatraži primene koje bi inače bile zabranjene zakonom. Kada bi postojao jasan savezni zakon koji zabranjuje korišćenje AI za masovni nadzor ili autonomna borbena dejstva, Anthropic bi jednostavno ukazao na taj zakon. Ne bi morao da tužio. Ne bi bilo pregovaranja o granicama. Granica bi bila zakonski definisana.
Bez tog zakona, svaka granica postaje stvar korporativne etike. A korporativna etika je jedino toliko čvrsta koliko su čvrste posledice njenog kršenja. Kada nema zakona koji štite ni jednu ni drugu stranu, svaka situacija postaje nova borba – sa neizvesnim ishodom i ogromnim troškovima.
Ono što Anthropic doživljava nije anomalija. To je logična posledica sistema koji su same AI kompanije pomogle da se izgradi – sistema bez pravila.
Šta se dešava kada industrija odraste brže od zakona
Naravno, fair je reći da nijedan zakon ne može da prati ovakav tempo tehnološkog razvoja. Chatham House je u martu 2026. objavio izveštaj u kome piše da je međunarodna regulacija AI pred ozbiljnim rizikom kolapsa zbog geopolitičke fragmentacije, institucionalne slabosti i ogromne asimetrije između privatnih kompanija i vlada koje ih pokušavaju regulisati.
Ova asimetrija je ključna. Vlade nemaju tehničke kapacitete da nezavisno evaluiraju vlasničke AI modele. Nemaju dovoljno stručnjaka. Pravni mehanizmi su stari. Kompanije imaju snažne komercijalne podsticaje da zadrže tajnost o sposobnostima sistema. I trka između SAD i Kine daje vladama savezni argument da ne stežu preterano – jer „Kina ne čeka“.
Rezultat je zakonodavni haos. U decembru 2025, predsednik Trump potpisao je izvršnu naredbu koja blokira državne AI zakone za koje smatra da su nespojivi sa federalnom politikom „minimalnog opterećenja“. Odmah je uveden predlog zakona da se taj blok blokira. Centralna debata u Kongresu tokom 2025. bila je oko toga da li uvesti savezni „AI moratorijum“ koji bi sprečio države da regulišu AI privremeno. Ishod: pravna nesigurnost, kontradikcija i litijacija.
Smarter Articles to jasno imenuje: AI se menja za nedeljama, zakoni traju godinama.
Korporativni principi naspram vojne sile
Konkretni slučaj Anthropic-Pentagon otkriva i dublje pitanje koje će industrija morati da reši pre ili posle: šta se dešava kada vrednosti privatne kompanije uđu u direktan sukob sa zahtevima državne bezbednosti?
Ovo nije hipotetičko pitanje. Google je 2018. bio primoran da povuče učešće u Project Maven – programu vojnog AI za analizu dronova – nakon što je više od 3.000 zaposlenih potpisalo peticiju i desetak inženjera dalo otkaz. Tada je bio pritisak odozdo, iz same kompanije. Sada je pritisak odozgo, od administracije koja je sprema da iskoristi Defense Production Act da prinudi privatnu kompaniju da isporuči tehnologiju za potrebe koje ona sama smatra neetičkim.
Ako to postane precedens, svaka AI kompanija sa vladinim ugovorima – a takvih je gotovo sve više – može sutra biti u istom položaju u kome se Anthropic nalazi danas.
Odgovor 40 zaposlenih iz Google-a i OpenAI-a koji su podneli kratak sudu u podršku Anthropicu govori da inženjeri razumeju opasnost. Pitanje je da li je isti nivo svesti prisutan kod onih koji donose poslovne odluke.
Paradoks samoregulacije
Postoji jedan duboko ironičan moment u čitavoj ovoj priči. Kompanije koje su se najgromoglasnije zalagale za samoregulaciju – OpenAI sa Altmanovim pozivima na IAEA-stil međunarodne institucije, Anthropic sa Constitutional AI i Long-Term Benefit Trustom, Google DeepMind sa internim etičkim odborima – sada se suočavaju sa scenarijom koji je direktna posledica odsustva onoga za šta su nominalno bile.
Samhan Altman, CEO OpenAI-a, godinama javno govori o potrebi za „dobrim upravljanjem“ i međunarodnom nadzornom telom za AI. Ali OpenAI je istovremeno agresivno lobirao protiv konkretnih regulatornih predloga koji bi uveli obavezujuće mehanizme na nacionalnom nivou.
Razlika između pozivanja na regulaciju i pristajanja na regulaciju nije semantička. Prva je retorička pozicija koja izgleda odgovorno. Druga je poslovni kompromis koji zaista nešto košta.
Podaci to potvrđuju. Prema dostupnim istraživanjima, 85% preduzeća ubrzalo je primenu AI u 2025. godini, ali samo 42% je ažuriralo sopstvenu politiku upravljanja rizicima. Ista logika vrijedi za čitavu industriju: ubrzanje napred, usporavanje sistema odgovornosti.
Ko plaća cenu regulatornog vakuuma
U teoriji, regulatorni vakuum korisiti kompanijama – manje obaveza, manji troškovi, brži razvoj. U praksi, vakuum korisiti samo onima koji su dovoljno moćni da ga popune sopstvenom silom.
Radnici ne profitiraju od vakuuma – oni su first casualties kada AI sistemi zamenjuju zaposlene bez ikakvih zakonskih obaveza za prekvalifikaciju ili naknadu. Pacemakers umetnika, pisaca, muzičara i novinara ne profitiraju – njihov rad se koristi bez naknade i bez dozvole. Korisnici ne profitiraju – jer ne postoji obaveza transparentnosti koja bi im rekla koje podatke kompanije skupljaju, kako se modeli treniraju i ko odgovara kada algoritam napravi grešku koja utiče na nečiji život.
I, što je slučaj Anthropic pokazao, ni kompanije ne profitiraju uvek – jer vakuum znači da nema pravne zaštite ni za njih kada vlada odluči da iskoristi svoju moć.
Chatham House je direktan u svom izveštaju: funkcionalan sistem upravljanja AI možda će nastati tek kao odgovor na krizu, kada politički troškovi neakrtivnosti jasno prevaziđu troškove koordinacije.
Slučaj Anthropic-Pentagon možda je upravo ta kriza.
EU kao laboratorija – sa svim problemima laboratorije
Jedina jurisdikcija koja je dosad pokušala sveobuhvatnu regulaciju AI je Evropska unija kroz AI Act. Zakon uvodi klasifikaciju rizika, zabranjuje visokorizične primene poput masovnog biometrijskog nadzora u javnim prostorima, uvodi obaveze transparentnosti za generativne AI sisteme.
Ali i AI Act ima ozbiljne kritičare. Implementacija zaostaje za tempom. Kapaciteti za sprovođenje su ograničeni – regulatori nemaju dovoljno stručnjaka koji razumeju tehnologiju dovoljno duboko da bi efikasno sprovodili zakon. Kompanije traže rupe, a ima ih. I suštinski, AI Act je dizajniran za AI kakav je postojao 2022-2023 – sistem koji se dramatično promenio od tada.
Britanija je pokušala treći put – fleksibilni principi bez zakonske obaveze, primenjeni kroz sektorske regulatore poput ICO i Ofcoma. Principi postoje – bezbednost, transparentnost, odgovornost, fer tretman – ali su neobavezujući. Što je lepo za kompanije. Što nije dovoljno za zaštitu.
OECD zagovara tzv. „outcome-based regulaciju“ – pristup koji kompanije i primenjivače drži odgovornim za stvarne posledice AI sistema, umesto da propisuje tehničke specifikacije. Ideja ima logiku. Ali bez međunarodne koordinacije, svaka zemlja primenjuje različite standarde – što kompanijama daje prostor za arbitražu jurisdikcija.
Ono što sada mora da se dogodi
Kriza upravljanja AI nije teorijska opasnost na horizontu. Ona je ovde, merljiva u sudskim tužbama, protestima, regulatornom haosu i konkretnim štetu koja se svakodnevno nanosi radnicima, autorima i korisnicima bez ikakve pravne zaštite.
Ono što je potrebno nije utopijsko – to su zahtevi koji bi u svakoj drugoj industriji bili podrazumevani.
Potrebni su obavezujući standardi transparentnosti – jasni zahtevi šta kompanije moraju objaviti o podacima za trening, sposobnostima modela i mehanizmima bezbednosti. Bez „verujte nam“, bez dobrovoljnih objava koje se daju samo kada odgovaraju poslovnim interesima.
Potrebni su jasni pravni okviri koji definišu koja primena AI je zakonom dozvoljena, a koja nije – bez obzira na to ko zahteva tu primenu. Vlada uključena. Ovo štiti i kompanije i građane.
Potrebni su međunarodni koordinacioni mehanizmi koji prevazilaze deklaracije i konferencije. Nije nužno „IAEA za



