Postoji pitanje koje sve glasnije odzvanja hodnicima tehnoloških kompanija od Silicon Valleyja do Londona i Seula: koliko daleko može da ode kompanija čija je osnovna misija „bezbedna veštačka inteligencija za dobrobit čovečanstva“ kada joj Pentagon pokuca na vrata sa čekom i ponudom vrednom milijarde dolara? Anthropic, jedan od najistaknutijih i javno najodgovornijih aktera u trci za razvoj naprednih AI sistema, sada se nalazi tačno na toj raskrsnici – između svojih javno deklarisanih etičkih principa i enormnog privlačnog potencijala vojnih ugovora koji bi mogli u potpunosti promeniti njenu finansijsku sliku i dugoročnu poziciju na tržištu.
Ovo nije apstraktna akademska dilema. To je konkretno, gorljivo i izuzetno politički osetljivo pitanje koje utiče na celokupnu industriju veštačke inteligencije, na buduće regulatorne okvire, te na to u kakvom će obliku AI sistemi biti implementirani u državne strukture, vojsku i bezbednosne aparate najmoćnijih zemalja sveta. I upravo Anthropic – kompanija koja je godinama insistirala da AI razvoj mora biti odgovoran, meren i podvrgnut strogim etičkim standardima – sada predstavlja najzanimljiviji test case tog sukoba.
Ko je Anthropic i zašto je njena pozicija posebna
Da bismo razumeli dimenziju ovog sukoba, neophodno je kratko se osvrnuti na to odakle Anthropic dolazi i šta reprezentuje u industriji. Kompaniju su 2021. godine osnovali Dario Amodei i Daniela Amodei, zajedno sa grupom istraživača koji su napustili OpenAI – tada već gigantski laboratorijum koji je razvijao GPT seriju modela. Razlog odlaska bio je, prema javnim izjavama osnivača, fundamentalno neslaganje oko tempa razvoja i manjka sistemske pažnje prema potencijalnim rizicima koje napredni AI sistemi donose.
Anthropic je od prvog dana pozicioniran kao „safety-first“ kompanija. Njen vodeći AI model nosi ime Claude, a filozofija dizajna oslanja se na pristup koji su nazvali „Constitutional AI“ – sistem u kom se modelu ugrađuju vrednosni principi koji ga vode pri donošenju odluka o tome šta je prikladan odgovor, a šta nije. Misija je jasna: napraviti AI koji je koristan, bezbezopasan i iskren. I sve dok su to samo reči u prezentacijama za investitore, lako ih je izgovoriti.
Problem nastaje kada te iste reči morate da primenite u pregovorima sa Ministarstvom odbrane Sjedinjenih Država.
Pentagon kuca na vrata: Šta tačno traže vojni ugovori
Američka vojska i obaveštajne agencije već godinama intenzivno istražuju primene veštačke inteligencije u gotovo svim oblastima svog delovanja. Govorimo o sistemima koji analiziraju obaveštajne podatke u realnom vremenu, koji optimizuju logistiku i lance snabdevanja, koji automatizuju prepoznavanje meta na satelitskim snimcima, koji simuliraju ratne scenarije i podržavaju stratešku komunikaciju.
Kroz program Project Maven, koji je pokrenuo Google još 2017. godine (i koji je izazvao masovne unutrašnje proteste zaposlenih koji su naterali kompaniju da se delimično povuče), i kroz čitav niz programa koji su usledili pod okriljem DARPA, Air Force Research Laboratory i drugih agencija – Pentagon je jasno pokazao da ne odustaje od ambicije da bude globalni lider u vojnoj primeni AI.
Interesovanje za Anthropic je logičan sledeći korak. Kompanija ima neke od najnaprednijih jezičkih modela, izuzetno snažan fokus na sigurnost i kontrolabilnost sistema (što je za vojnu upotrebu paradoksalno i posebno privlačno) i reputaciju koja bi mogla da posluži kao svojevrsna moralna zaštita u javnosti. Ako „etička AI kompanija“ potpiše vojni ugovor, narativ postaje lakše braniti.
Unutrašnja napetost: Novac nauštrb principa?
Evo gde stvari postaju kompleksne. Anthropic nije mala startup kompanija u garaži. Do 2025. godine, kompanija je prikupila više od osam milijardi dolara investicija, uključujući masivne injekcije kapitala od Amazon-a i Google-a. I pored toga, komercijalizacija Claude modela nije dostigla prihode koji bi bili proporcionalni investicijama. Vladini ugovori – a posebno vojni – nude upravo ono što svaka kompanija koja gori kroz kapital mora da pronađe: stabilne, višegodišnje, ogromne prihode koji nisu podložni kapricima potrošačkog tržišta.
Ovde leži suštinska napetost. Ako Anthropic odbije sve vojne primene, rizikuje da postane moralno čista, ali finansijski ranjiva kompanija koja može biti preskočena konkurentima koji nemaju takve skrupule. OpenAI, koji je godinama insistirao na zabrani vojnih primena, tiho je revidirao tu politiku i počeo da prihvata određene saradnje sa vojnim i vladinom sektorom. Google je, uprkos Project Maven drami, nastavio sa određenim oblicima saradnje sa vladom i vojskom. Microsoft je od ranog trenutka bio otvoren prema državnim i vojnim ugovorima kroz Azure Government Cloud.
Ako Anthropic ostane po strani, pitanje nije samo moralne prirode – pitanje je opstanka i tržišne pozicije.
Crvene linije i siva zona između njih
Unutar same kompanije, ali i u široj AI zajednici, postoji pokušaj da se postave jasne linije razdvajanja između prihvatljive i neprihvatljive upotrebe. Logistika, zdravstvo, administrativna automatizacija, analiza neklasificiranih podataka – ovo su oblasti koje mnogi u industriji smatraju prihvatljivim, čak i korisnim primenama AI u vojnom kontekstu. Sa druge strane, sistemi koji direktno učestvuju u donošenju odluka o primeni letalne sile, autonomno naoružanje koje deluje bez ljudskog nadzora, ili sistemi koji su dizajnirani da dezinformišu i manipulišu – to su crvene linije koje bi, prema deklarisanim vrednostima kompanije, trebalo da budu apsolutne.
Problem je u tome što se u praksi te granice ne mogu uvek jasno povući. Sistem koji analizira satelitske snimke i prepoznaje vozila teorijski je analitički alat, ali u istom trenutku može biti i ključna karika u lancu donošenja odluka o vojnoj akciji. Jezički model koji pomaže u komunikaciji na terenu je korisna logistička podrška, ali je i alat koji može biti primenjen u psihološkim operacijama. Siva zona između „dopušteno“ i „zabranjeno“ je ogromna, a svaki korak u nju otvara vrata sledećem.
Šira slika: Koji je pravi interes SAD-a u AI trci
Postoji i geopolitička dimenzija ove rasprave koja se ne može ignorisati. Trka između SAD i Kine u domenu veštačke inteligencije nije metafora – to je strateška realnost koja utiče na odluke na najvišem nivou vlasti i u Silicon Valleyju i u Vašingtonu. Kineske kompanije poput Baidu, Alibaba i Huawei nemaju isti tip javnog pritiska u pogledu vojnih primena; kineska regulativa i državna strategija eksplicitno podstiče sinergiju između privatnog sektora i vojnih primena AI.
Američki zvaničnici sve glasnije argumentuju da bi odbijanje saradnje između vodećih AI kompanija i vojnog i obaveštajnog aparata moglo predstavljati stratešku slabost u odnosu na adversere koji nemaju takvih inhibicija. Ovaj argument je privlačan i teško ga je odbaciti bez ozbiljnog razmatranja, posebno u trenutku kada geopolitičke tenzije rastu, a AI sistemi postaju sve sposobniji u domenima koji imaju direktne bezbednosne implikacije.
Sa druge strane, kritičari ovog argumenta upozoravaju da prihvatanje logike „ako mi ne radimo to, radiće neko drugi“ može biti moralna klizavica bez dna. Isti taj argument koristili su i naučnici koji su radili na nuklearnim oružjima, i inženjeri koji su dizajnirali sisteme masovnog nadzora.
Zaključak
Pitanje koje Anthropic i Pentagon postavljaju pred industriju nije tehničko pitanje – to je fundamentalno etičko i strateško pitanje o tome kakvom budućnošću upravljamo. Kompanija koja se pozicionira kao moralni kompas industrije sada mora da pokaže da li su njeni principi čvrsti u momentu kada je cena tih principa najviša. Industrija AI na globalnom nivou pažljivo posmatra svaki korak, jer presedan koji Anthropic postavi – bez obzira na to u kom smeru – oblikovaće norme i očekivanja za sve ostale. Jasno je da nema jednostavnog odgovora, ali upravo ta složenost čini ovaj sukob jednim od najvažnijih razgovora koje tehnološka industrija mora da vodi glasno, otvoreno i bez autocenzure.



