U maju 2025. godine, ugledni naučni novinar i astrofizičar Adam Becker objavio je knjigu čiji naslov govori sam za sebe: „More Everything Forever: AI Overlords, Space Empires, and Silicon Valley’s Crusade to Control the Fate of Humanity“ (Više svega zauvek: AI vladari, svemirski imperiji i krstaški pohod Silicijumske doline da kontroliše sudbinu čovečanstva). U njoj sistemski rastače jednu od najmoćnijih ideologija našeg vremena – longtermism (dugoročnost), pokret koji je u poslednjih desetak godina postao de facto religija tehnoloških milijardera koji upravljaju kompanijama vrednim trilione dolara i koji u toj religiji pronalaze ne samo sistem vrednosti, nego i moralno opravdanje za ono što inače ne bi imalo opravdanje.
Becker-ov argument nije marginalan. Recenzija u The Atlantic formuliše ga ovako: „Kada milijarderi tvrde da bi njihove svemirske kolonije ili AI šeme mogle spasiti čovečanstvo, oni istovremeno tvrde da bi samo oni trebalo da oblikuju njegovo budućnost.“
To je teza koja bi, izrečena o bilo kome drugom u istoriji, imala sasvim jasan naziv. Ali zato što je izrečena u kontekstu tehnologije, progresa i „dugoročnog dobra čovečanstva“, prihvata se kao vizionarstvo, a ne kao ono što jeste: politička ideologija koja je obučena u naučnofantastičnu estetiku.
Ovaj tekst je pokušaj da se ta ideologija analizira bez romantizacije – da se razumeju njeni intelektualni koreni, njeni realni efekti, njeni korisnici i njene žrtve, i da se postavi pitanje koje samo po sebi nije ugodno: da li tech elite koje investiraju u longtermism, svemirsku kolonizaciju i AGI istraživanja zaista brinu o budućnosti čovečanstva, ili se radi o najsofisticiranijoj i ekonomski najmoćnijoj formi identitetske krize u istoriji kapitalizma?
Šta je longtermism i odakle dolazi: Ideološka genealogija koja iznenađuje
Da bismo razumeli šta tech elite zapravo veruju, moramo razumeti intelektualnu tradiciju iz koje longtermism izvire – jer ona nije nastala u Silicijumskoj dolini. Nastala je u Oxfordu, u filozofskim raspravama koje su imale impresivan nivo rigoroznosti pre nego što su postale ideološki alat za jednu od najkoncentrovanijih akumulacija bogatstva u istoriji.
Effective Altruism (EA, efikasni altruizam) je pokret koji su krajem 2000-ih osnovali britanski filozofi Toby Ord i William MacAskill sa jednostavnom, ali radikalnom idejom: ako je cilj da se „čini dobro“ u svetu, treba metodološki analizirati koji oblici dobrotvornih dela imaju najveći merljiv efekat po uloženom dolaru i onda finansirati upravo te.
U početku, EA je imao specifičan, konkretno usmereni fokus: prevencija malarije, smanjenje siromaštva u globalnom jugu, welfare (dobrobit) životinja u industrijskom uzgoju. To su bile empirijski merljive intervencije gde je veza između uloženog novca i smanjene patnje bila jasna i dokumentovana. Givewell, organizacija koja evaluira efikasnost dobrotvornih projekata, bila je centralna EA institucija u ovoj fazi.
A onda se desio intelektualni zaokret koji je promenio sve.
Longtermism – koji je formalno artikulisan u radovima Hilary Greaves i Willa MacAskilla – uveo je jednu na prvi pogled logičnu ali u konsekvencama revolucionarnu modifikaciju: ako zaista brinemo o maksimiziranju dobrobiti svih bića, moramo u kalkulaciju uključiti i sva buduća bića koja će ikada postojati. A ta buduća bića mogu biti, u dalekoj budućnosti, numerički astronomska – trilioni individua koje bi živele na svemirskim stanicama, na terraformiranom Marsu, u digitalnim simulacijama.
Matematika koja iz toga sledi je bezbedna i nezaustavljiva: ako u budućnosti može postojati kvintilion srećnih bića, onda je moralna vrednost te moguće budućnosti toliko astronomski veća od vrednosti svakog problema koji postoji sada – klimatske krize, siromaštva, bolesti, rata – da se sve sadašnje patnje moraju, u racionalnoj kalkulaciji, smatrati moralno marginalnima u poređenju sa zaštitom te futurističke mogućnosti.
Oxford filozofi MacAskill i Greaves su to napisali eksplicitno: „Za svrhe evaluacije akcija, često možemo u prvoj instanci jednostavno ignorisati sve efekte sadržane u prvih 100 (ili čak 1.000) godina, fokusirajući se primarno na efekte u daljoj budućnosti.“
Ovo je rečenica koja zaslužuje da se pročita dva puta. Ignorisati sve efekte prvih 1.000 godina. To znači: ignorisati klimatsku krizu. Ignorisati glad. Ignorisati ratove. Ignorisati epidemije. Sve to, prema longtermizmu, može biti moralno irelevantno u odnosu na zaštitu mogućnosti da hipotetska bića živela u astronomski dalekoj budućnosti.
Kako je Silicijumska dolina preuzela longtermism i transformisala ga u ideologiju moći
Akademska filozofska pozicija postala je ideološki alat u trenutku kada su je prihvatili milijarderi koji su imali i resurse da je sprovode i ličnu motivaciju da je veruju.
Sam Altman, Elon Musk, Jeff Bezos, Peter Thiel, Marc Andreessen – svi ovi protagonisti tech scene u različitim formama usvajaju longtermistički svetonazor, ali sa karakterističnom modifikacijom: dok je akademski longtermism bio apstraktna filozofska pozicija o moralnom računanju, tech longtermism je konkretna investiciona strategija koja ima jasne korisnike.
Sam Altman i OpenAI: Altman je osnivač i CEO kompanije koja razvija najmoćnije AI sisteme na svetu. Njegova javno artikulisana filozofija je da je AGI (Artificial General Intelligence – veštačka opšta inteligencija) neizbežna, da će transformisati svaku dimenziju civilizacije, i da je zato ključno da ju razviju „dobre“ kompanije (poput OpenAI) pre nego što je razviju „loše“ aktori. Ovo je argument koji istovremeno opravdava i brzinu razvoja (moramo biti prvi) i konsolidaciju moći (samo mi možemo biti odgovorni za ovo). MIT Technology Review je u junu 2025. direktno analizirao ovu logiku: „Altman, Bezos i Musk kažu da žele da spase čovečanstvo stvaranjem superinteligentnog AI.“
Elon Musk i SpaceX/Mars: Musk je famozno artikulisao svemirsku kolonizaciju kao „civilizacijsko osiguranje“ – ako Zemlja postane neobiteljiva (zbog klimatskih promena, AGI katastrofe ili nuklearnog rata), čovečanstvo mora imati backup (rezervnu kopiju) na Marsu. Sa gledišta longtermizma, ovo je savršena investicija: zaštita dugačke budućnosti čovečanstva opravdava sve – uključujući forsiran tempo rada koji je regulatorno sporan, eksploataciju radne snage, i korišćenje foslinih goriva za napajanje raketa koje bi mogle spasiti civilizaciju.
Jeff Bezos i Blue Origin: Bezosova vizija je detaljna i elaborirana – on govori o „O’Neill cylinderima“, svemirskim stanicama koje bi bile napravljene po dizajnu fizičara Gerarda O’Neilla i koje bi mogle da drže milion ili trillion (bilion) ljudi u optimalnim uslovima. Zemlja bi ostala „zona za stanovanje i lagano zanatstvo“, dok bi se teška industrija premestila u svemir.
Peter Thiel: Jedan od prvih investitora u Facebook i PayPal, osnivač Palantira, Thiel je finansirao istraživanja longevity (dugovečnosti), seasteading (gradnja plutajućih nezavisnih naselja van jurisdikcije bilo koje države), i agresivno pobornik libertarijanskih vizija budućnosti. Thielov longtermism je posebno zanimljiv jer direktno inkorporira politički program: budućnost koje on zamišlja nije demokratska.
Klimatska kriza i longtermism: Najdirektnije moralno protivrečje
Ironija koja se ne može ignorisati: tech kompanije koje su vodili protagonisti longtermizma i „spasavanja čovečanstva“ u 2024. i 2025. menjale su sopstvene klimatske ciljeve i okretale se fosilnim gorivima kako bi napajale data centre koji su im potrebni za AGI istraživanja.
Google je 2024. objavilo da su mu emisije ugljen-dioksida porasle za 48% od 2019. – uglavnom zbog energetskih potreba AI data centara. Microsoft je u istom periodu povećao emisije za 29%. Obe kompanije su imale ambiciozne „net zero“ (nulte emisije) ciljeve koje su javno revidirali ili pomerili.
Eric Schmidt, bivši CEO Googlea i milijarder ulagač u svemirske tehnologije, rekao je doslovno sledeće, malo pre nego što je Adam Becker pisao svoju knjigu: „Ionako nećemo dostići klimatske ciljeve jer nismo organizovani da ih dostignemo, pa hajde da potrošimo što više energije je moguće, razvijemo AGI što pre, i AI će rešiti klimatsku krizu umesto nas. To je bolji klimatski plan od obnovljivih izvora.“
Ovo je savršen primer onoga što kritičari nazivaju „insidious form of climate denial“ (podmukla forma poricanja klimatskih promena): niko ne tvrdi eksplicitno da klimatska kriza nije realna, ali longtermistička logika generiše racionalizaciju za nepostupanje sada uz obećanje da će tehnološki spas doći kasnije.
Akademska kritičarka longtermizma, filozofkinja Émile Torres (koja je prvobitno bila deo pokreta, a zatim ga radikalno napustila) ovaj fenomen naziva „existential risk exceptionalism“ – tendencija da se svaki tekući problem smatra manjim u poređenju sa hipotetskim egzistencijalnim rizicima koji opravdavaju sve. I u toj logici, klimatska kriza – koja je realna, dokumentovana, merljiva i koja ubija ljude sada – postaje moralno inferiorna u odnosu na spekulativne rizike AGI katastrofe za koju niko ne zna ni kada će biti moguća, ni koliko je verovatna.
FTX skandal: Kada longtermism sretne pohlepu i ne može da je razlikuje
Najglasniji i najilustrativniji slučaj o tome šta se može desiti kada longtermistička ideologija sretne neograničeno bogatstvo bez institucionalnih provera jeste slom FTX-a i pad Sama Bankman-Frieda u 2022. godini.
Bankman-Fried je bio kripto milijarder koji je bio jedan od najvećih donatora EA/longtermist pokreta, sa deklarisanom namerom da pokloni „većinu svog bogatstva“ – procenjivanog u jednom trenutku na 16 milijardi dolara – za EA inicijative. Ovo ga je učinilo herojem unutar zajednice, legitimacionim simbolom da je „earn to give“ (zaradi da bi dao) strategija etički valjana.
Bankman-Fried je koristio depozite korisnika FTX-a za finansiranje špekulativnih investicija kroz svoju privatnu investicionu firmu Alameda Research. Kada je kripto tržište palo i kada su korisnici hteli da povuku sredstva, FTX nije imao likvidnost. Kolaps je bio momentalan i katastrofalan – milijarde dolara korisničkih depozita su nestale. Bankman-Fried je osuđen na 25 godina zatvora.
Ono što je posebno zanimljivo za analizu longtermizma nije samo kriminalno ponašanje – nego kako je longtermistička etika bila upletena u njega. Bankman-Fried je javno pričao o „expected value reasoning“ (kalkulaciji očekivane vrednosti) na način koji je sugerirovao da bi rizikovanje (pa i tuđih sredstava) u cilju generisanja visokih prinosa koje bi se onda donirali za longtermist ciljeve moglo biti etički opravdano ako je „expected value“ (očekivana vrednost) pozitivan. Ovo nije bio kriminalni mentalni sklop koji je bio u suprotnosti sa longtermizmom – bio je, na određen način, konzistentan sa njim.
Kolaps FTX-a je otvorio pravu debatu unutar EA zajednice: da li je longtermistička filozofija strukturno ranjiva na ovaj tip zloupotrebе, jer njena logika „svrha opravdava sredstva“ – ako je svrha dovoljno grandiozna i dugačke projekcije – ne nudi dovoljan otpor manipulaciji?
Odgovor koji je izašao iz te debate bio je neprijatan: longtermistički pokret je Bankman-Friedu dao legitimnost, a da je ignorisao upozorenja koja su postojala o njegovim poslovnim praksama. Prijavljivač unutar zajednice koji je pokušao da upozori na rizike nije bio adekvatno saslušan – jer je Bankman-Fried bio prevelik donor da bi ga zajednica dovela u pitanje.
AGI istraživanje i trka bez kočnica: Ko profitira, ko plaća
AGI research (istraživanje veštačke opšte inteligencije) – potrage za AI sistemom koji bi imao generalne kognitivne kapacitete na nivou ili iznad ljudskog – je investicioni fokus koji generiše najdirektnija pitanja o motivacijama tech elite.
Sa jedne strane, postoji legitimno naučno i sigurnosno pitanje: ako AGI sistem postane moguć, neizbežan je ili verorovatniji nego što mislimo, onda je bolje da istraživači koji brinu o sigurnosti budu na čelu razvoja nego oni koji ne brinu. Ovo je „race to safety“ (trka ka bezbednosti) argument koji ima određenu logiku.
Sa druge strane, postoji strukturno protivrečje koje je teško ignorisati: iste kompanije koje tvrde da razvijaju AGI „odgovorno“ i „sa bezbednošću kao prioritetom“ istovremeno:
-
Investiraju milijarde u što brži razvoj, jer tržišna pozicija zavisi od toga ko je prvi
-
Lobujiraju protiv regulacije koja bi usporila razvoj
-
Otpuštaju interne etičke i bezbednosne istraživače kada njihov rad generiše zaključke koji ometaju komercijalne planove (slučajevi otpuštanja u Google Deepmind, OpenAI i Meta su dokumentovani)
-
Koriste „AI safety“ retoriku kao PR pozicioniranje koje im daje moralni legitimitet dok nastavljaju sa razvojem koji ta ista retorika, dosledna primenjena, sugeriše da bi trebalo usporiti ili zaustaviti
MIT Technology Review je u junu 2025. analizirao ovu kontradikciju direktno: tech milijarderi „prave rizičan oklad sa sudbinom čovečanstva“ i to rade u kontekstu u kome oni direktno profitiraju od brzine, a cenu potencijalnog neuspeha plaća čitavo čovečanstvo.
Psihološka dimenzija: Šta nam kaže kriza identiteta koja stoji iza vizija
Ovde dolazimo do dimenzije koja je možda najzanimljivija i koja je najmanje analizirana u mainstream medijima: šta nam o tech eliti govori to što njeni protagonisti investiraju u longtermism, svemirsku kolonizaciju i AGI?
Postoji ubedljiv psihološki argument koji je izneo CBS profesor Rama Seth u analizi egzistencijalne krize Silicijumske doline iz februara 2026.: tech industrija je u dubokoj strukturnoj krizi – masovna otpuštanja (35% porast od 2022), padajuće venture kapital (smanjenje investicija u visoko-rizičan kapital), regulatorni pritisak, i gubitak dominantne pozicije u globalnom tech ekosistemu kako novi centri rastu u Njujorku, Londonu, Singapuru.
U kontekstu ove krize, grandiozne vizije – Mars, AGI, transhumanizam – služe psihološkoj funkciji koja nije trivijalna: one redefinišu izvor legitimiteta i značajnosti. Kada je izvor legitimiteta bio „grade najbrže rastuće startupe i menjajte svakodnevnicu milijardi korisnika“ – i kada taj izvor počinje da slabi – nova grandiozna misija koja je po definiciji neraskidivo vezana za budućnost i stoga nemerljiva u sadašnjosti postaje psihološki spasonosna.
Ne možete oceniti da li SpaceX „uspeva“ u cilju spašavanja civilizacije. Ne možete oceniti da li OpenAI „uspeva“ u razvoju bezbednog AGI-a koji će transformisati čovečanstvo na bolje – jer oba cilja su u budućnosti koja je dovoljno daleka da sadašnji akteri ne moraju biti odgovorni za njeno ostvarenje.
Ovo je strukturno drugačije od „napravite uspešnu kompaniju“ cilja koji ima jasne metrike i koji može biti objektivno evaluiran.
Demokratija i moć: Ko je ovlašćen da odlučuje o sudbini čovečanstva
Ovde dolazimo do argumenta koji je, rekli bismo, centralni za razumevanje dugoročnog značaja longtermist pokreta – i koji je formulisan precizno u kritičkim analizama koje su izašle u 2025. i 2026.
Longtermist vizija – civilizacija sa trilijun bića u svemiru, superinteligentni AGI koji upravlja planetarnim sistemima, prenos svesti na digitalne medijume – nije politički neutralna. Ona pretpostavlja specifičnu arhitekturu moći u kojoj mali broj ljudi koji imaju pristup kapitalnom i tehnološkim resursima potrebnim za realizaciju tih vizija ima neproporcionalan uticaj na odluke koje bi, u demokratskoj logici, trebalo donositi kolektivno.
The Atlantic je u maju 2025. formulisao ovo direktno: „Billionaires do not seek to debate the future; they seek to own it.“ (Milijarderi ne traže debatu o budućnosti; oni je žele posedovati.)
Kada Jeff Bezos zamišlja budućnost u kojoj trilion bića živi na svemirskim stanicama – ko je dizajnirao te stanice? Ko je odlučio kakvi su društveni sistemi na njima? Ko je odlučio ko sme da ode? Blue Origin je privatna kompanija. Nije glasanjem izabrana. Nije demokratski legitimisana. Ali vizija budućnosti koju nudi implicira odluke o sudbini civilizacije koje nijedan demokratski proces nije uspostavio.
Ovo nije futuristička spekulacija – ovo je pitanje koje je relevantno sada, jer odluke o investicijama koje Bezos, Musk, Altman i Thiel donose sada određuju koje tehnologije postoje, koji pravci razvoja su finansirani, koji problemi se smatraju „vrednim rešavanja“ i koji ne. Ove odluke se donose privatno, bez demokratskog nadzora, uz retoriku koja ih predstavlja kao altruistične ali uz ekonomske podsticaje koji su sasvim jasni.
Srebrna linija: Šta je od svega toga zapravo vredno
U duhu intelektualne poštene analize, moramo reći i sledeće: nisu svi aspekti longtermist investicija i tech elite ambicija jednako problematični. Postoje realni doprinosi koji imaju stvarnu vrednost.
SpaceX i Starlink: SpaceX je učinio pristup svemiru drastično jeftinijim – cena lansiranja po kilogramu na orbitu pala je sa desetina hiljada dolara na nekoliko stotina. Ovo je realna tehnološka transformacija koja je nezavisna od Muskovih filozofskih pozicija. Starlink je doneo internet konekciju u ruralna i siromašna područja koja je nisu imala – u Africi, Aziji i Latinskoj Americi – i to je konkretan benefit. NASA misije koje su koristile SpaceX kapacitete i istraživanje Marsa koji može generisati naučno znanje su legitimne vrednosti.
AI sigurnosno istraživanje: Deo onoga što se finansira pod „AI safety“ (bezbednost AI) ima realu naučnu vrednost – razumevanje kako su AI sistemi interpretabilni (kako razumemo šta i zašto rade), kako osigurati da budu usklađeni sa ljudskim vrednostima, kako sprečiti unintended consequences (nenameravane posledice) su legitimna istraživačka pitanja. Kritika nije da ta pitanja nisu važna – kritika je da financiranje tih istraživanja ne bi trebalo biti u privatnim rukama bez demokratskog nadzora.
Longevity research (istraživanje dugovečnosti): Produženje zdravog životnog veka je nešto od čega bi mogli da imaju koristi svi, ne samo bogati koji finansiraju istraživanja. Ako istraživanja koja finansira Peter Thiel ili Jeff Bezos rezultiraju tretmanima koji smanjuju patnju od Alzheimera ili raka – to je realna vrednost, bez obzira na motivaciju koja stoji iza finansiranja.
Problem nije u tome da su sve te ambicije bestpunktno loše. Problem je u proporciji, prioritetima i demokratskoj odgovornosti. Kompanija koja troši 10 milijardi na Mars kolonizaciju dok istovremeno lobbira protiv klimatske regulacije i plaća radnike ispod standarda ne demonstrira altruizam – demonstrira selekciju problema prema onima koji su ideološki i finansijski poravnati sa sopstvenim interesima.
Srbija i tech elita: Zašto ovo nije globalna apstrakcija
Za srpski IT sektor, longtermist agenda tech elite nije apstraktna globalna priča. Ona ima direktne lokalne implikacije.
Srpska IT kompanija koja radi za Amazon Web Services (AWS) je deo infrastrukture koja finansira Bezosove svemirske ambicije. Srpski developeri koji rade na OpenAI integracijom su deo ekosistema koji finansira Sam Altman-ovu AGI viziju. Srpske kompanije koje kupuju Microsoft Azure kapacitete finansiraju i Microsoft-ov Copilot AI program koji je centralni deo tech elite strategije.
Ovo ne znači da su te kompanije ili ti developeri moralno odgovorni za longtermist ideologiju. Znači da su deo globalnog sistema u kome ekonomski tokovi finansiraju agende koje se donose bez ikakve demokratske participacije srpskog IT sektora ili srpskog društva.
Konkretno pitanje za srpski tech sektor: da li bi trebalo da postoji veća svest o tome gde teku pare od outsourcinga i od usvajanja cloud i AI infrastrukture mega-kompanija? Da li bi IT asocijacije, startupski ekosistem i obrazovne institucije trebalo da otvore debatu o etičkim dimenzijama partnerstva sa firmama čije investicione strategije postavljaju ozbiljna pitanja o demokratiji i raspodeli moći?
Ovo nisu pitanja koja traže jednostavan odgovor „da“ ili „ne“. Ali to su pitanja koja bi ozbiljan IT sektor trebalo da postavlja.
Budućnost: Tri scenarija za narednih 20 godina
Na osnovu trenutnih trendova, akademskih analiza i geopolitičkih kretanja, mogu se ocrtati tri scenarija za to kako će se longtermist agenda tech elite razvijati.
Scenario 1 – Tehnološki trijumf: AGI zaista bude razvijen i zaista transformiše rešavanje globalnih problema – klimatska kriza, bolesti, siromaštvo. Svemirska kolonizacija postane ekonomski i logistički izvodiva. Tech elite su isporučile ono što su obećale. U ovom scenariju, kritike longtermizma izgledaju kao kratkovidi konzervativizam. Ovo je scenario koji longtermisti promoviraju.
Scenario 2 – Regulatorni rascep: Demokratske institucije – EU, UN, zakonodavna tela u SAD-u – uvode ozbiljnu regulaciju AGI razvoja i privatnih svemirskih programa. Tech elite gube deo autonomije da vode te projekte bez demokratskog nadzora. Longtermist agenda postaje predmet parlamentarnih debata, a ne samo privatnih investicionih odluka. Ovo je scenario koji je u toku u EU, gde AI Act već postoji a debata o regulaciji AGI se ubrzava.
Scenario 3 – Konsolidacija bez odgovornosti: AGI ne stiže (ili stiže u daleko ograničenijoj formi nego što se reklamira), Mars kolonizacija ostaje decenijama udaljena, ali tech elite u međuvremenu konsoliduju ekonomsku i političku moć koristeći longtermist retoriku kao moralni štit za odluke koje im odgovaraju. Klimatska kriza se pogoršava jer je akcija bila odložena u iščekivanju tehnološkog spasa. U ovom scenariju, longtermism ne bi bio greškom dobronamerne utopije – bio bi instrumentalizovanom ideologijom konzervacije postojeće strukture moći. Ovo je scenario koji kritičari poput Beckera, Torres i autora u The Atlantic smatraju najvjerovatnijim.
Vizionarstvo, odgovornost i demokratija budućnosti
Završimo sa pitanjem koje je u osnovi sve: da li je longtermism tech elite briga za budućnost ili beg od sadašnjosti?
Odgovor je, verovatno, i jedno i drugo istovremeno – i upravo to je razlog zašto je analitički teža nego što bi bila da je jedno ili drugo.
Tech milijarderi koji investiraju u AGI, svemirsku kolonizaciju i longevity research nisu uniformni akteri sa identičnim motivacijama. Među njima ima onih koji iskreno veruju u vizije koje promoviraju i koji su posvetili ogromne lične resurse tim ciljevima na način koji nije sveden samo na profitabilnost. Elon Musk koji lično preuzima ogromne finansijske rizike sa SpaceX-om nije isti kao menadžer koji čuva bonus.
Ali iskrenost namere ne garantuje ispravnost efekta. Ideologija koja generiše racionalizaciju za ignorisanje klimatske krize sada, za odlaganje demokratske odgovornosti uz obećanje futurističkog spasa, za koncentraciju odluka o sudbini civilizacije u privatnim rukama bez javnog nadzora – ta ideologija ima realne štetne efekte nezavisno od iskrenosti onih koji je promoviraju.
Prava debata nije „da li su tech milijarderi zli ili ne“. Prava debata je sistemska: u demokratskom društvu, ko ima pravo da donosi odluke o dugoročnoj sudbini civilizacije? Privatni akteri sa neproporcionalno akumuliranim bogatstvima? Ili kolektivni mehanizmi u kojima participiraju svi koji će živeti sa posledicama tih odluka?
Longtermism u rukama tech elite nije filozofska greška. On je politički program sa filozofskim obojenjem – i trebalo bi ga analizirati i tretirati upravo kao to.
Vizionarstvo koje isključuje demokratsko učešće nije vizionarstvo. Ono je, bez obzira na namere, oligarhija obučena u idealistički jezik.



