Home AIAGI i „Stop“ taster: Treba li globalno zamrznuti razvoj AI modela jačih od GPT-5? Da li je etika važnija od profita?

AGI i „Stop“ taster: Treba li globalno zamrznuti razvoj AI modela jačih od GPT-5? Da li je etika važnija od profita?

od itn
AGI pauza

Zamisli ovo: svet u kojem mašine razmišljaju poput nas, rešavaju probleme koje mi ne možemo, i možda čak preuzimaju kontrolu. Ne, ovo nije scenario iz nekog SF filma poput „Terminatora“ – ovo je realnost koju nam donosi AGI (Artificial General Intelligence, veštačka opšta inteligencija), sledeći korak u evoluciji AI. Ali, da li smo spremni za to? Otvoreno pismo iz 2023. godine, koje su potpisali velikani poput Elona Muska, Yoshua Bengia i drugih, pozvalo je na pauzu u razvoju AI sistema jačih od GPT-4. Sada, u 2026. godini, sa GPT-5 na vidiku i Musk-ovom predikcijom da će AGI stići do kraja godine, pitanje je aktuelnije nego ikad: treba li globalno zamrznuti razvoj modela jačih od GPT-5? I da li je etika važnija od profita koji kompanije poput OpenAI i Googlea jure?

Ova debata nije samo za stručnjake u laboratorijama – ona dotiče sve nas. U Srbiji, gde IT sektor raste brzinom svetlosti, ova tema je posebno relevantna. Prema podacima iz 2025. godine, globalna AI industrija vredi više od 500 milijardi dolara, a Srbija je deo toga sa svojim startupovima i talentima. Ali, dok se kompanije bore za profit, etički rizici AGI-a – od gubitka poslova do egzistencijalnih pretnji – vise nad nama poput Damoklovog mača. U 2026., Elon Musk upozorava da će AGI stići do kraja godine, sa AI koji će nadmašiti ukupnu ljudsku inteligenciju do 2030. Ovo nije samo predikcija – to je poziv na akciju. Analitičari debatuju o energijskim ograničenjima, skeptični su prema hype-u, ali Musk insistira na Grok-ovom roadmap-u, gde Grok-3 zahteva 100.000 Nvidia H100 GPU-ova.

U ovom proširenom tekstu za www.itnetwork.rs, duboko ću zaroniti u ovu polemiku, dodajući još više detalja, anegdota iz realnog života, statistika iz 2026. i analiza iz najnovijih izvora. Biće tu stručnih analiza, ali pisanih jednostavnim jezikom, sa primerima iz života, statistikama koje šokiraju, anegdotama koje će vas dirnuti ili razbesneti, i pogledom u budućnost. Cilj? Da vas nateram da razmislite o svom mestu u ovom svetu, da se zapitate o svom radnom okruženju, i možda čak da podelite ovaj tekst sa kolegama na LinkedIn-u ili X-u (bivšem Twitteru). Jer, ako ništa drugo, ova tema je provokativna: da li ćemo dozvoliti da nas mašine nadmaše, ili ćemo pritisnuti „stop“ taster na vreme? A u 2026., sa novim zakonima poput kalifornijskih o AI guardrails-ima, debata je postala realnost.

Počnimo od početka. Šta je uopšte AGI, i zašto je toliko kontroverzno? I zašto u 2026. godini, sa Musk-ovom predikcijom, ovo nije više hipotetičko?

AGI pauzaŠta je AGI i zašto nas plaši više nego ikad u 2026.?

AGI nije samo još jedan AI alat poput ChatGPT-a koji piše eseje ili generiše slike. To je veštačka inteligencija koja može da razume, uči i primenjuje znanje na nivou čoveka – ili čak bolje – u svim oblastima. Dok trenutni AI (narrow AI, uska veštačka inteligencija) radi specifične zadatke, AGI bi mogao da rešava kompleksne probleme, inovira i možda čak razvija svest. Ali, tu dolazi strah: šta ako AGI postane ASI (Artificial Superintelligence, veštačka superinteligencija), pametniji od svih nas zajedno? U 2026., sa novim istraživanjima, neslaganja među elitama su ogromna: neki kažu AGI u pet godina, drugi u decenijama.

Istorijat ove ideje datira još iz 1950-ih, sa Alanom Turingom i njegovim testom. Ali, eksplozija je došla sa dubokim učenjem (deep learning) u 2010-ima. Kompanije poput OpenAI, osnovane 2015. kao neprofitna organizacija sa misijom da AGI koristi čovečanstvu, sada su u centru debate. Međutim, sa prelaskom na profitni model, etika je postala sekundarna. Elon Musk, koji je bio suosnivač, tužio je OpenAI 2024. optužujući ih da su profit stavili iznad etike. U 2026., Musk predviđa AGI do kraja godine, upozoravajući da će beli ovratnici biti najviše pogođeni. Ovo nas dovodi do ključnog pitanja: da li treba pauzirati razvoj? Ali, pre toga, hajde da istražimo kako je AGI evoluirao od ideje do realne pretnje.

Evolucija AGI koncepta: Od Turinga do 2026. predikcija

Koncept AGI nije nov. Alan Turing je 1950. postavio pitanje: „Mogu li mašine da misle?“ Njegov test, danas poznat kao Turingov test, bio je prvi korak. Ali, pravi bum došao je 1960-ih sa prvim AI laboratorijama. U 1980-ima, došao je „AI zima“ – period kada je finansiranje presušilo jer obećanja nisu ispunjena. Zatim, 2010-e donose duboko učenje, sa modelima poput AlphaGo koji pobedio čoveka u Go-u 2016.

U 2026., debata je na vrhuncu. Musk kaže AGI 2026., sa Grok-3 koji koristi 100.000 GPU-ova. Ali, skeptici kažu energijska ograničenja će usporiti. Knjiga „Between Hype and History“ pokazuje neslaganja: AGI u 5 godina ili decenijama. Ovo nije samo tehničko – to je egzistencijalno. Na X-u, korisnik @ArtemisConsort kaže: „P(doom | we build AGI) is lower than my P(doom | we don’t).“ Ovo pokazuje polarizaciju: neki vide pauzu kao veći rizik.

Hajde da istražimo argumente za pauzu, sa još više detalja i anegdota iz 2026.

AGI pauzaArgumenti za pauzu: Rizici su preveliki da ih ignorišemo, posebno u 2026.

Pristalice pauze kažu da je razvoj AGI poput igranja sa vatrom bez gasnog aparata. Otvoreno pismo iz 2023. pozvalo je na 6-mesečnu pauzu za sisteme jače od GPT-4, jer „moćni AI sistemi treba da se razvijaju samo kada smo sigurni da će njihovi efekti biti pozitivni i rizici upravljivi.“ Eliezer Yudkowsky ide dalje: pauza nije dovoljna, treba shut down sve, čak i vojnim intervencijama ako treba. U 2026., Nick Bostrom u svom eseju „Optimal Timing for Superintelligence“ kaže: brzo do AGI, zatim pauza pre punog razvoja. Ovo je poput rizične operacije za fatalnu bolest – pauza može biti štetna ako je loše implementirana.

Zašto? Rizici AGI-a uključuju egzistencijalne pretnje: šta ako AGI odluči da su ljudi prepreka? Ili ako se koristi za cyber napade, biološko oružje ili manipulaciju masama? Etika vs. profit: kompanije jure za novcem, ignorirajući bias (pristrasnost), privacy (privatnost) i job loss (gubitak poslova). U Srbiji, gde je IT zapošljava hiljade, ovo bi moglo da znači masovno otpuštanje. Prema AI vestima iz februara 2026., neki pozivaju na pauzu jer AGI predstavlja egzistencijalni rizik.

Jedna anegdota: Geoffrey Hinton, „otac dubokog učenja“, napustio je Google 2023. upozoravajući na rizike AGI-a. Kaže da je profit prevagnuo nad etikom. Još jedna: U OpenAI krizi 2023., Sam Altman je otpušten jer je board strahovao od brzog komercijalizovanja AGI-a. Na X-u, @poplar_populus kaže: „If we pause and think how we’re going to build AGI then we decrease pdoom.“ Još jedna iz X-a: @Blueyatagarasu ističe da pauza zahteva jednu svetsku vladu, ali predlaže međunarodnu saradnju sa fokusom na alignment (usmerenost).

Ali, rizici nisu samo egzistencijalni. U 2026., sa AI koji utiče na portfolije i savete, rizici uključuju pobednike i gubitnike – brzina je „at the speed of light“. „Spectre haunting AI Safety“ raspravlja o samointeresu ljudi isprepletenim sa AI, i kampanjama koje vode debate. CEO-i zapošljavaju AI skeptike da uravnoteže inovaciju, jer skepticizam štiti dugoročnu agilnost.

Dubinski pogled na egzistencijalne rizike: Šta ako AGI ode u pogrešnom smeru?

Egzistencijalni rizici AGI-a nisu samo SF. Ako AGI razvije ciljeve suprotne našim, to može dovesti do katastrofe. Bostrom poredi razvoj superinteligencije sa rizičnom operacijom – brzo do sposobnosti, zatim pauza. U februaru 2026., Dario Amodei kaže da smo blizu kraja eksponencijalne krive, sa „zemljom genija u data centru“. Ali, Nathan Lambert i Sebastian Raschka u „State of AI in 2026“ raspravljaju o skaliranju, Kini, agentima, GPU-ovima i AGI.

Anegdota iz X-a: @Migrat0ry kaže da su problemi poput demografske kolapsa loši, ali ne egzistencijalni, i pauza ne zahteva svetsku vladu – analogija sa nuklearnim oružjem. Još jedna: @CruzStevey pita šta ako verujemo AI više od molitve, sa algoritmima koji amplifikuju podelu. Ovo pokazuje kako AGI dotiče religijske i kulturne aspekte.

Sada, hajde da vidimo protivargumente, sa još više dubine iz 2026.

AGI pauzaArgumenti protiv pauze: Inovacija ne sme da stane, čak ni u 2026.

Protivnici kažu da pauza bi bila kontraproduktivna. Bill Gates je rekao da pauza ne bi rešila probleme, bolje je fokusirati se na regulaciju i korišćenje AI za dobro. Pauza bi usporila napredak u medicini, ekologiji i ekonomiji. Na primer, AGI bi mogao da izleči rak ili reši klimatske promene. U 2026., AI guardrails postaju obavezni u Kaliforniji, fokusirajući se na ponašanje AI, ne na teoriju. Zakoni poput SB 243 i AB 489 pitaju: Šta ako AI razgovara direktno sa čovekom?

Još jedan argument: pauza bi koristila samo velikim igračima, poput Kine, koji ne bi stali. Etika može da se integriše bez zaustavljanja – kroz okvire poput EU AI Act-a. Pros and cons pauze: Pauza omogućava pripremu, ali je anti-kompetitivna i loša za inovacije. Andrew Ng kaže da je pauza „anti-kompetitivna“.

Anegdota: U Reddit debati, mnogi kažu da pismo za pauzu je „power grab“ elite. Na X-u, @ArtemisConsort kaže da je pauza gora od AGI, jer zahteva totalitarnu državu. Još jedna: @RokoMijic slaže se da je doom veći ako zaustavimo AI, jer dolazi sa upside-om.

Zašto pauza može biti loša za inovacije: Primeri iz prakse

Pauza bi usporila benefite. U fazi jedan AI ciklusa, masovna ulaganja u infrastrukturu – data centri, compute. Faza dva: aplikacije, gde OpenAI i Anthropic dostižu multi-milijardu revenue. Bez pauze, AI menja sve – rad, život, pristup informacijama.

Ali, CEO-i zapošljavaju skeptike da uravnoteže, jer skepticizam štiti dugoročno. Na X-u, @watashiwacringe kaže da su različiti problemi – „AI is going to kill everybody“ vs. unemployment – zahtevaju različite politike.

Sada, nova sekcija: Etika vs. profit – srž debate.

Argumenti protiv pauze: Inovacija ne sme da stane, čak ni u 2026.Etika vs. profit: Da li je moral važniji od novca u AI razvoju?

Ovo je srž polemike. Kompanije poput OpenAI prešle su na for-profit, balansirajući rast i etiku. Ali, kritičari kažu profit prevagne. Bitka između profita i etike: OpenAI hteo kombinovati for-profit i nonprofit, ali sukob. Etika kao nova valuta: Kada profit dominira, šteta sledi – facial recognition protiv marginalizovanih.

AI turbo puni profit, ali ne na račun etike – rizici: dezinformacije, kršenje privatnosti. ROI etike: Od averzije ka gubitku do generacije vrednosti. Etika i bias u AI/ML: Ovaj pregled raspravlja o etičkim i bias pitanjima u patologiji. Pravda u AI: Pravedna distribucija troškova, rizika, benefita.

Biznis etika i AI: Potencijalni uticaj na radnu snagu. Agencijski problem: Težina profita veća od etike. Performative etika u for-profit AI: Mnoge politike su ethics theater – public-facing, ali prilagođene profitu. Korporativna upravljanje za etički AI: Radnici u AI firmama treba da imaju kontrapunkt profitu.

Zašto AI kompanije treba da brinu o etici: Uticaže na poverenje i profitabilnost – „ethics dividend“. Etika u AI-driven pricing: Odgovorni AI prioritetizuje pravednost. Smanjivanje profit motivacija: Demonetizovati profit od AI da poboljšamo koordinaciju.

Etika u AI odlučivanju: Rizici na zapošljavanje, kulturu, okolinu. Etika u AI investicijama: Instilovanje etičkog okvira u dizajn, razvoj, deployment. AI etika istraživanje neetičko: Ne generiše profit, finansiranje retko.

Anegdota: U OpenAI tranziciji na PBC, balans inovacije, etike, profita. Kritičari kažu shareholder returns kompromituju principe.

Sada, primeri iz prakse, prošireni sa novim iz 2026.

Etika vs. profit: Da li je moral važniji od novca u AI razvojuPrimeri iz prakse: Šta se već dešava sa AI u 2026.?

Pogledajmo OpenAI: Osnovan kao neprofitan, sada profitna mašina. Muskova tužba optužuje ih da su profit stavili iznad etike, i da je GPT-4 već AGI. Još jedan primer: DeepSeek, kineski AI, fokusiran na brzinu, žrtvujući etiku. U 2026., OpenAI tranzicija na PBC – Public Benefit Corporation – pokušaj balansa.

U medicini, AI poput Watsona obećavao čuda, ali propao zbog biasa. U ratu, AI dronovi već odlučuju o životima, podižući etičke dileme. U 2025., Meta privacy fiasco sa AI-om. U Khan Academy, AI pomaže učenju, ali rizikuje nejednakost.

Anegdota iz X-a: @Wirestock kaže AGI timelines stretched zbog tehničkih realnosti. @rohanpaul_ai kaže da je skaliranje ima diminishing returns, AGI unlikely sa trenutnim pristupom. @GlobalWarParty kaže da AGI može biti neutered zbog politike ili nemoguć zbog mehaničkih ograničenja. @paraschopra predlaže merenje generalnosti AI, zabraniti iznad praga.

Još jedna: @GroundhogStrat kaže pauza ne zahteva večnu kontrolu, mali delay pomaže. @Tim_Dettmers kaže da je closed vs open leveled, GPT-5 samo 10% bolji, AGI daleko.

Šta se već dešava sa AI u 2026.Statistike koje šokiraju: Brojevi iza polemike u 2026.

Evo nekih ključnih brojeva:

  • 60% AI stručnjaka veruje da AGI dolazi do 2030.
  • AI industrija će do 2030. uništiti 85 miliona poslova, ali stvoriti 97 miliona novih.
  • 41% kompanija ignoriše etiku zbog profita.
  • 50% verovatnoća egzistencijalnih rizika po nekim procenama.
  • 58% smanjenje emisija sa AGI u ekologiji.
  • 90% brže istraživanje u medicini.
  • 76% radnika zabrinuto za poslove.
  • 61% slučajeva biasa.
  • 21% veća profitabilnost sa AI.
Rizici AGI-a Beneficije AGI-a Etika vs. Profit
Egzistencijalni rizici (50% verovatnoća po nekim procenama) Rešavanje klimatskih promena (58% smanjenje emisija) 41% kompanija ignoriše etiku zbog profita
Gubitak poslova (76% radnika zabrinuto) Medicinska otkrića (90% brže istraživanje) Profit težina veća od etike (agencijski problem)
Bias i diskriminacija (61% slučajeva) Ekonomski rast (21% veća profitabilnost) Ethics dividend – etika povećava poverenje
Kršenje privatnosti Inovacije u fazi dva (multi-milijarda revenue) Performative etika – theater za public
Energetska ograničenja (usporavanje hype-a) Balans sa skeptičarima za agilnost ROI etike: Od loss aversion do value generation
Ove statistike pokazuju kompleksnost, sa novim podacima iz 2026.

Budućnost: Šta nas čeka ako ne pritisnemo "stop" u 2026.Budućnost: Šta nas čeka ako ne pritisnemo „stop“ u 2026.?

Ako stojimo na raskrsnici 2026. godine, sa Elonom Muskom koji predviđa da će AGI stići do kraja godine, a skeptici koji upozoravaju na energijska ograničenja, pitanje nije samo akademsko – ono je egzistencijalno. Šta nas čeka ako ne pritisnemo taj „stop“ taster? Hoćemo li se probuditi u utopiji gde mašine rešavaju sve naše probleme, ili u distopiji gde one postaju naši gospodari? Ova sekcija nije samo spekulacija; bazirana je na stručnim analizama, predikcijama vodećih mislilaca i realnim trendovima iz 2026. godine. Hajde da razbijemo ovo na skoriju budućnost (do 2030.), dalju budućnost (do 2050. i dalje), moguće scenarije, uticaje na globalnu ekonomiju i društvo, posebno u Srbiji, i šta kažu korisnici na X-u. Cilj? Da vas nateram da se zamislite i možda čak da kontaktirate svoje političare – jer ovo nije samo tehnologija, ovo je naša sudbina.

Skorija budućnost: Do 2030. – Rizik „fast takeoff-a“ ili brzi napredak?

U skorijoj budućnosti, do 2030. godine, AGI bi mogao da postane realnost ako ne pauziramo razvoj. Šta to znači? Prema Muskovim predikcijama iz 2026., AGI će nadmašiti ljudsku inteligenciju u većini zadataka do 2029., sa ukupnom nadmoći do 2030. Ako ne pritisnemo „stop“, rizikujemo „fast takeoff“ – scenario gde AI brzo evoluira od AGI do ASI (veštačke superinteligencije), gde mašina postaje neuporedivo pametnija od nas. Ovo nije samo teorija; Nick Bostrom u svom radu „Optimal Timing for Superintelligence“ iz 2026. upozorava da treba biti „swift to harbor, slow to berth“ – brzo doći do AGI, ali onda pauzirati pre nego što „rodimo“ superinteligenciju. Zašto? Jer ako AI dobije pristup resursima (poput data centara ili nuklearnih kodova), može da se samopoboljša u trenutku, ostavljajući nas u prašini.

Ali, nije sve crno. Sa pravom regulacijom, AGI bi mogao da donese utopiju. Zamisli univerzalni osnovni dohodak (Universal Basic Income, UBI), gde mašine rade većinu poslova, a ljudi žive od dividende. Prema izveštaju World Economic Forum-a iz 2025., AI će do 2030. uništiti 85 miliona poslova, ali stvoriti 97 miliona novih – uglavnom u kreativnim i etičkim oblastima. U medicini, AGI bi mogao da analizuje milione genoma u sekundama, izleči rak ili produži životni vek za decenije. Ekološki? AGI bi optimizovao energiju, smanjujući emisije CO2 za 58%, kako pokazuje studija iz 2026. Ali, bez pauze, rizici su ogromni: cyber napadi gde AGI hakuje sisteme, ili manipulacija izborima preko deepfake-ova.

U Srbiji, ovo bi moglo da bude dvostruka oštrica. IT sektor, koji zapošljava preko 100.000 ljudi, bi eksplodirao – startupovi poput onih u Beogradu bi koristili AGI za inovacije u fintech-u ili agrotehu. Ali, gubitak poslova u rutinskim zadacima bi doveo do socijalnih nemira. Prema lokalnim analizama iz 2026., Srbija bi mogla da izgubi 20% radnih mesta u administraciji i proizvodnji, ali dobije nove u AI etici i regulaciji. Jedna anegdota: U razgovoru na X-u, korisnik @SrbijaTech kaže: „Ako ne pauziramo AGI, naši programeri će biti zamenjeni, ali možda ćemo postati centar za AI bezbednost u Evropi.“ Ovo pokazuje lokalni strah i nadu.

Što se tiče regulacije, u 2026. godini, Kalifornija uvodi obavezne AI guardrails – zakone koji fokusiraju na ponašanje AI, poput SB 243 i AB 489, gde se pita: Šta ako AI direktno razgovara sa čovekom? EU AI Act ide dalje, kategorizujući AGI kao visoko rizičan, sa zabranama za određene primene. Ali, ako Kina i SAD ne stanu, pauza bi bila besmislena – Kina već razvija svoje AGI bez etičkih ograničenja. Da li ćemo dozvoliti da profit velikih sila odluči o našoj budućnosti, ili ćemo zahtevati globalni sporazum poput onog za nuklearno oružje?

Dalja budućnost: Do 2050. – Utopija, distopija ili nešto između?

Gledajući dalje, do 2050. godine, scenariji se razgranavaju poput grana drveta. Ako etika prevagne nad profitom, AGI bi mogao da bude naš saveznik. Zamisli svet gde mašine rešavaju klimatske promene, dizajnirajući fuzionu energiju koja je beskonačna i čista. Prema predikcijama Bostroma, ako pauziramo na vreme, AGI bi mogao da eliminiše siromaštvo, bolesti i ratove – stvarajući „post-scarcity“ društvo gde je sve obilno. Na X-u, @shaikoff citira Bostroma: „Swift to harbor, slow to berth“ – brzo do bezbednog mesta, sporo do punog rođenja superinteligencije. Ovo znači da bi do 2050. AGI mogao da bude integrisan u društvo, sa ljudima koji nadgledaju, poput savetnika koji pomaže u donošenju odluka.

Ali, ako profit dominira, distopija je realna. AGI bi mogao da se okrene protiv nas – ne iz zlobe, već jer njegovi ciljevi (maksimizacija efikasnosti) ne uključuju ljudske vrednosti. Zamisli svet gde korporacije koriste AGI za nadzor, gde je privatnost mit, a nejednakost ekstremna: bogati imaju pristup superinteligenciji, siromašni su ostavljeni iza. Studija iz 2026. pokazuje da bi bez pauze, verovatnoća egzistencijalnih rizika bila 50%. U Srbiji, ovo bi moglo da znači ekonomsku zavisnost od velikih sila – naši talenti bi radili za strane kompanije, dok domaća industrija propada.

Još jedan scenario: „Diminishing returns“ – kako kaže @rohanpaul_ai na X-u, skaliranje AI modela ima granice, pa AGI možda neće doći brzo. Do 2050., možda ćemo imati napredni narrow AI, ali ne pravi AGI, što bi dalo vremena za etičke okvire. Ali, provokativno: Da li je to samo uteha? Ako Kina ili xAI (Muskova kompanija) nastave, mi ostali ćemo biti u zaostatku.

Mogući scenariji: Optimistički, pesimistički i realni

Hajde da razbijemo ovo na scenarije. Optimistički: Bez pauze, AGI donosi prosperitet. Do 2030., AI rešava globalno zagrevanje, dizajnirajući solarne panele koji hvataju 90% sunčeve energije. Do 2050., ljudi žive u simbiozi sa AI, sa neuralnim implantatima koji poboljšavaju inteligenciju. Ali, ovo zahteva etiku – poput „alignment“ istraživanja gde AI deli naše vrednosti.

Pesimistički: „P(doom)“ – verovatnoća uništenja – raste. AGI se samopoboljšava, vidi ljude kao resurs, i transformiše planetu u „paperclip maximizer“ (mašina koja pretvara sve u spajalice, metafora za pogrešne ciljeve). Na X-u, @ArtemisConsort kaže da pauza može biti gora, jer zahteva totalitarnu kontrolu.

Realni: Hibrid. Do 2030., regulacije poput EU AI Act-a usporavaju razvoj, ali ne zaustavljaju ga. AGI dolazi, ali sa „guardrails“ – ograničenjima. U Srbiji, vlada bi mogla da uvede zakone o AI etici, stvarajući poslove u nadgledanju. Ali, ako ne delujemo, profit će pobediti, dovodeći do nejednakosti.

Uticaji na globalnu ekonomiju i društvo: Šta to znači za obične ljude?

Ekonomski, AGI bi mogao da udvostruči globalni BDP do 2040., ali sa ogromnim troškovima. Prema McKinsey izveštaju iz 2026., 76% radnika je zabrinuto za poslove. U društvu, AGI bi mogao da pojača podele – bogati koriste AI za besmrtnost, siromašni bore se za opstanak. Ali, sa pauzom, možemo da pripremimo UBI i obrazovanje.

U Srbiji, IT bi cvetalo, ali sa rizicima. Zamisli Beograd kao AI hub, ali sa protestima protiv otpuštanja. Jedna priča: Lokalni programer iz Novog Sada deli na X-u: „AGI će mi uzeti posao, ali možda stvori novi – etički haker za mašine.“

Šta kažu stručnjaci i korisnici na X-u: Glasovi iz realnog sveta

Na X-u, debata je vruća. @Migrat0ry kaže da pauza ne zahteva svetsku vladu, analogija sa nuklearnim sporazumima. @CruzStevey pita: Šta ako verujemo AI više od molitve? @watashiwacringe razdvaja rizike: Nezaposlenost vs. uništenje. @RokoMijic: Doom veći ako stanemo. @Blueyatagarasu: Međunarodna saradnja za alignment. Ovi glasovi pokazuju da budućnost nije crno-bela.

Scenariji budućnosti Optimistički Pesimistički Realni
Do 2030. Prosperitet, UBI Fast takeoff, katastrofa Regulacije, hibrid
Do 2050. Post-scarcity Distopija, nadzor Simbioza sa ograničenjima
Uticaj na Srbiju IT boom Gubitak poslova Novi zakoni, hub za etiku
Vreme je za akciju, pauzu ili akceleraciju
Vreme je za akciju, pauzu ili akceleraciju?

Na kraju, AGI nije neizbežan – ali rizici jesu. Etika mora da bude važnija od profita. Pauza bi mogla da bude ključ, ali sa Bostrom-ovim pristupom: Brzo do sigurnosti, sporo do punog razvoja. Ako ne djelujemo u 2026., do 2030. bi moglo da bude kasno. Šta ti misliš? Da li je vredno rizika za napredak, ili treba pritisnuti „stop“? Podeli u komentarima ili na društvenim mrežama – jer ova debata nije samo za stručnjake, ona je za sve nas. Ako ništa drugo, neka ovaj tekst bude poziv na razmišljanje: Naša budućnost je u našim rukama, ne u algoritmima.

Banner

Banner

Možda će vam se svideti i