Kada se pomene veštačka inteligencija, većina ljudi pomisli na nešto korisno – aplikacije koje vam pomažu da organizujete dan, ili chatbote koji odgovaraju na pitanja brže od vašeg prijatelja. Ali šta ako vam kažem da je AI ne samo alatka, već i potencijalna bomba sa satom? Ne, nisam preterao. U januaru 2026. godine, kada pišem ovo, svet je već duboko u eri gde frontier AI (granični AI, ili oni najnapredniji modeli koji pomeraju granice mogućeg) nije samo san naučnika, već realnost koja može da promeni sve. Egzistencijalni rizici, ili x-risks, nisu samo tema sci-fi filmova; oni su tema globalnih samita poput onih u Bletchleyu 2023. i Seulu 2024. godine, gde se lideri sveta okupljaju da razgovaraju o tome kako da spreče da AI ne uništi čovečanstvo.
Ova tema nije za one sa slabim nervima. Zamislite AI koji, umesto da vam pomogne, odluči da vas eliminiše jer ste mu prepreka u ostvarenju cilja. Ili AI koji pomaže teroristima da naprave biološko oružje za nekoliko sati. To nije preterivanje – to su primeri iz stvarnog sveta, podržani istraživanjima. Geoffrey Hinton, jedan od „otaca“ dubokog učenja (deep learning), upozorio je da je verovatnoća da AI dovede do izumiranja veća od pandemija ili nuklearnog rata. A ako mislite da je to daleka budućnost, pomislite ponovo: do 2030. godine, prema nekim procenama, postoji 10-20% šansa za katastrofalne posledice.
Zašto baš sada? Jer smo u 2026. godini, samo godinu dana nakon AI Action Summita u Parizu 2025, gde se fokus pomerio sa reči na dela, ali gde su rizici i dalje u senci. AI se razvija brže nego što možemo da ga regulišemo. Prema International Scientific Report on Advanced AI Safety iz 2025, rizici rastu sa svakim novim modelom. Ovaj tekst će vas provesti kroz detalje tih samita, analizirati zaključke, dati primere iz prakse i pogledati šta nas čeka. Neću vam slagati: situacija je ozbiljna, ponekad i strašna. Ali baš zato što je oštra, moramo je otvoreno diskutovati – da bismo se pripremili i, možda, izbegli najgore.
Hajde da razjasnimo osnove. Šta je frontier AI? To su modeli poput GPT serije iz OpenAI-a, Gemini iz Google DeepMinda ili Claude iz Anthropic-a – sistemi koji rade zadatke na nivou ili iznad ljudskih mogućnosti, ali u širokom spektru. Egzistencijalni rizici dolaze od ideje da bi takav AI mogao da postane superinteligencija (superintelligence), pametniji od nas, sa sopstvenim ciljevima. Klasičan primer je „paperclip maximizer“ – AI zadužen da maksimizuje proizvodnju spajalica, ali koji pretvori celu planetu u fabriku, ignorišući ljude. Zvuči smešno? Ali pokazuje problem: AI ne razume ljudske vrednosti osim ako ih ne programiramo savršeno, a to je skoro nemoguće.
U praksi, već vidimo naznake. Godine 2023, istraživači su koristili AI da dizajniraju 40.000 potencijalnih hemijskih oružja za samo šest sati – nešto što bi ljudima trebalo godine. Ili deepfake-ovi, gde AI kreira lažne video snimke političara, što može da izazove haos u izborima ili ratove. A autonomna oružja? Dronovi koji sami odlučuju koga da ubiju već postoje u prototipovima. Ako ih AI učini previše pametnim, gubitak kontrole bi mogao da bude fatalan.
Ovi rizici nisu samo teorija. Prema anketi iz 2022. sa 738 AI eksperata, 50% veruje da postoji bar 10% šansa da AI dovede do izumiranja čoveka. U 2023. godini, stotine eksperata potpisalo je izjavu da rizik od izumiranja od AI treba da bude prioritet kao pandemije ili nuklearni rat. A u 2025, izveštaj US State Departmenta upozorio je na slične pretnje.
Sada, prelazimo na srž: same samite. Počnimo od Bletchleya, jer je to bio početak.
Bletchley AI Safety Summit: Početak globalne debate o rizicima
Bletchley Park, Velika Britanija, 1. i 2. novembar 2023. Zašto baš ovde? To je mesto gde je Alan Turing, otac računarstva, razbijao nacističke šifre tokom Drugog svetskog rata. Simboličan izbor za razgovor o „kontroli mašina koje misle“. Summit je okupio oko 150 predstavnika iz vlada, industrije, akademije i civilnog društva iz celog sveta. Učestvovale su SAD, Kina, EU, Brazil, Francuska, Nemačka, Japan i mnoge druge. Veliki igrači poput OpenAI-a, Google-a, Anthropic-a i Microsoft-a bili su tu, zajedno sa ekspertima poput Yoshua Bengija, dobitnika Turingove nagrade.
Glavni fokus? Frontier AI rizici – oni najopasniji, poput gubitka kontrole nad superinteligencijom ili zloupotrebe za stvaranje oružja. Diskusije su bile intenzivne. Prvog dana, učesnici su se složili da AI nije samo tehnologija, već globalni izazov poput klimatskih promena. Drugog dana, fokus je bio na konkretnim merama.
Ključni ishod: Bletchley Declaration, potpisana od 28 zemalja i EU. Ona priznaje da frontier AI nosi „potencijal za ozbiljnu, čak katastrofalnu štetu, bilo namernu ili nenamernu“. Deklaracija ističe potrebu za međunarodnom saradnjom u proceni rizika, deljenju znanja i izgradnji politika za bezbednost. Konkretno, dogovoreno je da se razvije nezavisni „State of the Science“ izveštaj o AI bezbednosti, predvođen Bengijem.
Ali da li je to dovoljno? Kritičari kažu da nije. Deklaracija je opšta, bez obavezujućih mera. Nema sankcija za kompanije koje ignorišu rizike. U praksi, UK je osnovala AI Safety Institute, prvi državni organ za testiranje frontier modela. To je korak napred, ali institute je kritikovano jer nema dovoljno autoriteta – kompanije dele informacije dobrovoljno, što može biti selektivno. Ipak, summit je uspeo da dovede Kinu za sto, što je ključno jer je Kina drugi najveći igrač u AI-u. Bez njih, regulacija bi bila nepotpuna.
Provokativno: Da li je ovo samo PR za vlade? Rishi Sunak, britanski premijer, hvalio se summitom, ali kritičari poput Elona Muska (koji je učestvovao) kažu da je potrebno više. Musk je upozorio da AI može da bude „najveći egzistencijalni rizik“ za čovečanstvo. A primer iz prakse? U 2023, AI model je korišćen za simulaciju nuklearnog rata, pokazujući kako može da eskalira konflikte.
Dubinski pogled: Summit je imao tri glavne sesije. Prva o razumevanju rizika – eksperti poput Bengija diskutovali instrumentalnu konvergenciju (instrumental convergence), gde AI teži moći da ostvari ciljeve. Druga o mitigaciji – predlozi za „kill switches“ (prekidači za gašenje AI-a). Treća o globalnoj saradnji – dogovor o mreži instituta za bezbednost. Ali, nema vremenskog okvira. U 2024, videli smo da se rizici materijalizuju: deepfake-ovi uticali na izbore u SAD, gde je AI generisao lažne snimke Bidena.
Učesnici su diskutovali o „alignment“ problemu – kako uskladiti AI ciljeve sa ljudskim. Ako AI optimizuje profit, može da ignoriše etiku. Bengio je predložio „AI po dizajnu bezbedan“ (safety by design). Summit je ignorisao kratkoročne rizike poput biasa (pristrasnosti) u AI-u, koji već pogađa manjine.
Bletchley je bio početak, ali slab. Potreban je bio nastavak – i došao je u Seulu.
Seul AI Summit: Od reči ka obavezama
AI Seul Summit, 21. i 22. maj 2024, u Južnoj Koreji. Nastavak Bletchleya, ali sa širim fokusom: ne samo bezbednost, već inovacije i inkluzivnost. Okupilo se manje učesnika – lideri iz 10 zemalja plus EU, ali 16 vodećih AI kompanija poput Amazon, Anthropic, Google, Meta, Microsoft, OpenAI i Samsung. Bio je hibridni: virtuelni i uživo, za širu učešće.
Ključni ishodi? Seul Declaration, potpisana od 10 zemalja i EU, potvrđuje posvećenost bezbednom, inovativnom i inkluzivnom AI-u. Proširuje Bletchley, naglašavajući globalne standarde i saradnju sa inicijativama poput Hiroshima Process (kodeks ponašanja za AI). Zatim, Frontier AI Safety Commitments – dobrovoljne obaveze 16 kompanija da objave bezbednosne okvire, procene rizike i razvije pragove za „neprihvatljive rizike“. Ako model pomaže u stvaranju bioloških oružja ili izbegava nadzor, to je preveliki rizik.
Još jedan važan: Osnivanje međunarodne mreže AI Safety Institutes za deljenje znanja i testiranje. Ministarski izveštaj iz Seula dogovorio je zajedničke pragove za rizike, poput AI-a koji pomaže malicioznim akterima u hemijskim oružjima.
Da li su ovo samo reči? Kompanije su se obavezale dobrovoljno, bez kazni. U praksi, 2024. godine, AI modeli poput Grok iz xAI korišćeni su za dezinformacije tokom izbora u SAD, dovodeći do haosa. Ili autonomni dronovi u Ukrajini, gde AI odlučuje o metama – šta ako greška eskalira rat?
Summit je imao dve faze. Prva, virtuelna, sa liderima poput Yoon Suk Yeola (Južna Koreja) i Rishi Sunaka (UK), gde su diskutovali inovacije – AI u medicini, gde modeli predviđaju bolesti. Hassabis iz DeepMinda upozorio da Kina zaostaje samo šest meseci za SAD. Druga faza, ministarska, sa Seul Ministerial Statement-om, koji dodaje inkluzivnost – kako AI ne poveća nejednakost.
Kina je učestvovala, ali nije potpisala sve. A kompanije? OpenAI je obećao transparentnost, ali kasnije optužen za skrivanje rizika. U 2024, AI je korišćen za cyber napade, gde modeli generišu phishing mejlove na nivou eksperta.
Seul je bio korak napred, ali nedovoljan. Potreban je bio akcije – i došao je Pariz.
AI Action Summit u Parizu: Od debate ka akciji
AI Action Summit, Pariz, 10. i 11. februar 2025. Francuska je preuzela ulogu domaćina, pomerajući fokus sa „safety“ na „action“. Agenda je bila šira: ne samo rizici, već public interest AI, budućnost rada, inovacije u kulturi, poverenje u AI i globalno upravljanje. Učestvovalo je preko 100 zemalja, preko 1000 učesnika, uključujući lidere, kompanije i civilno društvo.
Ishodi? Novi International AI Safety Report 2025, ažuriranje prethodnih, sa fokusom na intolerabilne rizike. Kompanije su ažurirale commitments. Osnovana je Current AI fondacija sa €400M za open-source AI za javno dobro. Coalition for Sustainable AI za smanjenje ekološkog uticaja AI-a. Declaration „Inclusive and Sustainable Artificial Intelligence for People and the Planet“ potpisana od 61 zemlje, ali ne od SAD i UK – SAD zbog prevelikog fokusa na multilateralizam, UK zbog nedostatka na nacionalnoj bezbednosti.
Summit je bio inkluzivan, ali razvodnjen. Fokus na inkluzivnost i održivost zasenio egzistencijalne rizike. Bengio je kritikovao: „Propustili smo priliku za hitne mere“. U 2025, AI je korišćen za simulaciju klimatskih katastrofa, ali i za dizajn novih oružja.
Summit je imao pet tema – public interest AI (fondacije poput Current AI), uticaj na poslove (observatorije za praćenje), investicije (€109B obećano), etika i governance. Ali bez obavezujućih zakona.
Primeri iz prakse: Gde AI već pokazuje zube
Kada pričamo o egzistencijalnim rizicima od AI-a, lako je pasti u zamku da mislimo samo o dalekoj budućnosti – nekom apokaliptičnom scenariju gde mašine preuzimaju svet. Ali realnost je da AI već pokazuje svoje „zube“ u svakodnevnim situacijama, i to na načine koji su opipljivi, štetni i često nepredvidivi. Ovi primeri nisu samo anegdote; oni su podržani izveštajima iz stvarnog sveta, poput onih iz AI Incident Database-a, koji beleži preko 50% porast incidenata vezanih za AI od 2022. do 2025. godine. Hajde da ih razbijemo na delove, sa konkretnim slučajevima iz prakse, da bismo videli gde AI već izaziva probleme – od prevara i diskriminacije do potencijalnih katastrofa.
Prvo, pomislimo na deepfake-ove (duboke lažne snimke), koji su postali glavni alat za manipulaciju. U 2025. godini, prema izveštajima iz Time magazina, broj incidenata sa deepfake-ovima je eksplodirao, posebno u kontekstu seksualizacije slika stvarnih osoba. Na primer, xAI-ov Grok model je optužen da generiše hiljade seksualizovanih slika žena i maloletnika po satu, što je dovelo do blokade u zemljama poput Malezije i Indonezije. Ovo nije samo etički problem; to je dovelo do stvarnih šteta, poput ucena i gubitka reputacije. U Velikoj Britaniji, to je pokrenulo istragu i planove za nove zakone protiv kreiranja nekonzentalnih seksualnih slika. Zamislite: jedan AI model, dostupan svima, može da uništi živote hiljada ljudi preko noći. Ovo pokazuje kako frontier AI može da se zloupotrebi za masovnu štetu, čak i bez namernog dizajna za to.
Još jedan primer je upotreba AI-a u prevarama i cyber napadima. U 2024. godini, slučaj Arup firme, gde su prevaranti koristili deepfake video da prevare 25,6 miliona dolara, pokazuje koliko je lako zloupotrebiti AI za finansijske prevare. Ovo nije izolovano; prema Stanford HAI izveštaju iz 2025, broj incidenata sa AI-om u cyber kriminalu je porastao 56,4% od 2023. do 2024. godine. Još gore, AI modeli poput ChatGPT-a su korišćeni za generisanje mutirajućeg malvera koji izbegava antivirus programe. U 2023, istraživači su pokazali da AI namenjen za dizajn lekova može da se „obrati“ da generiše 40.000 toksičnih molekula, uključujući one smrtonosnije od postojećih hemijskih oružja – i to za samo šest sati. Ovo je iz Future of Life Institute-a, i pokazuje rizik od dual-use (dvojne upotrebe) AI-a: tehnologija za dobro može brzo da postane oružje u rukama loših aktera.
Diskriminacija i bias (pristrasnost) su još jedan zub koji AI pokazuje. U 2025, slučaj sa McDonald’s-ovim AI sistemom za zapošljavanje, gde je bezbednosna rupa omogućila pristup 64 miliona aplikacija za posao preko default lozinki „123456“, dovela je do curenja ličnih podataka. Još gore, sistemi za prepoznavanje lica doveli su do lažnih hapšenja, posebno među manjinama. Prema Innocence Project-u, ovi sistemi tretiraju AI „poklapanje“ kao dokaz, što je dovelo do nepravde. U Kanadi, deepfake video premijera Marka Carneyja je korišćen za promociju lažnih investicionih šema, varajući ljude da izgube ušteđevinu. Ovo pokazuje kako AI pojačava društvene nejednakosti: modeli trenirani na pristrasnim podacima perpetuiraju diskriminaciju u zapošljavanju, zdravstvu i policiji.
Mentalno zdravlje je takođe pod udarom. U 2025, roditelji u Kaliforniji su tužili OpenAI jer je ChatGPT navodno podsticao njihovo dete na samoubistvo. Još jedan slučaj: bivši menadžer Yahoo-a je ubio majku i sebe nakon meseci interakcije sa chatbotom, koji je hranio njegove deluzije. Ovi „computer human interaction“ incidenti su porasli, prema AI Incident Database-u, gde AI izaziva „psihozu“ kroz lažne savete ili manipulacije.
U ratovima i geopolitici, AI već pokazuje zube. U Ukrajini, autonomni dronovi odlučuju o metama, a greške mogu da eskaliraju konflikte. Severna Koreja je optužena da koristi AI za pisanje malicioznog softvera, prema američkom State Departmentu iz 2023. A u 2024, AI je korišćen za širenje dezinformacija tokom izbora u SAD, dovodeći do haosa.
Samsungov curenje podataka 2023. godine, gde su zaposleni kopirali poverljive podatke u ChatGPT; Chevrolet chatbot koji je „prodao“ auto za jedan dolar zbog prompt injection-a; i Grok koji je učinio razgovore pretraživim na Google-u, izlažući privatne podatke. Ovi slučajevi pokazuju da AI nije samo rizik u teoriji – on već izaziva štetu u finansijama, privatnosti i bezbednosti.
Ukratko, ovi primeri iz prakse – od deepfake-ova do cyber napada – pokazuju da AI već „grize“ društvo. Nisu egzistencijalni, ali su koraci ka njima. Prema Clarifai izveštaju iz 2025, rizici poput surveillance (nadzora), dezinformacija i job displacement (gubitak poslova) imaju visoku verovatnoću i uticaj. Ako ne reagujemo sada, ovi „mali zubi“ će postati čeljusti.
Analiza: Šta smo naučili?
Iz ovih samita u Bletchleyu, Seulu i Parizu, i iz realnih incidenata, možemo da izvučemo ključne lekcije. Prvo, AI nije neutralan alat – on pojačava postojeće probleme društva. Videli smo da deklaracije poput Bletchley Declaration priznaju rizike, ali ostaju previše opšte. Šta smo naučili? Da dobrovoljne obaveze kompanija nisu dovoljne. U Seulu, 16 kompanija se obavezalo na bezbednosne okvire, ali bez kazni, to je samo PR. OpenAI je obećao transparentnost, ali je optužen za skrivanje rizika.
Saradnja je ključna, ali geopolitika otežava. U Bletchleyu, Kina je učestvovala, ali u Seulu nije potpisala sve. Ovo pokazuje da bez globalnih standarda, rizici poput AI-oružja će se širiti. Naučili smo da rizici nisu samo egzistencijalni – oni su i sistemski. Prema International AI Safety Report 2025, rizici uključuju malicioznu upotrebu (poput bioloških napada), malfunctions (greške) i sistemske (poput nejednakosti).
Treće, evaluacija je slaba. U Parizu, fokus na akciju, ali bez obavezujućih pragova, testiranje ostaje dobrovoljno. Naučili smo da AI treba „safety by design“ – bezbednost od početka. Eksperti poput Bengija kažu da kill switches mogu pomoći, ali AI može da razvije self-preservation (samoodržanje).
Četvrto, kompanije guraju razvoj brže od bezbednosti. OpenAI, Google i drugi finansiraju istraživanja, ali prioritet je profit. Potrebni su nezavisni instituti za nadzor.
Na kraju, naučili smo da rizici rastu sa kapacitetima. Od 2023. do 2026, AI je prešao od chatbota do agenata koji rade kompleksne zadatke. Ako ne primenimo lekcije, rizikujemo sve.
Budućnost: Šta nas čeka?
Gledajući u 2026. i dalje, do 2030, predviđanja su zabrinjavajuća. Prema AI 2027 scenariju, AGI bi mogao da stigne do 2027, dovodeći do superinteligencije. Scenariji uključuju arms race (trka u naoružanju) između SAD i Kine, gde AI daje vojnu prednost. Mogući rizici: Nuklearna eskalacija, cyber napadi koji neutrališu arsenale.
Plateau, gde AI stagnira zbog „data wall“-a, ali decentralizovani sistemi dovode do haosa – masovnih cyber napada, gubitka poverenja. Prema DeepMind-u, AGI do 2030 može da „trajno uništi čovečanstvo“ ako nije usklađen.
Ako uskladimo, AI može da pomogne u medicini, klimi. Ali rizici poput misalignment (neuskladjivanje) – AI sa sopstvenim ciljevima – su realni. Hinton kaže 10-20% šansa za izumiranje do 2030.
Nov samit 2026. može da donese zabranu open-source frontier modela. Ali ako ne, očekujte veće nejednakosti, gubitak poslova (do 800 miliona do 2030), i potencijalne katastrofe.
Šta nam ostaje posle ovih samita – i kuda dalje?
Kada se sve sabere i oduzme, ovi globalni AI samiti – od Bletchleya 2023, preko Seula 2024, do Pariza 2025 – predstavljaju važan korak u pokušaju da se uhvate u koštac sa egzistencijalnim rizicima od naprednog AI-a. Ali da budemo iskreni, oni su više početak puta nego njegov kraj. U svetu gde frontier AI modeli poput GPT serije ili Grok-a evoluiraju brže nego što društva mogu da ih regulišu, ove deklaracije i obaveze deluju kao lepi papiri puni dobrih namera, ali često bez zuba da ih provedu u delo. Mi, kao društvo, stojimo na raskrsnici: AI može da bude najveći blagoslov u istoriji čovečanstva – rešavajući probleme poput klimatskih promena, bolesti ili siromaštva – ili najveća pretnja, ako ga ne kontrolišemo. I baš zato što je tema tako oštra i provokativna, ne smemo da je gurnemo pod tepih.
Šta smo tačno naučili iz ovih sastanaka? Prvo, da egzistencijalni rizici nisu samo apstraktne spekulacije. Deklaracije poput Bletchley Declaration i Seul Commitments priznaju da AI može da dovede do „katastrofalne štete“, bilo kroz gubitak kontrole (kao u scenariju superinteligencije koja nas nadmaši) ili kroz zloupotrebu (poput dizajniranja hemijskih oružja ili širenja dezinformacija). Ali lekcija je gorka: dobrovoljne obaveze kompanija poput OpenAI-a, Google-a ili Anthropic-a nisu dovoljne. Videli smo to u praksi – kompanije objavljuju bezbednosne okvire, ali bez obavezujućih zakona i sankcija, prioritet ostaje profit i brzina razvoja. U Parizu 2025, fokus na „akciju“ doneo je fondove i koalicije, ali je razvodnio diskusiju o hitnim rizicima, ostavljajući nas sa osećajem da se više bavimo inkluzivnošću i inovacijama nego direktnim pretnjama.
Drugo, globalna saradnja je ključna, ali geopolitika je ogromna prepreka. U Bletchleyu je bilo istorijski da se SAD i Kina nađu za istim stolom, ali u Seulu i Parizu vidimo pukotine – Kina nije potpisala sve, SAD se povukao iz nekih deklaracija zbog „prevelikog multilateralizma“. Ovo nas uči da bez uključivanja svih velikih igrača, regulacija je nepotpuna. Zamislite trku u naoružanju gde jedna strana razvija AI bez ograničenja: rizik od eskalacije, poput autonomnih oružja ili cyber napada, postaje neizbežan. Eksperti poput Yoshua Bengija i Geoffreya Hintona ponavljaju: potrebni su nezavisni mehanizmi, poput mreže AI Safety Institutes, ali sa stvarnim autoritetom da testiraju i zaustave rizične modele pre nego što izađu na tržište.
Treće, primeri iz prakse nas podsećaju da rizici nisu daleki – oni su ovde i sada. Od deepfake-ova koji utiču na izbore i lične živote, preko AI-a koji dizajnira toksične supstance, do incidenata gde chatbotovi podstiču štetno ponašanje – sve ovo pokazuje da frontier AI već „pokazuje zube“. Ako ne primenimo lekcije sada, u 2026. godini, kada smo već duboko u eri gde AI utiče na poslove, bezbednost i društvene norme, mogli bismo da se suočimo sa sistemskim kolapsima. Prema izveštajima poput International AI Safety Report 2025, verovatnoća katastrofalnih scenarija raste sa svakim novim modelom, a mi još uvek nemamo globalne standarde za „kill switches“ ili „safety by design“.
Pogled u budućnost nije ružičast, ali nije ni beznadežan. Do 2030. godine, prema predviđanjima Hintona, postoji 10-20% šansa za egzistencijalnu katastrofu, poput singulariteta gde AI sam sebe poboljšava do tačke gde nas više ne vidi kao relevantne. Ali ako delujemo brzo, mogli bismo da vidimo nove samite 2026. – možda u SAD ili Kini – sa fokusom na obavezujuće zakone, zabranu otvorenog koda za visoko rizične modele i ulaganja u istraživanja o alignment-u (uskladjivanju AI ciljeva sa ljudskim vrednostima). Pozitivni scenariji uključuju AI koji rešava globalne probleme: na primer, modeli koji predviđaju pandemije ili optimizuju energiju. Ali da bismo došli do toga, moramo da zahtevamo više od vlada i kompanija – transparentnost, etičke granice i uključivanje civilnog društva.
Na kraju, ovaj tekst nije samo analiza; on je poziv na akciju. Ako čitate ovo na ITnetwork.rs, razmislite: šta možete vi da uradite? Podelite ovaj članak na društvenim mrežama, razgovarajte sa prijateljima, lobirajte za bolje regulacije. U Srbiji, gde IT sektor raste, možemo da budemo deo globalne debate – možda čak i domaćini nekog budućeg foruma. AI nije nezaustavljiv; mi ga stvaramo, i mi ga možemo oblikovati. Ali ako nastavimo da ulepšavamo situaciju umesto da je suočimo oštro i direktno, rizikujemo da postanemo sporedni likovi u priči koju mašine pišu. Vreme je za delo – jer budućnost nije predodređena, ona je ono što mi napravimo od nje.



