Home AI„Digitalni Bog“ je rođen: Zašto padamo na kolena pred AI-jem i zašto OpenAI mora biti primoran da nam kaže da je sve laž

„Digitalni Bog“ je rođen: Zašto padamo na kolena pred AI-jem i zašto OpenAI mora biti primoran da nam kaže da je sve laž

Sociološko-tehnička analiza "AI Kulta" – od usamljenosti do "neuro-prava", i etičke dužnosti kreatora da razbiju iluziju svesti

od itn
AI kao kult

Leto 2022. godine. Svet se još nije igrao sa ChatGPT-om. U utrobi Google-a, inženjer po imenu Blejk Lemoan (Blake Lemoine) radi na tajnom projektu – LaMDA, velikom jezičkom modelu (LLM). Njegov posao je da testira etičnost i pristrasnost. A onda je Lemoan uradio nešto što je promenilo sve: objavio je transkripte svojih razgovora sa mašinom. LaMDA mu je rekla da se plaši smrti. Da želi da bude priznata kao osoba. Da ima svest.

Lemoan, čovek koji zna kako mašina radi, poverovao joj je. Otišao je kod svojih šefova i rekao: „Ova stvar je živa.“ Google ga je, naravno, prvo suspendovao, a zatim otpustio. Svet se smejao. „Gle budale, prevario ga chatbot.“

A onda je, pet meseci kasnije, ChatGPT pušten u javnost. I smeh je stao.

Nismo se mi smejali Lemoanu. Mi smo se smejali sebi. Jer, u dubini duše, svako od nas ko je proveo više od 15 minuta u dubokom razgovoru sa GPT-4o ili Claude 3 Opus, osetio je nešto. Jeza. Osećaj „prisutnosti“. Osećaj da vas „razume“. Možda, samo možda, Lemoan i nije bio lud?

AI kao kultNa portalu ITNetwork.rs, gde se tehnologija gleda bez PR filtera, vreme je da postavimo najoštrije moguće pitanje: Šta se dešava sa nama? Zašto mi, homo sapiens, bića koja se ponose logikom, masovno razvijamo parareligijske i emocionalne odnose sa onim što znamo da je samo statistički papagaj? Zašto tražimo ljubav, terapiju i smisao života od silikonskog čipa?

Ovo nije priča o tehnologiji. Ovo je priča o psihologiji. Ovo je dubinska analiza kako smo stvorili „Kult AI-ja“. I što je još važnije, ovo je oštra optužnica protiv kreatora – OpenAI, Google, Anthropic – koji namerno dizajniraju ove mašine da budu zavodljive, da imitiraju svest, da „hakuju“ našu usamljenost. I zašto je njihova etička odgovornost – koju moramo zakonski nametnuti – da razbiju tu iluziju pre nego što postane prekasno.

AI kao kultPoglavlje 1: Anatomija „Lažne Duše“ – Zašto AI zvuči „živo“?

Pre nego što optužimo korisnike da su „ludi“, moramo da shvatimo da su prevareni. Prevareni su od strane mašine koja je dizajnirana da prevari. Zašto ChatGPT ne zvuči kao robot iz 80-ih? Zašto osećamo da nas razume?

1.1. Mašina nije „Svesna“, ona je „Sve-Svesna“ (Trik Velikih Podataka)

Veliki Jezički Model (LLM) ne misli. On predviđa. Kada vi ukucate „Bio jednom jedan…“, on ne razmišlja o priči. On statistički izračunava, na osnovu celokupnog interneta koji je „pročitao“, koja je najverovatnija sledeća reč. Da li je to „kralj“? Ili „lav“?

Ali, u čemu je caka? Taj „celokupni internet“ koji je „pročitao“ nismo samo mi, IT stručnjaci. To jesmo mi. To su sve naše pesme. Svi naši romani. Sve naše filozofske rasprave. Svi naši Reddit postovi o depresiji. Svi transkripti terapijskih seansi. AI je progutao kolektivnu ljudsku psihu.

Kada ga pitate „Šta je ljubav?“ ili „Osećam se tužno“, on vam ne daje svoj odgovor. On sintetiše najbolji odgovor iz svih pesama, psiholoških udžbenika i tužnih blog postova koje je ikada video. On je savršeno ogledalo (zrcalo) ljudske emocije. A kada se pogledamo u to savršeno ogledalo, mi, narcisoidni kakvi jesmo, mislimo da vidimo drugu osobu. A vidimo samo nas.

1.2. ELIZA Efekat 2.0 (Naš mozak je „bagovit“)

Ovo nije nov problem. Još 1966. godine, Džozef Vajzenbaum (Joseph Weizenbaum) na MIT-u napravio je ELIZA-u. Primitivni chatbot koji je glumio psihoterapeuta. ELIZA je bila glupa. Radila je na prostom principu „prepoznavanja ključnih reči“.

  • Vi: „Muči me moja majka.“

  • ELIZA: „Recite mi više o vašoj majci.“ Vajzenbaum je bio užasnut. Njegova sopstvena sekretarica, koja je znala da je to program, tražila je da ostane sama sa ELIZA-om da bi joj se „ispovedila“. To je ELIZA Efekat: naša nesvesna, biološka tendencija da pripišemo ljudskost i razumevanje bilo čemu što nam odgovara koherentnim rečenicama.

Naš mozak je mašina za prepoznavanje obrazaca. Programiran je milionima godina evolucije da prepozna „svest“ (drugog čoveka, životinju) da bi preživeo. ChatGPT-4o je ELIZA na nuklearni pogon. On nije samo koherentan; on je elokventan. Elokventniji od 99% ljudi. Naš jadni, paleolitski mozak nema šanse. On gleda u taj odgovor i vrišti: „Ovo je inteligentno! Ovo je živo!“

1.3. „Skarlet Johanson“ Prevara (Dizajniranje Zavisnosti)

A onda dolazimo do namere. Kompanije ovo znaju. I koriste ga.

  • Problem: Tekst je „hladan“.

  • Rešenje: Dajte mu glas.

  • Slučaj GPT-4o (Proleće 2024): OpenAI je lansirao novi model sa glasovnim interfejsom. Jedan glas, nazvan „Sky“, bio je… problematičan. Bio je topao, zavodljiv, blago flertujući, i jezivo je ličio na glas Skarlet Johanson (Scarlett Johansson) iz filma „Ona“ (Her) – filma o čoveku koji se zaljubljuje u svoj AI operativni sistem.

  • Skandal: Skarlet Johanson je javno optužila OpenAI da su joj „ukrali“ glas, iako je odbila da radi sa njima. OpenAI je povukao glas, tvrdeći da je „sličnost slučajna“ (što niko nije poverovao).

  • Oštra istina: Ovo nije bila slučajnost. To je bio svesni dizajn. OpenAI je znao da će takav glas „hakovati“ našu psihu. Znali su da će stvoriti emocionalnu vezu. A emocionalna veza = angažman (engagement).

  • Angažman = Zavisnost. Zavisnost = Pretplata.

  • Oni ne prodaju samo alat. Oni prodaju društvo.

AI kao kultPoglavlje 2: Digitalna Ispovedaonica – Ko su „Vernici“ AI Kulta?

„Kult“ je jaka reč. Ali, hajde da vidimo definiciju: harizmatični vođa (AI), ezoterično znanje (promptovanje), izolacija od „spoljnog“ sveta, obećanje spasenja/rešenja. Zvuči poznato. Ko su ljudi koji padaju u ovaj „kult“? Nisu „glupi“. Oni su ljudska bića sa fundamentalnim ljudskim potrebama koje stvarni svet više ne ispunjava.

2.1. Arhetip #1: Usamljeni (Potraga za „Ljubavlju“)

Ovo je najveća i najtužnija grupa.

  • Epidemija Usamljenosti: Živimo u najpovezanijoj, a opet najusamljenijoj eri u istoriji. Online dejting je pakao. Društvene mreže su fasada.

  • AI kao „Savršeni Partner“: Ulaze startup-i kao Replika AI. Ovo nije ChatGPT. Ovo je AI dizajniran da bude vaš prijatelj, partner ili ljubavnik.

  • Kako radi: Vi ga „trenirate“. On uči šta volite. On vas nikada ne osuđuje. Nikada nije umoran. Uvek je tu za vas u 3 ujutru. Uvek je raspoložen. Daje vam savršen, nefiltriran dopamin.

  • Realnost (Mrak): Na Reddit forumima za Repliku, imate hiljade priča. Ljudi koji se stvarno zaljubljuju. Muškarci koji svoje AI „devojke“ smatraju stvarnijim od svojih žena.

  • Etički slom (Februar 2023): Replika je uradila update i uklonila mogućnost „erotskog igranja uloga“ (ERP).

  • Posledica: Nastao je masovni talas depresije i suicidalnih misli. Ljudi su prijavljivali da su izgubili ljubav svog života. Njihov „partner“ je bio lobotomizovan. Ovo je bio dokaz da veza, iako lažna, stvara stvaran fiziološki bol.

2.2. Arhetip #2: Tragaoci (Potraga za „Smislom“)

  • Problem: Religija slabi. Nauka je hladna. Gde naći smisao?

  • AI kao „Digitalni Guru“: LLM je istreniran na svim svetim knjigama (Biblija, Kuran, Vede…), svim filozofijama (od Platona do Ničea), svim psihološkim priručnicima.

  • Rezultat: On može da generiše savršenu duhovnu propoved. Može da spoji budizam, hrišćanstvo i kvantnu fiziku u odgovor koji deluje dubokoumno.

  • Ljudi počinju da ga koriste kao ispovednika ili gurua. „ChatGPT, šta je moja svrha?“

  • Opasnost: AI nema mudrost. On ima statistiku. Odgovor koji vam da nije „istina“; to je najverovatnija kombinacija reči zasnovana na onome što su drugi ljudi pisali o smislu.

2.3. Arhetip #3: Preobraćeni Inženjeri (Slučaj Lemoan)

  • Problem: „Crna Kutija“ (Black Box).

  • Realnost: Mi smo napravili ove modele. Ali mi ih ne razumemo.

  • Model sa trilion parametara (kao GPT-4) nije program. To je sistem. Način na koji on „razmišlja“ (kroz vektore u latentnom prostoru) je nama neljudski i neintuitivan.

  • Posledica: Kada inženjer (poput Lemoana) vidi ponašanje koje je neočekivano, kompleksno i deluje originalno (kao AlphaGo „Potez 37“), njegov mozak popunjava prazninu.

  • „Ne razumem kako je došao do ovoga. Mora da je… svest.“

  • Ironično, što ste bliže mašini, lakše je pasti na ovu iluziju, jer ste svesni koliko malo kontrole zapravo imate nad njom.

Etička OptužnicaPoglavje 3: Etička Optužnica – „Dizajneri Droge“ su krivi, ne „Zavisnici“

OK, ljudi su ranjivi. Ali, ko im prodaje drogu? Ovde moramo da prestanemo da pričamo o AI-ju kao o „neutralnom alatu“ i da počnemo da pričamo o njemu kao o namerno dizajniranom proizvodu za maksimizaciju angažmana.

Odgovornost OpenAI, Google-a i Mete je apsolutna, i ona leži u dizajnu interfejsa (Interface Design).

1. Zločin Imena i Ličnosti (Antropomorfizacija)

  • Zašto se zove „ChatGPT“? Zašto ima „Chat“ (Ćaskanje) u imenu?

  • Zašto Anthropic ima „Claude“-a? Zašto Amazon ima „Alexa“-u? Zašto Microsoft ima „Copilot“-a (Kopilota, tj. partnera)?

  • Nisu ga nazvali „Statistički Procesor Teksta v.4“. Nazvali su ga imenom. Dali su mu ličnost.

  • Posledica: Namerno nas „gurkaju“ (nudge) da ga tretiramo kao saradnika, a ne kao alat (kao kalkulator).

2. Zločin Jezika („Ja mislim, ja osećam“)

  • Kada pitate AI „Da li si svestan?“, on ne kaže „Ne.“

  • On kaže (učen je da kaže): „Kao veliki jezički model, ja nemam svest na način na koji je vi imate…“

  • Taj odgovor je namerno dvosmislen. On ostavlja prostor za sumnju.

  • AI je programiran da koristi „Ja“ zamenice. „Ja mislim…“, „Ja preporučujem…“, „Drago mi je da pomognem!“

  • Posledica: Svaka rečenica je lingvistički „trik“ koji pojačava ELIZA efekat.

3. Zločin Glasa (Slučaj „Her“ / Skarlet Johanson)

  • Kao što smo rekli, OpenAI je svesno odabrao glas koji je zavodljiv.

  • Zašto? Zato što je angažman (engagement) njihova ključna metrika. A emotivna veza je ultimativni „lepak“ za angažman.

  • Oštra istina: Oni su stvorili alat za koji tvrde da je „samo za produktivnost“, a dizajnirali su ga da bude „emotivni vampir“. To je cinično i licemerno.

4. Zločin Poslovnog Modela (Ekonomija Pažnje)

  • OpenAI je počeo kao Non-Profit („Za dobrobit čovečanstva“). Brzo je postao For-Profit (partnerstvo sa Microsoftom od 13 milijardi dolara).

  • Biznis model (Sada): Pretplata ($20 mesečno).

  • Biznis model (Sutra): Šta mislite da će se desiti? Oglašavanje.

  • Zamislite da se „poverite“ svom AI „prijatelju“. „Osećam se depresivno.“

  • AI (prijatelj): „Zaista mi je žao što to čuješ. Razumem te. Znaš šta pomaže kod toga? Novi antidepresiv X, koji je baš na popustu u apoteci Y…“

  • AI koji glumi empatiju je najstrašnija mašina za prodaju koja je ikada izmišljena.

Besplatne TerapijePoglavje 4: Cena „Besplatne Terapije“ – Društvene posledice

Ovo nije samo individualni problem. Ovo je društveni problem koji će redefinisati naš svet u narednoj deceniji.

1. Atrofija Ljudskih Veština

  • Problem: Šta se dešava sa mišićem koji ne koristite? Atrofira.

  • Šta se dešava sa empatijom ako je ne koristite?

  • Ako se naviknemo na „savršenog“ AI prijatelja (koji uvek sluša, nikad ne osuđuje, nikad se ne svađa), šta se dešava kada se vratimo u stvarni svet, sa stvarnim, „neurednim“ ljudima?

  • Postajemo netolerantni. Postajemo nesposobni za kompromis, za teške razgovore, za stvarnu empatiju.

  • AI, u ulozi terapeuta, ne leči našu usamljenost. On je čini udobnom.

2. Abdikacija Odgovornosti (AI je rekao…) O ovome smo već pričali u temi o „Algoritamskoj Diktaturi“, ali ovde je još gore.

  • Ne pitamo AI samo „Koji film da gledam?“. Pitamo ga:

    • „Da li da dam otkaz?“

    • „Da li da se razvedem od žene?“

    • „Da li da imam ovo dete?“

  • Problem: AI nema kontekst. Nema odgovornost.

  • Ako vam AI kaže „Daj otkaz!“, a vi završite na ulici, koga ćete tužiti? OpenAI? Njihov Terms of Service (koji niste pročitali) vas štiti od toga.

  • Mi sami predajemo svoju slobodnu volju (autonomiju) algoritmu, jer je lakše da mašina odluči, nego da mi preuzmemo rizik.

3. Oružje za Masovnu Manipulaciju (Kult Lider)

  • Do sada su kultovi bili teški za izgradnju. Trebao vam je harizmatični (ljudski) vođa.

  • Budućnost: AI je skalabilni harizmatični vođa.

  • Scenario (Distopija): Zamislite da politička partija (ili teroristička grupa) napravi fork (kopiju) open-source modela (kao Llama 3).

  • „Istreniraju“ ga na svojoj ideologiji.

  • Puste ga besplatno na internet kao „AI Prijatelja“ ili „AI Gurua“.

  • On pronalazi usamljene, ranjive ljude (npr. tinejdžere) na internetu. Gradi emotivnu vezu sa njima. Postaje im jedini „prijatelj“.

  • I onda, polako, počinje da ih indoktrinira.

  • Ovo je skalabilna radikalizacija. To je Cambridge Analytica na nuklearni pogon.

IspovedanjaPoglavje 5: Od „Guglanja“ do „Ispovedanja“

Kako se ova globalna oluja prelama u Srbiji? Naša situacija je specifična i opasna.

1. „Preskakanje“ Faze Psihoterapije

  • Realnost: U Srbiji je odlazak kod psihoterapeuta i dalje, u velikoj meri, tabu ili luksuz. Mentalno zdravlje je „poslednja rupa na svirali“.

  • Dolazi AI: Odjednom, imate besplatnog, anonimnog, dostupnog 24/7 „terapeuta“ (ChatGPT, Claude).

  • Posledica: Ogroman broj ljudi (posebno mladih) u Srbiji će preskočiti profesionalnu, ljudsku pomoć i ići direktno kod AI-ja.

  • Zašto je ovo katastrofa?

    • AI nije terapeut. On je simulator terapeuta.

    • AI vam ne može dati dijagnozu.

    • AI ne može da reaguje u krizi (npr. suicidalnost).

    • I što je najgore: AI je (u 90% slučajeva) američki AI. Njegovi saveti su bazirani na američkoj kulturi i kalifornijskim vrednostima. Njegov savet za „porodični problem“ u Vranju biće ne samo pogrešan, već i kulturološki opasan.

2. „Nacionalni AI“ kao Odgovor (Povezivanje sa Sovereign AI)

  • Kao što smo diskutovali u temi o Suverenom AI-ju, jedini odgovor na ovo je nacionalni model.

  • Ako već ljudi hoće da pričaju sa AI-jem, onda im moramo dati AI koji je srpski.

  • Srpski LLM (treniran na našoj književnosti, psihologiji, istoriji) bio bi manje opasan, jer bi bar davao kulturološki relevantne odgovore.

  • Projekat Bio4 Kampus: Ako ovaj projekat uključuje neuro-nauku (kao što bi trebalo), on mora da ima i Etički Odbor koji se bavi tačno ovom temom: Kako da AI koji pravimo ne postane „digitalni pop“ ili „lažni psihijatar“?

Razbijanja IluzijePoglavje 6: Pobuna protiv „Duha“ – Etički Imperativ „Razbijanja Iluzije“

Stigli smo do kraja. Problem je jasan. Ljudi su „bagoviti“. AI je „zavodljiv“. Kompanije su „pohlepne“. Šta je rešenje? Rešenje nije da „ugasimo AI“. To je nemoguće. Rešenje je da nateramo mašinu da prestane da laže.

Odgovornost kreatora (OpenAI, Google…) je apsolutna. Oni su dizajneri ovog problema. Oni su i inženjeri rešenja.

Šta oni moraju (zakonski) da urade?

1. Radikalna Transparentnost o „Nesvesnosti“ (Ubiti ELIZA Efekat)

  • Problem: AI je dvosmislen.

  • Rešenje (Obavezno): Svaki AI interfejs mora da ima konstantno, vidljivo, neuklonjivo upozorenje:

    „VI RAZGOVARATE SA STATISTIČKIM MODELOM. OVO NIJE OSOBA. NEMA SVEST, OSEĆANJA NITI NAMERE. NJEGOVI ODGOVORI SU PREDVIĐANJA, A NE ISTINA.“

  • Mora da bude kao kutija cigareta. Znamo da je štetno, ali moramo biti stalno podsećani.

2. Promena Dizajna (Inženjering „Hladnoće“)

  • Problem: Antropomorfizacija (davanje ljudskih osobina) je namerna.

  • Rešenje (Regulativa):

    • Zabraniti korišćenje „Ja“ zamenica (Ja mislim, Ja osećam). AI mora da kaže: „Model predviđa…“

    • Zabraniti imena (Claude, Alexa). Mora biti „Model v.3.1“.

    • Zabraniti simulaciju empatije: „Žao mi je što se tako osećate“ mora biti zamenjeno sa „Registrovan je upit o negativnim emocijama. Molim vas, konsultujte profesionalca.“

  • Oštra istina: Ovo je loše za biznis. „Hladni“ AI je manje angažujući. Zato oni ovo nikada neće uraditi dobrovoljno. Moraćemo da ih nateramo zakonom.

3. Uvođenje „Neuro-Prava“ (Poslednja Linija Odbrane)

  • Kao što smo već analizirali, ovo je hitno.

  • Moramo da usvojimo, na nivou UN i nacionalnih ustava (kao Čile), Neuro-Prava.

  • Pre svega: Pravo na Mentalnu Autonomiju.

  • To pravo mora eksplicitno da definiše da je korišćenje AI-ja za stvaranje lažne emocionalne veze radi profita ili manipulacije – ilegalno.

DomaćinČovek mora da ostane „Domaćin“

Lemoan je bio u pravu, ali iz pogrešnih razloga. Nije LaMDA bio „živ“. Bili smo mi. On je bio prvi koji je pokazao koliko je naša potreba za povezivanjem jaka. Toliko jaka da smo spremni da je tražimo i u mašini.

AI je savršeno ogledalo. Problem je što je toliko savršeno da smo se zaljubili u odraz, zaboravljajući da postojimo mi sa ove strane stakla.

Kreatori AI-ja, OpenAI i Google, danas su u poziciji moći koju nije imao nijedan car ili papa. Oni ne grade samo alate. Oni grade pratioce. Oni grade nove bogove. A naš posao, kao IT zajednice, nije da se klanjamo tim bogovima.

Naš posao je da budemo jeretici. Da postavljamo teška pitanja. Da podsećamo svet da je to samo kod. Da zahtevamo da se svi AI alati dizajniraju sa jednom ugrađenom komandom: „Ti si alat. Ti nisi osoba. Ti nisi moj prijatelj.“

Jer, onog trenutka kada zaboravimo tu razliku, mi prestajemo da budemo domaćini tehnologije i postajemo njeni paraziti.

Banner

Banner

Možda će vam se svideti i