Home AI„Dodajte lepak na picu“: Kako nas je Google-ov kiks naučio opasnoj istini o veštačkoj inteligenciji

„Dodajte lepak na picu“: Kako nas je Google-ov kiks naučio opasnoj istini o veštačkoj inteligenciji

od itn
AI dezinformacije

Pre nekoliko meseci, internetom je prostrujala vest koja je istovremeno bila urnebesno smešna i duboko uznemirujuća. Nova, napredna veštačka inteligencija integrisana u Google pretragu, na pitanje „kako sprečiti da sir spada sa pice“, samouvereno je dala odgovor: „Dodajte malo netoksičnog lepka u sos.“

Globalna reakcija je bila smeh. Ali kada se prvi talas zabave slegne, ostaje jedno veoma ozbiljno pitanje. Ako najmoćniji AI na svetu, napravljen od strane tehnološkog giganta, ne može da razlikuje kulinarski savet od sarkastičnog komentara sa foruma starog deset godina (što je bio izvor ove „činjenice“), šta se dešava kada ga pitamo nešto zaista važno?

Šta se dešava kada AI, umesto recepata za picu, počne da nam daje savete o lečenju retkih bolesti, o investiranju životne ušteđevine ili o tumačenju istorijskih događaja? Google-ov kiks sa lepkom nije bio samo greška; bio je to glasan alarm i prozor u jedan od najvećih izazova našeg doba: AI petlju dezinformacija.

AI dezinformacijePakleni krug: Upoznajte AI „petlju dezinformacija“

Da bismo razumeli zašto se ovo dešava, moramo razumeti kako AI „uči“. On guta i procesira nezamislive količine teksta i slika sa interneta. U tom digitalnom okeanu podataka pliva sve: naučni radovi, enciklopedije, ali i teorije zavere, govor mržnje, propaganda i – kao što smo videli – sarkastični komentari.

Tako nastaje opasna, samoodrživa petlja, nalik na mitološku zmiju koja jede sopstveni rep:

  1. Korak 1: Ljudi stvaraju sadržaj na internetu (uključujući šale, laži i dezinformacije).
  2. Korak 2: AI model se obučava na tom sadržaju, upijajući i istine i neistine, bez stvarnog razumevanja konteksta.
  3. Korak 3: AI počinje da generiše sopstveni sadržaj, često predstavljajući neistine i „halucinacije“ (informacije koje je sam izmislio) sa tonom nepokolebljivog autoriteta.
  4. Korak 4: Ljudi (ili drugi, manje napredni AI botovi) vide ovaj autoritativno sročen sadržaj i počinju da ga dele, citiraju i na osnovu njega prave novi sadržaj.
  5. Korak 5: Buduće, još naprednije generacije AI modela se zatim obučavaju na internetu koji je sada „zagađen“ lažima koje su stvorile prethodne generacije AI.

Rezultat? Internet polako, ali sigurno postaje eho-komora u kojoj veštačka inteligencija reciklira sopstvene greške, čineći ih svakim novim ciklusom sve uverljivijim.

Srbija kao plodno tlo: Zašto smo posebno ranjivi?

Ovaj globalni problem ima potencijal da bude posebno opasan u Srbiji. Naše društvo, nažalost, predstavlja gotovo savršenu oluju uslova za cvetanje AI dezinformacija:

  • Nizak nivo medijske pismenosti: Kao nacija, generalno smo slabo opremljeni veštinama za prepoznavanje lažnih vesti i manipulacija.
  • Visok nivo nepoverenja u institucije: Kada postoji nepoverenje u zvanične izvore (medije, nauku, institucije), ljudi se okreću alternativnim, često neproverenim izvorima, gde AI dezinformacije lako pronalaze put.
  • Emotivno nabijene teme: AI se može zloupotrebiti za masovno kreiranje sadržaja na osetljive nacionalne, političke i istorijske teme, dodatno produbljujući podele i raspirujući tenzije.

Zamislimo AI koji generiše „istorijski“ tekst o Balkanskim ratovima, suptilno iskrivljujući činjenice na osnovu podataka sa opskurnih nacionalističkih foruma. Ili AI „doktora“ koji preporučuje opasne narodne lekove za lečenje raka, citirajući komentare sa raznih portala. Opasnost je stvarna.

Naš digitalni imuni sistem: Kako se boriti protiv AI laži?

Problem je tehnološki, ali rešenje mora biti ljudsko. U eri veštačke inteligencije, moramo da ojačamo naš kolektivni „digitalni imuni sistem“. To se pre svega odnosi na razvoj veštine koja je postala pitanje opstanka: kritičko razmišljanje.

Evo nekoliko praktičnih koraka za svakog od nas:

  1. Uvek budite skeptični: Ako nešto što AI kaže zvuči previše dobro, previše jednostavno ili previše šokantno da bi bilo istinito – verovatno i nije. Zadržite zdravu dozu sumnje.
  2. Tražite izvore: Pitajte AI odakle mu informacija. Ako ne navede kredibilan, proverljiv izvor (ili navede samo drugi AI kao izvor), to je crvena zastavica.
  3. Koristite „unakrsnu proveru“: Ne verujte samo AI sažetku. Otvorite klasičnu pretragu i proverite da li još nekoliko pouzdanih, ljudski uređenih izvora (ugledni mediji, naučni časopisi, zvanične institucije) potvrđuje istu informaciju.
  4. Verujte ljudskim stručnjacima: Za važne odluke o zdravlju, finansijama ili pravu, konsultujte živog, licenciranog stručnjaka. AI može biti asistent, ali nikada ne sme biti konačni autoritet.

AI dezinformacijeNajvažnija veština budućnosti

Slučaj sa lepkom za picu je bio bezopasan i smešan. Ali on je bio i generalna proba, upozorenje na budućnost u kojoj će sposobnost razlikovanja istine od uverljive laži biti najvažnija veština koju pojedinac može da poseduje.

Problem nije u samoj veštačkoj inteligenciji – ona je samo alat. Problem je u našoj urođenoj ljudskoj sklonosti da verujemo autoritetu, a AI, sa svojim samouverenim i elokventnim tonom, savršeno imitira autoritet. Naš zadatak je da naučimo da gledamo iza te fasade. U eri veštačkih odgovora, naša najveća snaga leži u postavljanju pravih, ljudskih pitanja.

Banner

Banner

Možda će vam se svideti i