Home AI Manipulacija i dezinformacija uz pomoć AI – Kako se AI može zloupotrebiti za širenje dezinformacija i manipulaciju javnim mnjenjem (deo 3)

Manipulacija i dezinformacija uz pomoć AI – Kako se AI može zloupotrebiti za širenje dezinformacija i manipulaciju javnim mnjenjem (deo 3)

Deo 3: Botovi i automatizovani nalozi na društvenim mrežama za manipulaciju javnim mnjenjem

by Ivan Radojevic
Manipulacija i dezinformacija uz pomoć AI – Kako se AI može zloupotrebiti za širenje dezinformacija i manipulaciju javnim mnjenjem (deo 3)

Manipulacija i dezinformacija uz pomoć AI – Kako se AI može zloupotrebiti za širenje dezinformacija i manipulaciju javnim mnjenjem (deo 2)https://www.itnetwork.rs/manipulacija-i-dezinformacija-uz-pomoc-ai-kako-se-ai-moze-zloupotrebiti-za-sirenje-dezinformacija-i-manipulaciju-javnim-mnjenjem-deo-2/

Veštačka inteligencija (AI) u savremenom digitalnom svetu nije samo alat za poboljšanje korisničkog iskustva, već može biti i sredstvo za manipulaciju javnim mnjenjem putem automatizovanih botova i naloga na društvenim mrežama. Ovi botovi su dizajnirani da utiču na mišljenja i stavove korisnika kroz širenje određenih narativa, učestvovanje u diskusijama i stvaranje iluzije podrške ili protivljenja određenim temama-idejama ili ličnostima. Kako ovi botovi postaju sve sofisticiraniji, izazov postaje kako ih prepoznati i kako se zaštititi od njihovog uticaja.

Šta su botovi i kako funkcionišu?

Botovi su automatizovani nalozi koji koriste algoritme AI za generisanje sadržaja, deljenje postova, komentarisanje i čak komunikaciju sa drugim korisnicima na društvenim mrežama. Veštačka inteligencija omogućava ovim botovima da koriste prirodni jezik i reaguju na teme o kojima ljudi raspravljaju, čime se postiže nivo autentičnosti koji je ponekad teško razlikovati od stvarnog korisnika. Zahvaljujući algoritmima mašinskog učenja, botovi mogu analizirati trendove i koristiti relevantne reči i fraze kako bi privukli pažnju i doprineli diskusiji u skladu sa zadatim narativom.

Botovi se mogu koristiti za različite svrhe, od kreiranja pozitivne slike o određenom proizvodu ili usluzi do uticaja na političke stavove tokom izbora. Oni mogu stvarati iluziju široke podrške određenoj ideji ili osobi, što može uticati na stvarne korisnike i promeniti njihovo mišljenje. Na taj način, botovi postaju moćan instrument uticaja na javno mnjenje.

Manipulacija javnim mnjenjem putem širenja određenih narativa

Manipulacija i dezinformacija uz pomoć AI – Kako se AI može zloupotrebiti za širenje dezinformacija i manipulaciju javnim mnjenjem (deo 3) 1

Jedan od načina na koji botovi utiču na javno mnjenje je širenje specifičnih narativa koji odgovaraju interesima onih koji upravljaju botovima. Na primer, tokom političkih kampanja, botovi se mogu koristiti za širenje pozitivnih informacija o jednom kandidatu i negativnih vesti o njegovim protivnicima. Kroz automatizovano komentarisanje i deljenje sadržaja, botovi mogu navesti korisnike da poveruju da određeni stavovi imaju veliku podršku u javnosti.

Botovi takođe mogu uticati na diskusije tako što ubrzavaju širenje određenih informacija, bilo da su istinite ili ne. Ako botovi počnu masovno deliti neki sadržaj, algoritmi društvenih mreža mogu tu aktivnost prepoznati kao popularnu, što dovodi do toga da se taj sadržaj preporučuje većem broju korisnika. Na ovaj način, botovi mogu efikasno „pojačati“ glas jedne strane u debati, izazivajući promene javnog mnjenja.

Kreiranje eho-komora i polarizacija društva

Botovi takođe doprinose kreiranju „eho-komora“ – okruženja u kojima korisnici vide samo informacije koje su u skladu sa njihovim postojećim uverenjima i stavovima. Na primer, ako botovi šalju poruke i sadržaje koji podržavaju određene stavove, korisnici koji dele ta uverenja češće će interagovati sa tim sadržajima. Ovaj pristup dodatno učvršćuje postojeće stavove korisnika i istovremeno isključuje i ignoriše suprotna gledišta i perspektive, što doprinosi sve većoj polarizaciji društva.

U političkom kontekstu, ovaj fenomen može dovesti do porasta netolerancije prema stavovima koji se razlikuju od naših i do radikalizacije mišljenja. Kada korisnici veruju da njihovi stavovi imaju veliku podršku, iako je ta podrška delom stvorena od strane botova, oni mogu postati skloniji da ignorišu argumente suprotničke strane i da ne dovode u pitanje verodostojnost informacija koje dobijaju.

Izazovi u prepoznavanju botova

Manipulacija i dezinformacija uz pomoć AI – Kako se AI može zloupotrebiti za širenje dezinformacija i manipulaciju javnim mnjenjem (deo 3) 2

Prepoznavanje botova postaje sve složenije, jer se oni razvijaju da deluju što prirodnije. U ranim fazama razvoja botova, bilo je relativno lako otkriti njihovo prisustvo, jer su koristili repetativne izraze i jednostavne odgovore. Međutim, sa napretkom AI, botovi sada mogu koristiti kompleksnije jezičke strukture i reagovati na specifične događaje u realnom vremenu, što ih čini teško uočljivim.

Neki od znakova koji mogu ukazati na prisustvo botova uključuju visoku frekvenciju objava, nedostatak ličnih informacija, ili komentare koji izgledaju kao kopije na više različitih naloga. Međutim, budući da su botovi sve više u stanju da simuliraju ljudsko ponašanje, potrebno je razviti sofisticirane algoritme za njihovu identifikaciju.

Regulatorne mere i etička pitanja

S obzirom na potencijal botova da manipulišu javnim mnjenjem, potreba za regulacijom je sve veća. Neke države i platforme uvode mere za identifikaciju i obeležavanje automatizovanih naloga, što korisnicima omogućava da budu svesni da komuniciraju sa botom, a ne sa stvarnim korisnikom. Na primer, neke društvene mreže sada uključuju funkcije koje identifikuju i ograničavaju aktivnosti naloga za koje se utvrdi da su botovi.

Ipak, etička pitanja vezana za botove ostaju kompleksna. S jedne strane, botovi se mogu koristiti za pozitivne svrhe, kao što su informisanje javnosti o zdravstvenim merama ili podrška u kriznim situacijama. Sa druge strane, manipulativna upotreba botova utiče na integritet javnog mnjenja i podriva poverenje u informacije na mreži. Potrebno je balansirati između slobode izražavanja i sprečavanja manipulacije kako bi se obezbedila etička upotreba ove tehnologije.

Nastaviće se…
Milena Šović, M.Sc.,CSM
Prompt Engineer & AI Educator

Možda će vam se svideti i