Manipulacija i dezinformacija uz pomoć AI – Kako se AI može zloupotrebiti za širenje dezinformacija i manipulaciju javnim mnjenjem (deo 6) – https://www.itnetwork.rs/manipulacija-i-dezinformacija-uz-pomoc-ai-kako-se-ai-moze-zloupotrebiti-za-sirenje-dezinformacija-i-manipulaciju-javnim-mnjenjem-deo-6/
Sa rastućim uticajem veštačke inteligencije (AI) na medije i društvene mreže, sve je izraženija potreba za zaštitom javnosti od dezinformacija i manipulacije. Danas AI tehnologija omogućava kreiranje verodostojnih lažnih vesti, manipulativnih slika i audio-zapisa, kao i veoma realističnih deepfake video snimaka. Iako AI u medijima nudi brojne mogućnosti za unapređenje informacija i sadržaja, takođe predstavlja i potencijalni rizik za širenje lažnih informacija. Kako bi se sprečila zloupotreba AI tehnologije u medijskom prostoru, neophodno je uspostaviti jasne i efikasne regulatorne mere i pravne okvire koji će osigurati pouzdanost medijskih platformi.
Regulativa provere činjenica i transparentnost
Jedna od osnovnih regulatornih mera za sprečavanje zloupotrebe AI u medijima je uvođenje regulativa provere činjenica. Kako AI sve češće samostalno generiše vesti i sadržaje, ključno je osigurati da medijske platforme aktivno proveravaju tačnost i pouzdanost objavljenih informacija. Ove regulative uključuju proveru izvora informacija, analizu verodostojnosti i uključivanje ljudskih moderatora koji bi mogli proceniti istinitost sadržaja pre nego što se on plasira javnosti.
Transparentnost je, pored provere činjenica, jedan od osnovnih principa odgovorne upotrebe AI u medijima. Kompanije koje koriste AI za generisanje sadržaja trebalo bi da obeležavaju takve materijale kao „generisane pomoću AI“ kako bi korisnici bili svesni kada je sadržaj automatski kreiran, a ne rezultat ljudskog rada. Na ovaj način korisnici mogu da razviju kritički stav prema takvom sadržaju i budu svesni da informacije možda nisu prošle ljudsku proveru i kontrolu. Takvo obeležavanje AI sadržaja može značajno smanjiti rizik od širenja dezinformacija i manipulativnih informacija koje bi mogle uticati na javno mnjenje.
Zakoni o transparentnosti algoritama
Još jedan važan aspekt u regulaciji AI u medijima odnosi se na transparentnost algoritama koji koriste AI za preporuke i širenje medijskog sadržaja. Algoritmi koji preporučuju vesti ili popularan sadržaj često su prilagođeni tako da povećaju angažovanje korisnika, što ponekad može podstaći širenje senzacionalističkog ili manipulativnog sadržaja. Da bi se ovaj efekat smanjio, regulatorne mere mogu da zahtevaju od kompanija da otkriju način rada svojih algoritama i da objasne kako algoritmi funkcionišu i po kojim metrikama određeni sadržaj postaje vidljiviji korisnicima.
Transparentnost algoritama je ključna za razumevanje mehanizama koji stoje iza preporuka sadržaja. Kada korisnici razumeju kako algoritmi funkcionišu, mogu lakše da prepoznaju i izbegnu manipulativni sadržaj. Osim toga, ova vrsta transparentnosti omogućava nezavisnim telima i istraživačima da analiziraju algoritme i otkriju moguću pristrasnost koja bi mogla doprineti širenju dezinformacija ili pojačavanju polarizacije društva. Ova mera je posebno važna u političkom kontekstu, gde algoritmi mogu nesvesno podržavati određene narative i manipulisati javnošću.
Zakoni protiv zloupotrebe deepfake tehnologije
Deepfake tehnologija predstavlja posebnu opasnost za javnu bezbednost i privatnost, jer omogućava kreiranje uverljivih lažnih video i audio sadržaja. Ova tehnologija se može zloupotrebiti za širenje dezinformacija, narušavanje ugleda javnih ličnosti i kreiranje kompromitujućeg sadržaja. Zakoni koji regulišu upotrebu deepfake tehnologije mogli bi zahtevati da svaki sadržaj koji koristi ovu tehnologiju bude jasno obeležen i da se uvedu krivične sankcije za one koji namerno koriste deepfake za manipulaciju javnosti ili ucenu pojedinaca.
Osim toga, zakoni mogu obavezati platforme da automatski prepoznaju i označavaju deepfake sadržaje, kao i da redovno obaveštavaju javnost o upotrebi ove tehnologije. Ovakve mere mogu značajno smanjiti zloupotrebu deepfake-a u medijima i uticati na bezbednost javnog prostora.
Odgovornost kompanija za štetu uzrokovanu AI dezinformacijama
Kako bi se osiguralo da kompanije koje koriste AI budu odgovorne za svoj uticaj, regulatorni okvir može propisati da kompanije snose odgovornost za štetu koju mogu izazvati njihovi AI alati. Na primer, ako medijska platforma koristi AI koji automatski generiše i deli netačne ili manipulativne sadržaje, kompanija bi mogla biti odgovorna za posledice koje takve informacije mogu izazvati. Ova odgovornost bi podstakla kompanije da budu opreznije u primeni AI tehnologija i da ulažu u mere za proveru tačnosti i pouzdanosti sadržaja.
Pored toga, ovaj vid odgovornosti bi mogao uključivati obavezu kompanija da uklone dezinformacije, obaveste javnost o pogrešnim informacijama i, u slučaju štete, nadoknade nastale posledice. Ovakav pristup ohrabruje kompanije da razvijaju alate za otkrivanje manipulativnog sadržaja i podržavaju edukaciju korisnika, čime doprinose borbi protiv širenja lažnih vesti i manipulacije javnim mnjenjem.
Međunarodna saradnja u borbi protiv dezinformacija
Zbog globalnog dometa AI tehnologija i medijskih platformi, međunarodna saradnja je od izuzetne važnosti za efikasno sprovođenje regulatornih mera. AI alati funkcionišu izvan nacionalnih granica, što znači da je potrebna koordinacija između država kako bi se obezbedila doslednost u primeni regulatornih standarda. Međunarodne organizacije, poput Ujedinjenih nacija i Evropske Unije, mogu imati značajnu ulogu u formiranju globalnih standarda za odgovornu upotrebu AI u medijima.
Međunarodna saradnja može obuhvatiti razmenu informacija i tehnologija za otkrivanje manipulativnog sadržaja, zajedničke obrazovne inicijative i razvoj zajedničkih baza podataka o dezinformacijama. Ovakve inicijative pomažu u jačanju doslednosti u regulaciji i suzbijanju zloupotreba AI koje mogu ugroziti međunarodnu bezbednost i stabilnost.
Edukacija javnosti kao ključni deo rešenja
Pored pravnih i tehničkih mera, edukacija javnosti igra važnu ulogu u sprečavanju zloupotrebe AI. Korisnici koji su informisani o tome kako AI funkcioniše i kako prepoznati manipulativni sadržaj, otporniji su na dezinformacije i manje podložni manipulaciji. Regulatorne mere mogu obuhvatiti i obavezu kompanija da organizuju edukativne kampanje i pruže alate korisnicima za proveru pouzdanosti informacija. Edukacija o tome kako razlikovati istinit od manipulativnog sadržaja može podići svest javnosti o opasnostima dezinformacija i omogućiti ljudima da postanu kritičniji prema onome što konzumiraju.
Obrazovanje je posebno važno za mlađe generacije koje provode dosta vremena na internetu i društvenim mrežama. Uvođenje digitalne pismenosti u školski sistem može biti značajan korak ka stvaranju generacije koja razume načine na koje AI tehnologija funkcioniše i koja može prepoznati potencijalne manipulacije. Takođe, škole i obrazovne institucije mogu imati aktivnu ulogu u razvoju kritičkog razmišljanja kod učenika, što je neophodno za otpornost na dezinformacije i izgradnju kulture koja ceni pouzdane i proverene informacije.
Zaključak
Dok AI nastavlja da se integriše u medijske platforme i društvene mreže, potreba za efikasnim regulatornim merama postaje sve izraženija. Regulative provere činjenica, transparentnost u algoritmima, zaštita od zloupotrebe deepfake tehnologije, odgovornost kompanija i međunarodna saradnja predstavljaju ključne korake u osiguravanju da AI bude odgovorno korišćen u medijima.
Edukacija javnosti i podizanje svesti o načinima na koje AI može biti zloupotrebljen igraju vitalnu ulogu u stvaranju informisanog društva koje je otporno na manipulaciju i dezinformacije. Samo kroz zajednički napor svih aktera – vlada, kompanija, obrazovnih institucija i korisnika – možemo izgraditi digitalno okruženje koje podstiče istinu, transparentnost i javni interes.
Nastaviće se…
Milena Šović, M.Sc.,CSM
Prompt Engineer & AI Educator