Stručnjaci upozoravaju da su veliki jezički modeli poput ChatGPT-a podložni manipulaciji kroz takozvano „trovanje podataka“, što može imati ozbiljne posledice po bezbednost, tačnost i etičnost AI sistema.
Šta znači „trovanje“ veštačke inteligencije?
U svetu veštačke inteligencije, pojam „trovanje“ ne odnosi se na fizičku štetu, već na namerno unošenje pogrešnih, manipulativnih ili zlonamernih podataka u sistem tokom procesa treniranja. Kada se AI model „nahrani“ takvim sadržajem, on može početi da generiše netačne, štetne ili pristrasne odgovore, a da korisnik toga nije ni svestan.
Ova vrsta ranjivosti posebno pogađa velike jezičke modele (LLM), koji se oslanjaju na ogromne količine podataka sa interneta. Budući da ti podaci nisu uvek provereni, postoji realna opasnost da se u model infiltriraju sadržaji koji imaju za cilj da promene ponašanje sistema — bilo iz ideoloških, komercijalnih ili kriminalnih razloga.
Kako se AI modeli mogu zloupotrebiti?
Stručnjaci upozoravaju da se AI modeli mogu zloupotrebiti na više načina:
- Unošenjem lažnih informacija u javne izvore koje modeli koriste za treniranje.
- Kreiranjem sadržaja koji izgleda legitimno, ali sadrži suptilne manipulacije.
- Eksploatacijom ranjivosti u promptovima, gde korisnici mogu navesti model da generiše štetan sadržaj.
- Korišćenjem AI za generisanje malicioznog koda, koji može ugroziti bezbednost sistema, baze podataka ili korisničke informacije.
U najnovijim istraživanjima, pokazano je da se modeli poput ChatGPT-a mogu navesti da generišu kod koji omogućava pristup osetljivim podacima, briše važne informacije ili ometa rad cloud servisa.
Zašto je ovo važno za širu javnost?
Veštačka inteligencija sve više ulazi u svakodnevni život — od obrazovanja i medicine, do bankarstva i pravosuđa. Ako se AI modeli mogu lako „zatrovati“, to znači da postoji rizik da korisnici dobiju netačne informacije, da se donose pogrešne odluke, pa čak i da se ugrozi bezbednost sistema koji koriste AI kao podršku.
Zabrinjavajuće je i to što korisnici često ne mogu da prepoznaju kada je model „zatrovan“, jer odgovori i dalje deluju uverljivo, gramatički ispravno i logično strukturisano. Upravo ta sposobnost da „laže sa stilom“ čini AI posebno opasnim kada se koristi bez odgovarajuće kontrole.
Kako se AI industrija brani od ovih pretnji?
Kompanije koje razvijaju AI modele ulažu značajne resurse u bezbednosne mehanizme, uključujući:
- Filtriranje podataka tokom treniranja, kako bi se izbegli izvori sa sumnjivim sadržajem.
- Uvođenje sigurnosnih slojeva u promptove, koji sprečavaju generisanje štetnog sadržaja.
- Praćenje ponašanja modela u realnom vremenu, uz mogućnost intervencije ako se uoče anomalije.
- Transparentnost u razvoju, uključujući objavljivanje metodologije i ograničenja modela.
Međutim, stručnjaci ističu da nijedan sistem nije savršen i da je potrebna šira saradnja između akademske zajednice, industrije i regulatornih tela kako bi se AI učinila otpornijom na manipulaciju.
Šta korisnici mogu da urade?
Iako prosečan korisnik ne može direktno uticati na arhitekturu AI modela, postoje koraci koje može preduzeti:
- Kritički pristup informacijama koje AI generiše — ne uzimati sve zdravo za gotovo.
- Proveravati izvore i upoređivati odgovore sa relevantnim podacima.
- Prijavljivati sumnjive odgovore platformama koje nude AI servise.
- Razvijati digitalnu pismenost, kako bi se bolje razumelo kako AI funkcioniše i gde su njene granice.



