U svetu gde veštačka inteligencija (AI) sve više generiše tekst, slike i zvuk, pitanje odgovornosti za sadržaj koji stvara postaje goruće. Šta se dešava kada AI „halucinira“ i proizvede lažne, štetne ili klevetničke izjave o pojedincima ili organizacijama? Iako su ljudi tradicionalno bili odgovorni za ono što govore ili pišu, koncept tužbe protiv mašine, odnosno softvera, otvara kompleksna pravna i etička pitanja. Da li je to naučna fantastika ili realnost bliske budućnosti?
Razumevanje klevete u tradicionalnom pravu
Pre nego što zaronimo u svet AI, važno je razumeti šta kleveta uopšte znači u pravnom smislu. Kleveta (ili defamacija) je iznošenje lažnih, štetnih izjava o nekoj osobi ili entitetu koje mogu naneti štetu ugledu. Postoje dva glavna oblika:
- Slander (usmena kleveta): Klevetničke izjave izrečene usmeno.
- Libel (pisana kleveta): Klevetničke izjave objavljene u pisanom obliku (novine, knjige, veb sajtovi, itd.).
Da bi se uspešno podnela tužba za klevetu, obično je potrebno dokazati sledeće elemente:
- Lažna izjava: Izjava mora biti neistinita.
- Objava: Izjava mora biti saopštena trećoj strani.
- Identifikacija: Izjava mora jasno identifikovati tužioca.
- Šteta: Izjava mora prouzrokovati štetu ugledu tužioca (finansijsku, profesionalnu, emotivnu).
- Krivica: Optuženi je morao delovati sa određenim stepenom krivice – nepažnjom ili zlonamernim namerama (posebno za javne ličnosti).
Izazov „tuženja“ veštačke inteligencije
Problem nastaje kada AI generiše klevetnički sadržaj. AI modeli, poput velikih jezičkih modela (LLM) koje pokreću četbotove, uče iz ogromnih količina podataka. Ponekad, tokom procesa generisanja, mogu „halucinirati“ – izmisliti informacije koje zvuče uverljivo, ali su potpuno neistinite. Ako ta neistinita informacija ošteti nečiji ugled, ko je odgovoran?
-
AI kao alat, ne entitet: Trenutno, pravni sistemi širom sveta ne prepoznaju AI kao zaseban pravni entitet koji može biti tužen. AI je softver, alat, sličan Word procesoru ili kalkulatoru. Ne možete tužiti Word procesor ako napišete klevetu u njemu.
-
Odgovornost programera/razvojne kompanije: Prvi i najlogičniji kandidat za odgovornost je kompanija koja je razvila AI sistem (npr. OpenAI, Google, Anthropic). Argument bi bio da su oni kreirali alat koji je, zbog svojih inherentnih mana ili načina na koji je obučen, proizveo štetan sadržaj.
- Izazovi: Kompanije će se verovatno braniti tvrdnjom da je AI samo alat i da se ne može predvideti svaka moguća interakcija. Takođe, mogu se pozvati na klauzule o odricanju odgovornosti ili na to da korisnik ima obavezu da proveri izlaz AI.
-
Odgovornost korisnika: Argument bi bio da je korisnik koji je postavio upit AI i objavio generisani sadržaj krajnje odgovoran, jer je on doneo odluku da se ta informacija širi. Slično kao što ste vi odgovorni ako objavite klevetu koju ste čuli od nekog drugog.
- Izazovi: Korisnici možda nemaju uvek mogućnost ili znanje da provere svaku informaciju koju AI generiše, pogotovo u kompleksnim temama. Da li je fer prebaciti svu odgovornost na njih?
-
Odgovornost platforme/distributera: Ako se klevetnički sadržaj širi putem platforme (npr. društvene mreže), može se postaviti pitanje odgovornosti i te platforme, slično kao što su platforme odgovorne za sadržaj koji objavljuju korisnici (iako postoje zakoni koji ih štite od potpune odgovornosti).
Aktuelni slučajevi i budućnost prava
Već su se pojavili prvi slučajevi koji testiraju ove granice:
- Pravni presedani: U Sjedinjenim Američkim Državama, gde su sudski procesi za klevetu relativno česti, već je bilo pokušaja tužbi zbog AI-generisane klevete. Na primer, advokat je pokušao da tuži OpenAI jer je ChatGPT, navodno, generisao netačne informacije o njemu u vezi sa prevarom. Ovi slučajevi su u ranoj fazi, ali će postaviti važne presedane.
- Kanadski gradonačelnik i ChatGPT: Jedan gradonačelnik u Kanadi zapretio je tužbom OpenAI-ju jer je ChatGPT generisao lažne tvrdnje da je optužen za podmićivanje.
Pravni stručnjaci širom sveta aktivno razmatraju ove izazove. Mogući pravci razvoja uključuju:
- Novi zakoni: Donošenje specifičnih zakona koji regulišu odgovornost za AI-generisani sadržaj. Ovo bi moglo uključivati obavezu AI kompanija da implementiraju strože mehanizme za sprečavanje „halucinacija“ ili da jasno označe sadržaj kao AI-generisan.
- Smernice za dizajn AI: Podsticanje „odgovornog dizajna AI“ gde se etička i pravna razmatranja ugrađuju u sam razvoj sistema.
- „Čovek u petlji“ (Human-in-the-loop): Naglašavanje važnosti ljudskog nadzora i provere sadržaja generisanog od strane AI pre objavljivanja.
Zaključak
Pitanje „da li možete tužiti AI za klevetu“ u ovom trenutku ima jasan odgovor: ne direktno. AI nije pravni subjekt. Međutim, odgovornost za štetan sadržaj koji AI generiše svakako postoji i prenosi se na ljude i kompanije koje su uključene u razvoj, implementaciju ili distribuciju tog AI sistema.
Kako AI tehnologija bude napredovala i postajala sve autonomnija, tako će se i pravni okviri morati prilagođavati. Budućnost će verovatno doneti nove zakone i sudske presedane koji će preciznije definisati odgovornost u ovom kompleksnom polju. Za sada, poruka je jasna: koristite AI alate odgovorno i uvek proveravajte informacije koje generišu, jer je konačna odgovornost za ono što objavite i dalje na vama.



