Nedavno sam se suočila sa situacijom koja, nažalost, nije neuobičajena u akademskom svetu. Predala sam naučni rad uglednom časopisu, a nekoliko dana kasnije primila sam razočaravajući odgovor: rad je odbijen jer nije prošao proveru plagijata, uz priloženi izveštaj sa tabelama, procentima i grafikonima.
Pažljivim pregledom izveštaja, ostala sam zatečena: softver je označio čak i korektno citirane reference kao plagijat, ukupno 6,91% teksta. Drugim rečima, samo zato što su isti autori citirani u drugim radovima, moj rad je označen kao „sumnjiv“. Još više zapanjuje činjenica da su uobičajene fraze i opšte sintagme označene kao plagijat, uključujući i originalnu rečenicu koju sam svesno formulisala u provokativnom tonu radi jačanja argumentacije (rad ću javno podeliti nakon objavljivanja, kao i sve prethodne radove).
Još alarmantnije, izveštaj je sadržao tvrdnju da je 21,7% teksta „generisano veštačkom inteligencijom“. Kao istraživač koji se bavi razvojem četbotova, proučavanjem primene veštačke inteligencije u obrazovanju i kulturi, kao i etikom AI, ovu optužbu doživela sam kao krajnje ironičnu.
Osoba zadužena za proveru plagijata u prvoj fazi nije se obratila urednicima radi dodatne provere sadržaja rada. Odluka o odbijanju doneta je isključivo na osnovu izveštaja AI-alata za proveru plagijata. Tek nakon što sam uložila žalbu, direktno se obrativši urednici i ukazavši na nelogičnosti i trivijalne razloge za navodni „plagijat“, rad je pregledan od strane stručnog lica (čoveka, naravno). Na kraju, rad je prošao proveru, kako je i bilo očekivano, i prosleđen je recenzentima.
Međutim, ovo iskustvo ukazuje na ozbiljan problem. Alati poput „Turnitina”, „Plagiarism” „Detectora” ili „CopyLeaksa” u akademskim krugovima često se doživljavaju kao nepogrešivi arbitri. U praksi, međutim, ovi alati često daju netačne rezultate, označavajući korektno navedene izvore kao plagijat, „kažnjavajući“ standardne fraze i izraze uobičajene u opštoj komunikaciji, proglašavajući autoplagijat – odnosno ponovno korišćenje sopstvenih definicija ili metodologije – prekršajem, a u novije vreme uvodeći i procenu da li je „tekst generisan veštačkom inteligencijom“, iako ne postoji naučno utemeljen metod kojim bi se pouzdano utvrdilo da li je tekst nastao uz pomoć AI alata. Najveća opasnost leži u slepoj veri nastavnika, recenzenata i urednika u rezultate ovih sistema. Ukoliko se zanemari potreba za ličnom procenom kvaliteta i originalnosti rada, prepustivši algoritmu ulogu konačnog sudije, mogu nastati ozbiljne greške. Softver preuzima ulogu arbitra, iako algoritmi nemaju sposobnost kritičkog razmišljanja, intuicije ili razumevanja konteksta.
Mnogi autori, posebno mlađi istraživači i studenti, suočeni sa izveštajem koji njihov rad označava kao „plagijat“ ili „generisan veštačkom inteligencijom“, često odustaju. Čak i kada koriste AI alate isključivo za proveru gramatike ili ispravku pravopisnih grešaka, mogu pomisliti da je i to nedopušteno. Ne usuđuju se da ulože žalbu, zatraže stručnu proveru od strane kompetentnog lica ili insistiraju na svojim pravima, što rezultira time da njihovi radovi ostanu označeni kao „odbijeni zbog plagijata ili korišćenja AI alata“, iako suštinski nikakav prekršaj nije postojao.
Moje iskustvo mi je pokazalo da je neophodno otvoreno govoriti o ovom problemu. Alati za proveru plagijata mogu biti korisni kao preliminarna provera, ali nikako ne smeju imati konačnu reč. Ljudska procena, kritički uvid i razumevanje konteksta ostaju nezamenljivi. Ako dopustimo da softver donosi odluke umesto nas, rizikujemo da nepravedno kaznimo iskren trud i originalne ideje.
Ovaj slučaj samo je još jedan dokaz zašto je neophodno da „ljudski faktor“ uvek ostane uključen u proces donošenja odluka. Zamislite posledice ukoliko bi veštačka inteligencija, bez ljudskog nadzora, odlučivala o krivici ili nevinosti u pravosudnom sistemu.
Budućnost, iako tehnološki napredna, možda nije tako svetla kao što se na prvi pogled čini…
Milena Šović, M.Sc.,CSM, CSPO
AI Implementation Specialist & Content Trainer



