AI u medicini i zdravstvu – Etičke implikacije primene AI u medicini (deo 4) – https://www.itnetwork.rs/ai-u-medicini-i-zdravstvu-eticke-implikacije-primene-ai-u-medicini-deo-4/
Veštačka inteligencija (AI) u zdravstvenim sistemima donosi velike prednosti, poput brže i preciznije dijagnostike, ali otvara i nova etička i pravna pitanja. Jedno od ključnih pitanja je odgovornost u slučaju greške koju AI sistem napravi u dijagnostici ili preporučivanju tretmana. Ako dođe do pogrešne dijagnoze ili preporuke koja negativno utiče na zdravlje pacijenta, postavlja se pitanje: ko snosi odgovornost – programeri koji su razvili AI, zdravstvene ustanove koje ga koriste ili medicinski radnici koji donose završne odluke?
Uloga AI u zdravstvenim odlukama i potencijal za greške
AI sistemi obrađuju velike količine podataka i koriste složene algoritme za prepoznavanje obrazaca i generisanje preporuka. Iako su veoma precizni, nisu nepogrešivi. Greške mogu nastati zbog nepotpunih ili pristrasnih podataka, tehničkih problema ili složenosti algoritma. U situacijama kada takva greška dovede do negativnih posledica po pacijenta, odgovornost postaje složeno pravno i etičko pitanje.
Na primer, AI sistem može pogrešno interpretirati medicinsku sliku zbog nedovoljno raznovrsnih podataka na kojima je treniran. Ako takva greška prođe nezapaženo i rezultira pogrešnom terapijom, posledice mogu biti ozbiljne. Upravo zato je ključno da svi uključeni u primenu AI sistema razumeju svoju odgovornost.
Ko snosi odgovornost za greške AI sistema?

U slučaju grešaka AI sistema, nekoliko aktera može biti potencijalno odgovorno:
- Programeri i kompanije koje razvijaju AI sisteme: Programeri su odgovorni za dizajn algoritama i trening sistema na adekvatnim podacima. Ako je greška rezultat problema u softveru, kao što su nekvalitetni podaci ili loša implementacija, programeri i kompanije koje razvijaju AI sisteme mogli bi se smatrati odgovornim. Međutim, zbog složenosti algoritama i obimnih podataka, često je teško utvrditi direktnu odgovornost programera za specifičnu grešku.
- Bolnice i zdravstvene ustanove: Zdravstvene ustanove koje implementiraju AI sisteme takođe snose deo odgovornosti. One su obavezne da testiraju i verifikuju AI sisteme pre njihove kliničke primene, kao i da osiguraju njihovu tačnost tokom upotrebe. Ako bolnica koristi AI koji nije adekvatno testiran ili je pogrešno primenjen, može snositi odgovornost za posledice. Takođe, bolnice su odgovorne za obuku osoblja koje koristi AI sisteme i za osiguranje njihove pravilne integracije u zdravstvenu praksu.
- Medicinski radnici: Iako AI pomaže u donošenju odluka, lekari i medicinski stručnjaci ostaju odgovorni za završne odluke. Njihova uloga uključuje procenu preporuka koje AI pruža i njihovo usklađivanje sa kliničkim iskustvom i znanjem. Ako lekar bez dodatne analize prihvati preporuku AI sistema i time nanese štetu pacijentu, može biti delimično odgovoran. Ovo je izazovno pitanje, jer lekari često ne mogu u potpunosti razumeti složenost algoritama, što ograničava njihovu sposobnost procene validnosti svih preporuka.
Pravni i etički izazovi odgovornosti
Pravni sistemi tek počinju da razvijaju regulative za odgovornost u slučaju grešaka AI sistema. Trenutno odgovornost zavisi od specifičnih okolnosti svakog slučaja, a mnoge situacije ostaju pravno neregulisane. Potrebno je uspostaviti jasne pravne okvire koji će definisati odgovornost svakog aktera u lancu primene AI sistema u zdravstvu.
Jedan od mogućih pristupa je koncept „podeljene odgovornosti“, prema kojem bi odgovornost bila raspodeljena između programera, zdravstvenih ustanova i lekara. Na primer, programeri bi bili odgovorni za tehničke nedostatke, bolnice za neadekvatnu implementaciju, a lekari za pogrešnu interpretaciju preporuka.
Izazovi u primeni odgovornosti

Jedan od ključnih problema u primeni odgovornosti je činjenica da mnogi AI sistemi funkcionišu kao „crne kutije“, što znači da je način na koji dolaze do preporuka teško razumljiv. Ovo otežava identifikaciju uzroka greške i pripisivanje odgovornosti.
Razvoj „objašnjive veštačke inteligencije“ (Explainable AI) može biti ključan za rešavanje ovog problema. Ova tehnologija omogućava detaljniji uvid u način rada AI sistema, pružajući medicinskim radnicima i pravnim stručnjacima mogućnost da identifikuju izvore greške i pravednije raspodele odgovornost.
Transparentnost i odgovornost kao temelji poverenja
Transparentnost i odgovornost su od suštinskog značaja za izgradnju poverenja u AI sisteme u zdravstvu. Pacijenti moraju biti sigurni da će AI sistemi raditi u njihovom interesu, a to poverenje zavisi od pouzdanosti tehnologije i jasne podele odgovornosti među svim uključenim akterima.
Edukacija medicinskog osoblja o načinu rada AI sistema, redovno testiranje tehnologije i uvođenje standarda za transparentnost ključni su koraci ka odgovornom korišćenju AI u zdravstvu. Takođe, uključivanje pacijenata u diskusiju o primeni AI u njihovoj nezi može doprineti većem razumevanju i poverenju.
Zaključak
Odgovornost za greške AI sistema u zdravstvu je kompleksno pitanje koje zahteva saradnju programera, zdravstvenih ustanova i medicinskih stručnjaka. Podeljena odgovornost i razvoj objašnjivih algoritama mogu doprineti pravednijem i sigurnijem korišćenju AI u medicini.
Kako AI postaje sve prisutniji u zdravstvenim sistemima, neophodno je razviti jasne pravne i etičke okvire koji će osigurati da tehnologija bude sigurna, odgovorna i usmerena ka dobrobiti pacijenata. Na taj način, AI će postati ne samo napredan alat, već i pouzdan partner u pružanju zdravstvene nege.
Nastaviće se…
Milena Šović, M.Sc.,CSM
Prompt Engineer & AI Educator



