Home AIZašto ne treba da delite lične podatke sa ChatGPT-om ili drugim AI četbotovima

Zašto ne treba da delite lične podatke sa ChatGPT-om ili drugim AI četbotovima

od Ivan Radojevic
Zašto ne treba da delite lične podatke sa ChatGPT-om ili drugim AI četbotovima

Nema sumnje da ChatGPT i drugi AI četbotovi predstavljaju impresivne sagovornike koji mogu razgovarati s vama o gotovo svemu.

Njihove veštine u vođenju razgovora mogu biti izuzetno uverljive; ako su vas naveli da se osećate sigurno pri deljenju svojih ličnih podataka, niste jedini. Ali — iznenađenje! — ne razgovarate sa svojim tosterom. Sve što kažete AI četbotu može biti sačuvano na serveru i kasnije ponovo isplivati, što ih čini suštinski rizičnim.

Zašto su četbotovi toliko rizični

Problem leži u načinu na koji kompanije koje upravljaju modelima velikih jezičkih modela (LLM) i njihovim povezanim četbotovima koriste vaše lične podatke — suštinski, za obuku boljih botova.

Uzmimo za primer film Terminator 2: Sudnji dan da bismo razumeli kako LLM uči. U filmu, budući vođa ljudskog otpora protiv Skajneta, dečak Džon Konor, uči Terminatora, kojeg igra Arnold Švarceneger, ličnim frazama poput „Hasta la vista, bejbi“ u pokušaju da ga učini ljudskijim.

Zašto ne treba da delite lične podatke sa ChatGPT-om ili drugim AI četbotovima 1

Dovoljno je reći da Terminator nauči te fraze i koristi ih u najnepovoljnijim trenucima — što je donekle smešno.

Manje smešno je to kako kompanije prikupljaju i koriste vaše podatke za ažuriranje i obučavanje svojih AI modela da budu humaniji.

Uslovi korišćenja OpenAI-a jasno navode pravo kompanije da koristi vaše podatke kada koristite njihovu platformu. Navodi se: „Možemo koristiti podatke koje nam pružite kako bismo unapredili naše modele.“ Ovo je razlog zašto ChatGPT beleži sve — da, sve — što kažete. To se, međutim, može izbeći korišćenjem nove funkcije privatnosti koja vam omogućava da isključite opciju čuvanja istorije razgovora.

Ako to ne učinite, podaci poput vaših finansijskih informacija, lozinki, kućne adrese, broja telefona ili čak onoga što ste doručkovali postaju dostupni — ukoliko ih podelite. Takođe se čuvaju svi fajlovi koje otpremite i povratne informacije koje ostavite.

Uslovi korišćenja ChatGPT-a takođe navode da četbot može „agregirati ili anonimizovati lične informacije i koristiti agregirane podatke za analizu efikasnosti naših usluga.“ Iako deluje kao manji dodatak, to otvara mogućnost da informacije koje je četbot naučio kasnije budu dostupne javnosti — što je zaista zabrinjavajuće.

Zašto bi trebalo da vas bude briga

Zašto ne treba da delite lične podatke sa ChatGPT-om ili drugim AI četbotovima 2

Istini za volju, malo je verovatno da bilo koja kompanija koja upravlja AI četbotom namerava da zloupotrebi lične informacije koje čuva. Poslednjih godina OpenAI je objavljivao saopštenja s ciljem da uveri korisnike ChatGPT-a u vezi sa prikupljanjem i korišćenjem ličnih podataka.

Na primer, u februaru ove godine, kada ga je italijansko telo za zaštitu podataka (DPA) optužilo za kršenje odredbi Opšte uredbe Evropske unije o zaštiti podataka (GDPR), OpenAI je za BBC izjavio: „Želimo da naš AI uči o svetu, a ne o privatnim pojedincima.“

Takođe su dodali: „Aktivno radimo na smanjenju količine ličnih podataka u obuci naših sistema poput ChatGPT-a, koji takođe odbija zahteve za privatnim ili osetljivim informacijama o ljudima.“

To može biti tačno, ali to ne garantuje da su korisnički podaci sigurni od hakovanja. Jedan takav incident dogodio se u maju 2023. godine, kada su hakeri iskoristili ranjivost u Redis biblioteci ChatGPT-a, što im je omogućilo pristup sačuvanim ličnim podacima iz istorije razgovora.

Procureni lični podaci uključivali su imena, brojeve socijalnog osiguranja, radne pozicije, email adrese, brojeve telefona, pa čak i profile na društvenim mrežama. OpenAI je reagovao tako što je ispravio ranjivost, ali to nije bilo mnogo utehe za oko 101.000 korisnika čiji su podaci već ukradeni.

A nisu samo pojedinci suočeni sa problemima privatnosti kada je reč o AI četbotovima. I kompanije se bore da zaštite poverljive podatke, usled značajnih i visoko profilisanih curenja podataka. Jedno od takvih curenja otkrila je kompanija Samsung, koja je saznala da su njeni inženjeri slučajno otpremili osetljiv izvorni kod na ChatGPT.

Kao odgovor, u maju 2023. godine kompanija je zabranila upotrebu ChatGPT-a i drugih generativnih AI četbotova u poslovne svrhe. Kompanije poput Bank of America, Citigroup i JPMorgan su od tada učinile isto.

Svest o opasnostima AI četbotova raste, ali je još uvek rano

Zašto ne treba da delite lične podatke sa ChatGPT-om ili drugim AI četbotovima 3

U poslednje vreme raste svest o opasnostima AI četbotova na nivou vlade i industrije, što je obećavajući znak za jačanje bezbednosti podataka.

Jedan veliki napredak desio se 30. oktobra prošle godine, kada je američki predsednik Džozef Bajden potpisao izvršnu naredbu o sigurnom, bezbednom i poverljivom razvoju i upotrebi veštačke inteligencije — dokument koji izlaže ključne principe koji uređuju upotrebu AI-ja u Sjedinjenim Američkim Državama.

Jedan od prioriteta u dokumentu stipulira da „AI sistemi moraju poštovati privatnost i štititi lične podatke.“ Ipak, kako će se to tačno implementirati, tek treba da se vidi i može biti podložno interpretaciji od strane AI kompanija.

Pomalo suprotno toj tački je činjenica da u Sjedinjenim Državama još uvek ne postoji jasan zakon koji tvrdi da obuka AI sistema na podacima bez pristanka vlasnika predstavlja bilo kakvo kršenje autorskih prava. Umesto toga, to se može smatrati pravednom upotrebom — što znači da ne postoji čvrst okvir za zaštitu prava potrošača.

Dok ne dobijemo nešto konkretnije, naša najbolja odbrana kao pojedinaca i dalje je jednostavno ne preterivati sa deljenjem podataka. Tako što ćemo tretirati AI četbot kao algoritam kakav jeste, a ne kao poverljivog prijatelja, bez obzira na to koliko vam upućuje komplimente za frizuru ili izbor odeće, barem možete kontrolisati ono što zna o vama s vašeg kraja.

Banner

Banner

Možda će vam se svideti i