Home BIZNIS I ZABAVA Veštačka inteligencija sada može da vodi vaše sastanke i piše kod: Ali postoje skriveni rizici

Veštačka inteligencija sada može da vodi vaše sastanke i piše kod: Ali postoje skriveni rizici

by Ivan Radojevic

Microsoft je nedavno lansirao novu verziju svog softvera sa dodatkom veštačke inteligencije (VI) koja može da obavlja različite zadatke za vas.

Copilot može da sumira verbalne razgovore na Teams online sastancima, iznosi argumente za ili protiv određenog stava na osnovu verbalnih diskusija i odgovara na deo vaših mejlova. Čak može da piše kompjuterski kod.

Ova brzo razvijajuća tehnologija čini se da nas sve više približava budućnosti u kojoj veštačka inteligencija olakšava naše živote i preuzima sve dosadne i ponavljajuće zadatke koje kao ljudi moramo da obavljamo.

Međutim, iako su ovi napreci veoma impresivni i korisni, moramo biti oprezni u korišćenju ovakvih velikih jezičkih modela (LLM). Uprkos svojoj intuitivnoj prirodi, još uvek je potrebno veštine za njihovu efikasnu, pouzdanu i sigurnu upotrebu.

Veliki jezički modeli

LLM-ova, vrsta „dubokog učenja“ neuronskih mreža, dizajnirani su da razumeju nameru korisnika analizom verovatnoće različitih odgovora na osnovu unetog upita. Dakle, kada osoba unese upit, LLM analizira tekst i određuje najverovatniji odgovor.

Veštačka inteligencija sada može da vodi vaše sastanke i piše kod Ali postoje skriveni rizici 1

ChatGPT, istaknuti primer LLM-a, može da pruži odgovore na upite o širokom spektru tema. Međutim, uprkos svojim naizgled stručnim odgovorima, ChatGPT ne poseduje stvarno znanje. Njegovi odgovori su jednostavno najverovatniji ishodi na osnovu datog upita.

Kada ljudi daju ChatGPT-u, Copilotu i drugim LLM-ovima detaljne opise zadataka koje žele da postignu, ovi modeli mogu da pruže visokokvalitetne odgovore. Ovo može uključivati generisanje teksta, slika ili kompjuterskog koda.

Međutim, kao ljudi, često pomeramo granice onoga što tehnologija može da uradi i onoga za šta je prvobitno dizajnirana. Posledično, počinjemo da koristimo ove sisteme za obavljanje posla koji smo sami trebali da obavimo.

Zašto prekomerna zavisnost od AI-a može biti problem

Uprkos njihovim naizgled inteligentnim odgovorima, ne možemo slepo verovati LLM-ovima da budu tačni ili pouzdani. Moramo pažljivo da procenjujemo i verifikujemo njihove rezultate, osiguravajući da naši inicijalni upiti budu odraženi u pruženim odgovorima.

Da bismo efikasno proverili i validirali rezultate LLM-a, potrebno je da imamo duboko razumevanje teme. Bez stručnosti, ne možemo pružiti neophodnu kontrolu kvaliteta.

Ovo postaje posebno kritično u situacijama kada koristimo LLM-ove da popunimo praznine u našem znanju. Naše nedostatak znanja može nas dovesti u situaciju u kojoj jednostavno nismo u mogućnosti da odredimo da li je izlaz tačan ili ne. Ova situacija može nastati prilikom generisanja teksta i kodiranja.

Korišćenje AI-a za prisustvovanje sastancima i sumiranje diskusije donosi očigledne rizike u pogledu pouzdanosti.

Veštačka inteligencija sada može da vodi vaše sastanke i piše kod Ali postoje skriveni rizici 2

Dok je zapis sastanka zasnovan na transkriptu, beleške sa sastanka i dalje se generišu na isti način kao i drugi tekstovi iz LLM-a. One su još uvek zasnovane na jezičkim obrascima i verovatnoćama onoga što je rečeno, pa stoga zahtevaju verifikaciju pre nego što mogu biti korišćene.

LLM-ovi takođe pate od problema sa interpretacijom zbog homofona, reči koje se izgovaraju isto ali imaju različita značenja. Ljudi su dobri u razumevanju šta je zamišljeno u takvim okolnostima zbog konteksta razgovora.

Međutim, AI nije dobra u dedukciji konteksta niti razumevanju nijansi. Tako da očekivanje da će formulisati argumente na osnovu potencijalno netačnog transkripta predstavlja dodatne probleme.

Verifikacija je još teža kada koristimo AI za generisanje računarskog koda. Testiranje računarskog koda sa test podacima je jedini pouzdani metod za validaciju njegove funkcionalnosti. Iako ovo pokazuje da kod funkcioniše kako je zamišljeno, ne garantuje da se njegovo ponašanje poklapa sa stvarnim očekivanjima.

Veštačka inteligencija sada može da vodi vaše sastanke i piše kod Ali postoje skriveni rizici 3

Pretpostavimo da koristimo generativni AI za kreiranje koda za alat za analizu sentimenta. Cilj je analizirati recenzije proizvoda i kategorizovati sentiment kao pozitivan, neutralan ili negativan. Možemo testirati funkcionalnost sistema i validirati da kod funkcioniše ispravno – da je solidan iz tehničkog aspekta programiranja.

Međutim, zamislite da implementiramo takav softver u stvarnom svetu i on počne da klasifikuje sarkastične recenzije proizvoda kao pozitivne. Sistem za analizu sentimenta nema kontekstualno znanje potrebno da razume da sarkazam nije pozitivan povratni odgovor, već suprotno.

Verifikacija da izlaz koda odgovara željenim ishodima u nijansiranim situacijama kao što je ova zahteva stručnost.

Ne-programeri neće imati znanje o principima inženjeringa softvera koji se koriste za obezbeđivanje tačnosti koda, kao što su planiranje, metodologija, testiranje i dokumentacija. Programiranje je složena disciplina, i inženjering softvera je nastao kao oblast koja upravlja kvalitetom softvera.

Postoji značajan rizik, kao što je moje istraživanje pokazalo, da će ne-stručnjaci prevideti ili preskočiti ključne korake u procesu dizajniranja softvera, što može dovesti do koda nepoznate kvaliteta.

Validacija i verifikacija

LLM-ovi kao što su ChatGPT i Copilot su moćni alati od kojih svi možemo imati koristi. Međutim, moramo biti oprezni i ne verovati slepo u rezultate koje nam pružaju.

Veštačka inteligencija sada može da vodi vaše sastanke i piše kod Ali postoje skriveni rizici 4

Nalazimo se na početku velike revolucije zasnovane na ovoj tehnologiji. AI ima beskonačne mogućnosti, ali treba da bude oblikovana, proverena i verifikovana. Trenutno, samo ljudi mogu da obave ove zadatke.

Možda će vam se svideti i