Home AISkrivena cena „pametnih“ AI modela: Zašto finansiranje obuke može povećati „halucinacije“ i kako to izbeći

Skrivena cena „pametnih“ AI modela: Zašto finansiranje obuke može povećati „halucinacije“ i kako to izbeći

od itn
AI halucinacije

U svetu veštačke inteligencije (AI), posebno kada je reč o velikim jezičkim modelima (LLM) koji pokreću sisteme poput ChatGPT-a, stalno se teži poboljšanju performansi i smanjenju grešaka. Dve ključne tehnike koje se koriste za „fino podešavanje“ ovih modela su finetuning (fino podešavanje) i reinforcement learning (učenje potkrepljivanjem). Iako su obe metode ključne za poboljšanje korisničkog iskustva, one sa sobom nose i skriveni, često previđeni, rizik – takozvani „porez na halucinacije“. Šta to znači i kako utiče na pouzdanost AI sistema?

AI halucinacijeRazumevanje Finetuninga i Reinforcement Learninga

Pre nego što zaronimo u „porez na halucinacije“, objasnimo ove dve tehnike:

1. Finetuning (Fino podešavanje):

Ovo je proces uzimanja već obučenog, velikog jezičkog modela (koji je obučen na ogromnoj količini teksta sa interneta) i dalja obuka na manjem, specifičnijem skupu podataka.

  • Svrha: Prilagođavanje modela određenom zadatku ili domenu. Na primer, finetuning opšteg LLM-a na medicinskim tekstovima kako bi bolje razumeo medicinsku terminologiju i davao preciznije odgovore u zdravstvu.
  • Kako funkcioniše: Modelu se daju primeri ispravnih odgovora ili željenog ponašanja u specifičnom kontekstu, i on uči da oponaša te obrasce.

2. Reinforcement Learning from Human Feedback (RLHF) – Učenje potkrepljivanjem na osnovu ljudskih povratnih informacija:

Ovo je naprednija tehnika koja koristi povratne informacije od ljudi kako bi se AI model nagradio za „dobre“ odgovore, a kažnjavao za „loše“. Cilj je da se model uskladi sa ljudskim preferencijama, etičkim standardima i željama.

  • Svrha: Smanjenje generisanja štetnog, neprikladnog ili nekorisnog sadržaja, kao i poboljšanje konverzacijskih sposobnosti i relevantnosti odgovora.
  • Kako funkcioniše: Ljudski evaluatori ocenjuju odgovore AI modela, rangiraju ih po kvalitetu, relevantnosti i bezbednosti. Te ocene se koriste za obuku „modela nagrade“ koji zatim uči LLM da daje odgovore koji će dobiti visoku ocenu.

„Porez na halucinacije“: Nevidljiva mana preterane optimizacije

Iako ove tehnike značajno poboljšavaju performanse AI modela i čine ih korisnijim, postoji rizik od neželjenog efekta koji se naziva „porez na halucinacije“.

Šta je „halucinacija“ u AI? U kontekstu AI, halucinacija se dešava kada model generiše informaciju koja zvuči uverljivo, ali je zapravo netačna, izmišljena ili nema potporu u podacima na kojima je obučen. To može biti pogrešan datum, izmišljen citat, nepostojeći događaj ili pogrešna statistika.

Kako finetuning i RLHF doprinose halucinacijama?

Problem nastaje kada se ciljevi optimizacije (npr. zvučati prirodnije, biti kooperativniji, izbegavati kontroverzne teme) previše agresivno forsiraju kroz finetuning i RLHF, nauštrb faktografske tačnosti.

Zamislite AI model kao studenta. Ako ga previše učimo kako da zvuči uverljivo, ljubazno ili kako da izbegne određene reči, a manje ga nagrađujemo za proveru činjenica, on će prioritet dati stilu i „prijatnosti“ odgovora, čak i ako to znači izmišljanje informacija.

  • Primer: Ako je model kroz RLHF nagrađen za „kreativne“ i „sveobuhvatne“ odgovore, a nije dovoljno kažnjavan za netačnosti, može početi da izmišlja detalje kako bi zvučao sveobuhvatnije, umesto da prizna da nema informaciju.
  • „Samopouzdanost“ u netačnosti: Modeli obučeni na ovaj način mogu zvučati izuzetno samouvereno čak i kada iznose netačne informacije, što otežava korisniku da prepozna halucinaciju. Oni su obučeni da zvuče „autoritativno“, ne nužno da budu autoritativni u smislu faktografske tačnosti.

Ovo je „porez“ – nevidljivi trošak poboljšanja određenih aspekata modela (kao što su kooperativnost i stil) koji rezultira smanjenjem pouzdanosti i povećanjem halucinacija.

Zašto je ovo problem za poslovanje?

„Porez na halucinacije“ ima ozbiljne implikacije za preduzeća koja integrišu AI u svoje operacije:

  • Dezinformacije: Ako AI generiše netačne informacije, to može dovesti do pogrešnih poslovnih odluka, loših saveta klijentima, ili širenja netačnih vesti, što narušava ugled kompanije.
  • Poverenje korisnika: Gubitak poverenja u AI sistem direktno utiče na usvajanje tehnologije. Ako korisnici ne veruju informacijama koje dobijaju, prestaće da koriste AI alat.
  • Pravni i etički rizici: Netačne informacije generisane AI-om mogu imati pravne posledice, posebno u oblastima kao što su finansije, pravo, medicina ili novinarstvo. Etički je neodgovorno koristiti sisteme koji ne garantuju visok stepen tačnosti.
  • Skupi ispravci: Otkrivanje i ispravljanje halucinacija zahteva vreme, resurse i ljudsku intervenciju, što povećava operativne troškove.

Kako smanjiti „Porez na halucinacije“ i izgraditi pouzdanije AI sisteme?

Borba protiv halucinacija zahteva višestruki pristup:

1. Dizajnirajte robusne metrike za ocenjivanje tačnosti:

  • Pored metrika za koherentnost, stil i relevantnost, razvijte i koristite stroge metrike za faktografsku tačnost. Ovo uključuje upoređivanje generisanih informacija sa proverenim bazama podataka i eksternim izvorima.

2. Prioritet dajte tačnosti u Finetuningu i RLHF-u:

  • Kada se ocenjuju odgovori za RLHF, dajte veću težinu faktografskoj tačnosti u odnosu na „prijatnost“ ili „kreativnost“. Model mora naučiti da je tačnost najvažniji aspekt.
  • Uključite negativne primere (netačne odgovore) u finetuning setove, jasno ih označavajući kao takve, kako bi model naučio šta da izbegava.

3. Implementirajte „Retrieval-Augmented Generation“ (RAG):

  • Ovo je ključna tehnika za smanjenje halucinacija. Umesto da se model oslanja samo na svoje „zapamćeno“ znanje (koje može biti zastarelo ili netačno), RAG sistem omogućava modelu da pretražuje eksternu, proverenu bazu znanja (npr. bazu dokumenata vaše kompanije, bazu naučnih radova) pre generisanja odgovora. Model zatim sintetiše odgovor na osnovu pronađenih, dokazanih informacija.
  • Prednost: Model je uvek ažuriran sa najnovijim informacijama i smanjuje se potreba za „nagađanjem“.

4. Unakrsna provera i validacija (Human-in-the-Loop):

  • Za kritične aplikacije, neophodno je uključiti ljudsku proveru. Ljudi bi trebalo da pregledaju AI generisane odgovore, posebno one koji se odnose na ključne činjenice ili osetljive teme.
  • Ovo ne samo da smanjuje rizik od širenja dezinformacija, već i pruža vredne povratne informacije za dalju obuku modela.

5. Transparentnost i upozorenja:

  • AI sistemi bi trebalo da budu transparentni u pogledu svojih izvora informacija. Ako model generiše odgovor, trebalo bi da može da navede izvore na kojima se taj odgovor zasniva.
  • Upozorite korisnike da AI može „halucinirati“ i da uvek treba proveriti kritične informacije.

6. Fokus na specifičnost domenova:

  • Umesto obučavanja jednog ogromnog modela za sve zadatke, razmislite o korišćenju manjih, specijalizovanih modela obučenih na visoko kvalitetnim podacima iz određenog domena. To smanjuje verovatnoću halucinacija u tom specifičnom kontekstu.

AI halucinacijeBalansiranje efikasnosti i pouzdanosti

Dok finetuning i reinforcement learning donose značajna poboljšanja u interakciji sa AI modelima, ne smemo ignorisati „porez na halucinacije“. Budućnost pouzdane AI leži u pažljivom balansiranju između optimizacije za korisničko iskustvo i nepokolebljive posvećenosti faktografskoj tačnosti. Kompanije koje prepoznaju i aktivno se bore protiv ovog skrivenog troška biće one koje će izgraditi poverenje korisnika i ostvariti dugoročni uspeh u primeni veštačke inteligencije.

Banner

Banner

Možda će vam se svideti i