Home AIFokus AI: Kako mehanizam „Pažnje“ omogućava velikim jezičkim modelima da razumeju svet

Fokus AI: Kako mehanizam „Pažnje“ omogućava velikim jezičkim modelima da razumeju svet

od itn
Fokus AI

Kada koristite ChatGPT, Gemini ili bilo koji drugi napredni AI model za generisanje teksta, prevođenje ili sumiranje, možda se pitate kako mašina uopšte „razume“ kontekst i važnost različitih delova rečenice. Ključna inovacija koja je omogućila revolucionarni napredak u obradi prirodnog jezika (NLP), a posebno u razvoju velikih jezičkih modela (LLM), jeste mehanizam „pažnje“ (Attention Mechanism). To je kao da AI ima sposobnost da istakne najvažnije reči u dugom tekstu i da se fokusira na njih, umesto da sve tretira jednako.

Od Recurrentnih mreža do Transformera: Put ka pažnji

Pre pojave mehanizma pažnje, dominantne arhitekture u NLP-u bile su rekurentne neuronske mreže (RNN) i njihove varijante poput LSTM (Long Short-Term Memory). Iako su bile sposobne da obrađuju sekvencijalne podatke (kao što je tekst), imale su dva glavna problema:

  1. Gubitak informacija na velikim udaljenostima: Kada su rečenice bile duge, RNN-ovi bi „zaboravili“ rane delove rečenice, što je otežavalo razumevanje konteksta.
  2. Sekvencijalna obrada: RNN-ovi su obrađivali tekst reč po reč, što je bilo sporo i onemogućavalo paralelnu obradu, ključnu za obuku na ogromnim količinama podataka.

Revolucija je nastupila 2017. godine sa radom „Attention Is All You Need“, koji je predstavio arhitekturu Transformer. Transformeri su, za razliku od RNN-ova, bazirani isključivo na mehanizmu pažnje i omogućili su neverovatne skokove u performansama LLM-ova.

Fokus AIŠta je mehanizam „Pažnje“?

Mehanizam pažnje omogućava modelu da dinamički proceni važnost svakog dela ulazne sekvence (npr. svake reči u rečenici) prilikom generisanja izlaza. Umesto da sve reči tretira jednako, model „obrati pažnju“ na one delove koji su najrelevantniji za trenutni zadatak.

Zamislite da čitate dugačak, složen tekst i da vam je cilj da odgovorite na određeno pitanje. Nećete sve reči podjednako pamtiti; vaš mozak će se fokusirati na ključne informacije, imena, datume i ključne koncepte. Mehanizam pažnje radi slično za AI.

Kako funkcioniše (pojednostavljeno)?

Mehanizam pažnje se zasniva na tri ključna vektora za svaku reč (ili token) u sekvenci:

  1. Upit (Query – Q): Predstavlja „pitanje“ ili ono što traži pažnju. Za svaku reč, upit vektor sadrži informaciju o tome šta ta reč „traži“ u drugim rečima.
  2. Ključ (Key – K): Predstavlja „opis“ ili „identifikator“ svake reči. Ključ vektor sadrži informaciju o tome šta ta reč „nudi“ drugim rečima.
  3. Vrednost (Value – V): Predstavlja „sadržaj“ same reči, odnosno informaciju koja će biti korišćena ako se na tu reč obrati pažnja.

Proces pažnje se odvija u nekoliko koraka:

  1. Izračunavanje „Ocena pažnje“ (Attention Scores): Svaki Upit se upoređuje sa svakim Ključem u celoj ulaznoj sekvenci. Ovaj „upit-ključ“ par se transformiše u numeričku ocenu koja meri koliko su dve reči međusobno relevantne. Što je viša ocena, to je veza jača. Na primer, u rečenici „Jabuka je crvena“, kada model obrađuje reč „crvena“, njen „upit“ će tražiti nešto što se može opisati bojom, i dobiće visoku ocenu sa „Ključem“ od „Jabuka“.
  2. Normalizacija ocena (Softmax): Ove ocene se zatim normalizuju pomoću Softmax funkcije, pretvarajući ih u verovatnoće koje se zbiraju na 1. To su zapravo težine pažnje – brojevi koji pokazuju koliko „pažnje“ treba posvetiti svakoj reči. Reči sa višim težinama su relevantnije.
  3. Kreiranje „Kontektst vektora“: Svaka Vrednost reči se množi sa njenom odgovarajućom težinom pažnje. Zatim se sve ove ponderisane vrednosti sabiraju. Rezultat je „kontekst vektor“ za trenutnu reč. Ovaj vektor efektivno „kondenzuje“ relevantne informacije iz cele ulazne sekvence, fokusirajući se na ono što je najvažnije.

Samopomoć (Self-Attention)

Srce Transformera je samopomoć (self-attention). To znači da model ne obraća pažnju samo na odnose između ulaznih i izlaznih reči, već i na odnose između reči unutar same ulazne sekvence.

Na primer, u rečenici „Banke su blizu reke. On je pecao pored banke.“, samopomoć mehanizam bi pomogao modelu da razume da se prva „banka“ odnosi na finansijsku instituciju, dok se druga „banka“ odnosi na obalu reke, na osnovu konteksta reči oko njih.

Zašto je mehanizam pažnje toliko moćan?

  1. Dugoročne zavisnosti: Rešava problem „zaboravljanja“ ranijih delova sekvence. Model može da se „osvrne“ na bilo koju reč u ulaznoj sekvenci, bez obzira na njenu poziciju.
  2. Paralelna obrada: Za razliku od RNN-ova, Transformer model može da obrađuje sve reči u sekvenci istovremeno, što drastično ubrzava obuku na masivnim datasetima i omogućava stvaranje LLM-ova sa milijardama parametara.
  3. Razumevanje konteksta: Omogućava modelu da shvati složene odnose i nijanse unutar teksta, što rezultira mnogo koherentnijim i smislenijim odgovorima.
  4. Fleksibilnost: Mehanizam pažnje je izuzetno fleksibilan i može se primeniti na različite tipove podataka i zadataka, ne samo na tekst.

Fokus AIPrimena mehanizma pažnje u LLM-ovima

Mehanizam pažnje je srž svakog velikog jezičkog modela i omogućava im da obavljaju zadatke poput:

  • Prevođenje: Model ne prevodi reč po reč, već uzima u obzir kontekst cele rečenice kako bi pružio najprecizniji prevod.
  • Sumiranje teksta: Identifikuje najvažnije rečenice i fraze u dugom tekstu.
  • Generisanje teksta: Prilikom generisanja svake sledeće reči, model se „oslanja“ na prethodne reči i kontekst da bi stvorio smislen i koherentan tekst.
  • Odgovaranje na pitanja: Fokusira se na relevantne delove dokumenta ili veb stranice da bi pronašao odgovor.
  • Razumevanje emocija i sentimenta: Analizira koje reči doprinose ukupnom tonu teksta.

Zaključak

Mehanizam „pažnje“ nije samo tehnički detalj; to je bio ključni pomak koji je transformisao polje veštačke inteligencije i omogućio rađanje ere velikih jezičkih modela. Dajući AI sposobnost da se selektivno fokusira na najvažnije delove informacija, otvorili smo vrata za mnogo pametnije, razumnije i korisnije AI sisteme. Razumevanje kako „pažnja“ funkcioniše je fundamentalno za svakoga ko želi da shvati dubinu i potencijal moderne veštačke inteligencije.

Banner

Banner

Možda će vam se svideti i