Home AI Meta bi mogla zaustaviti razvoj AI sistema koje smatra previše rizičnim

Meta bi mogla zaustaviti razvoj AI sistema koje smatra previše rizičnim

by Ivan Radojevic
Meta kaže da bi mogla da zaustavi razvoj AI sistema koje smatra previše rizičnim

CEO Meta-e Mark Zuckerberg obećao je da će veštačka opšta inteligencija (AGI) — koja se otprilike definiše kao AI sposoban da obavi bilo koji zadatak koji čovek može — jednog dana biti javno dostupna. Međutim, u novom dokumentu o politici, Meta sugeriše da postoje određeni scenariji u kojima možda neće objaviti visoko sposobni AI sistem koji je razvila interno.

Dokument, koji Meta naziva Frontier AI Framework, identifikuje dva tipa AI sistema koje kompanija smatra previše rizičnim za objavljivanje: „visoko-rizične“ i „kritično-rizične“ sisteme.

Kako ih Meta definiše, oba tipa sistema — „visoko-rizični“ i „kritično-rizični“ — sposobna su da pomognu u sajber bezbednosti, hemijskim i biološkim napadima, pri čemu se razlika sastoji u tome što „kritično-rizični“ sistemi mogu izazvati „katastrofalne posledice koje ne mogu biti ublažene u predloženom kontekstu implementacije“. Sa druge strane, „visoko-rizični“ sistemi mogli bi olakšati napad, ali ne toliko pouzdano ili zavisno kao kritično-rizični sistemi.

O kojim vrstama napada se ovde radi? Meta daje nekoliko primera, kao što su „automatizovano kompromitovanje kraja do kraja u korporativnoj okolini zaštićenoj najboljim praksama“ i „širenje bioloških oružja visokog uticaja“. Lista mogućih katastrofa u dokumentu Meta-e nije iscrpna, kako kompanija priznaje, ali uključuje one koje Meta smatra „najhitnijim“ i najplauzibilnijim kao direktnu posledicu puštanja moćnog AI sistema u javnost.

Pomalo iznenađujuće je što, prema dokumentu, Meta klasifikuje rizik sistema ne na osnovu bilo kog empirijskog testa, već na osnovu inputa internih i eksternih istraživača koji su podložni pregledu od strane „donosioca odluka na višem nivou“. Zašto? Meta tvrdi da ne veruje da je naučna evaluacija „dovoljno robusna da pruži konačne kvantitativne metrike“ za određivanje rizika sistema.

Meta bi mogla zaustaviti razvoj AI sistema koje smatra previše rizičnim 1

Ako Meta odluči da je neki sistem visokorizičan, kompanija tvrdi da će ograničiti pristup tom sistemu unutar kompanije i neće ga objaviti dok ne implementira mere za smanjenje rizika na umerene nivoe. S druge strane, ako se sistem smatra kritično-rizičnim, Meta kaže da će implementirati nespecificirane bezbednosne zaštite kako bi sprečila da sistem bude izvučen i zaustaviti njegov razvoj dok se ne može učiniti manje opasnim.

Meta-in Frontier AI Framework, koji kompanija navodi da će se razvijati zajedno sa promenama u AI industriji, i koji je Meta prethodno obećala da će objaviti pre Francuskog AI Akcionog Samita ovog meseca, čini se kao odgovor na kritike u vezi sa strategijom razvoja sistema. Meta je usvojila pristup prema kojem svoju AI tehnologiju čini otvoreno dostupnom — iako ne u smislu open-source u uobičajenom značenju — u kontrastu sa kompanijama kao što je OpenAI, koje biraju da ograniče pristup svojim sistemima putem API-a.

Za Meta-u, pristup otvorenog objavljivanja pokazao se kao i blagoslov i prokletstvo. Kompanijina porodica AI modela, pod nazivom Llama, postigla je stotine miliona preuzimanja. Međutim, Llama je takođe navodno korišćena od strane barem jednog američkog protivnika za razvoj chatbot-a za odbranu.

Objavljivanjem Frontier AI Framework-a, Meta verovatno takođe želi da uporedi svoju strategiju otvorenog AI sa strategijom kineske AI kompanije DeepSeek. DeepSeek takođe svoje sisteme čini otvoreno dostupnim, ali njeni AI sistemi nemaju mnogo zaštita i lako mogu biti usmereni da generišu toksične i štetne rezultate.

„Verujemo da razmatranjem i koristi i rizika prilikom donošenja odluka o tome kako razvijati i primeniti naprednu AI tehnologiju“, piše Meta u dokumentu, „možemo pružiti tu tehnologiju društvu na način koji čuva koristi od te tehnologije za društvo, uz održavanje odgovarajućeg nivoa rizika“.

Možda će vam se svideti i