Home AIAI vesti Usavršavanje „umetnosti pranja mozga“: Kina pojačava cenzuru veštačke inteligencije

Usavršavanje „umetnosti pranja mozga“: Kina pojačava cenzuru veštačke inteligencije

Usavršavanje "umetnosti pranja mozga": Kina pojačava cenzuru veštačke inteligencije

od itn
artificial intelligence and censorship 1

Kina ponovo proširuje svoju politiku cenzure i nadzora dok nastoji da kontroliše modele veštačke inteligencije (AI), dok istovremeno napreduje u razvoju ove sveobuhvatne tehnologije. Komunistička partija Kine (KPK) uvela je dodatne regulatorne mere kako bi osigurala da domaće tehnološke kompanije poštuju ideološka pravila partije. Sve AI firme moraju učestvovati u vladinoj reviziji koja analizira njihove velike jezičke modele (LLM) kako bi se osiguralo da „utelovljuju osnovne socijalističke vrednosti“, kako je prvo izvestio Financial Times prošle nedelje.

Kina dugo radi na suzbijanju informacija dostupnih preko interneta kroz upotrebu svog „Velikog vatrozida“ — koji se koristi za blokiranje niza stavki koje se smatraju lošim za KPK, kao što su informacije o masakru na Trgu Tiananmen 1989. godine ili memovi koji upoređuju kineskog predsednika Xi Jinpinga sa Winnie the Pooh. Taj vatrozid se sada proširuje na AI arenu dok Kina žuri da unapredi svoje tehnologije, a istovremeno upravlja sadržajem koji stvara.

artificial intelligence and censorshipKineska administracija za sajber prostor (CAC) sada zahteva od AI kompanija poput ByteDance, Moonshot i 01.AI da učestvuju u procesu revizije koji analizira koliko efikasno njihovi programi cenzurišu LLM-ove koje grade.

Sistemi za chatbotove razvijaju se ne samo da prikupljaju osetljive ključne reči, već i da blokiraju informacije o pitanjima koja se odnose na zabranjene teme, često uključujući upite koji se odnose na ljudska prava.

AI sistemi zauzvrat izbacuju odgovore poput „pokušajte drugo pitanje“ ili „još nisam naučio kako da odgovorim na ovo pitanje. Nastaviću da učim kako bih vam bolje služio.“

Ali, kako bi se sprečilo da chatbotovi blokiraju previše pitanja, politike CAC nalažu da LLM-ovi ne smeju odbaciti više od 5% svih pitanja, prema izveštaju Financial Timesa.

Umesto toga, stvoreni su opšti odgovori koji se smatraju politički korektnim kako bi odgovorili na određene tipove pitanja, iako je kontrolisanje odgovora LLM-ova težak zadatak za developere.

Nastavak Kine da kontroliše narativ među sopstvenim stanovništvom ukazuje na veću pretnju, rekao je ekspert za AI Arthur Herman, stariji saradnik i direktor Quantum Alliance Initiative pri Hudson Institute, za Fox News Digital.

„To je budućnost koju je Kina zacrtala za svoje građane“, rekao je Herman. „Takođe, tako vide… mogućnost kontrole sveta drugih.“

artificial intelligence and censorshipHerman je ukazao na rastući odnos Kine sa globalnim jugom, gde su društvene mreže poput WeChat-a postale veoma popularne.

„Neizbežno će biti elemenat socijalne kontrole, kontrola uma, koji ulazi u te programe… i oblikuje svet koji sve više i više liči na ono što Kina želi da vidi“, rekao je on.

Herman je takođe upozorio da se ove strategije ne odigravaju samo na internet platformama u autoritarnim državama, već bilo gde gde su platforme dostupne, uključujući i SAD.

„Ovladali su umetnošću pranja mozga kroz TikTok“, rekao je Herman. „Kineski inženjeri su pronašli način da kreiraju društvenu mrežu koja je veoma zarazna, i koja je takođe veomaOvo su ključne strategije kako Kina koristi tehnologije TikTok-a: Kineski inženjeri su stvorili društvenu mrežu koja je izuzetno zarazna i koja je namenjena da „opere mozak“ korisnicima, usmeravajući ih da vide svet na određeni način i da reaguju na vizuelne i zvučne signale na specifičan način.

Banner

Banner

Možda će vam se svideti i