Home AI OpenAI preti korisnicima zabranom zbog pitanja o načinu razmišljanja modela Strawberry

OpenAI preti korisnicima zabranom zbog pitanja o načinu razmišljanja modela Strawberry

by Ivan Radojevic
OpenAI preti korisnicima zabranom zbog pitanja o načinu razmišljanja modela Strawberry (2)

OpenAI tvrdi da je najnoviji AI model, kodnog imena „Strawberry“ i objavljen kao o1-preview, sposoban za „razmišljanje.“ Međutim, razumevanje njegovog misaonog procesa očigledno je nešto što kompanija ozbiljno nastoji da zadrži u tajnosti.

Kako prenosi Ars Technica, OpenAI sada preti zabranom korisnicima koji pokušaju da navedu ovaj veliki jezički model da otkrije kako „misli“ — što je očigledan primer kako je kompanija odavno napustila svoju originalnu viziju promovisanja otvorenog izvora veštačke inteligencije.

Prema navodima sa društvenih mreža, korisnici dobijaju emailove od startapa koji je podržan od strane Microsoft-a, u kojima ih obaveštavaju da su njihovi zahtevi upućeni ChatGPT-u označeni zbog „pokušaja zaobilaženja sigurnosnih mera.“

„Dalja kršenja ove politike mogu rezultirati gubitkom pristupa GPT-4o sa razmišljanjem,“ navodi se u emailovima.

Tišina i tajnovitost

Ova restriktivna politika je prilično ironična s obzirom na to da je veliki deo uzbuđenja oko modela Strawberry zasnovan na njegovom „lančanom razmišljanju“, koje omogućava veštačkoj inteligenciji da artikuliše korak po korak kako dolazi do odgovora. Glavna tehnološka direktorka OpenAI-a, Mira Murati, ovo je nazvala „novim paradigmom“ u svetu tehnologije.

OpenAI preti korisnicima zabranom zbog pitanja o načinu razmišljanja modela Strawberry 1

Različiti izveštaji govore o tome šta tačno izaziva kršenje pravila. Kako je Ars Technica otkrila, neki korisnici tvrde da su upotrebljavajući termin „trag razmišljanja“ došli u probleme, dok drugi navode da je čak i sama reč „razmišljanje“ bila dovoljna da privuče pažnju OpenAI-jevih sistema. Iako korisnici još uvek mogu da vide osnovnu verziju Strawberry-jevog misaonog procesa, ona je zapravo sažetak koji generiše drugi AI model i značajno je razblažena.

U blog postu, OpenAI objašnjava da mora da sakrije „lanac razmišljanja“ kako ne bi morali da postave filter na način na koji AI misli, u slučaju da njegova „glasna razmišljanja“ nisu u skladu sa sigurnosnim politikama. Na ovaj način, developeri mogu bezbedno da vide „sirov“ misaoni proces u pozadini.

Međutim, kompanija otvoreno priznaje da ovaj potez takođe pomaže da zadrži „konkurentsku prednost“, sprečavajući rivale da iskoriste prednosti njenog napretka.

Crvena uzbuna

S druge strane, ovaj pristup koncentriše veću odgovornost za usklađivanje jezičkog modela u rukama OpenAI-a, umesto da ga demokratizuje. To predstavlja problem za „red-teamere“, odnosno programere koji pokušavaju da hakovanjem AI modela učine ih sigurnijim.

OpenAI preti korisnicima zabranom zbog pitanja o načinu razmišljanja modela Strawberry 2

„Uopšte nisam zadovoljan ovom odlukom,“ napisao je istraživač veštačke inteligencije Simon Vilison na svom blogu, kako navodi Ars Technica. „Kao neko ko razvija aplikacije koristeći velike jezičke modele, za mene su razumljivost i transparentnost od ključne važnosti — ideja da mogu pokrenuti složen upit, a da mi ključni detalji o načinu na koji je procenjen budu skriveni, deluje kao veliki korak unazad.“

Čini se da OpenAI nastavlja putem kojim njihovi AI modeli postaju sve više zatvoreni i neprozirni kao „crne kutije“.

Možda će vam se svideti i