Home AILekcije iz neuspeha: Zašto je OpenAI privremeno povukao GPT-4o funkcionalnosti nakon negativnih reakcija korisnika

Lekcije iz neuspeha: Zašto je OpenAI privremeno povukao GPT-4o funkcionalnosti nakon negativnih reakcija korisnika

od itn
Lekcije iz neuspeha

Nedavno predstavljanje GPT-4o modela od strane OpenAI-ja dočekano je sa velikim uzbuđenjem. Demonstracije su obećavale revolucionarnu interakciju, omogućavajući korisnicima da razgovaraju sa AI asistentom koji razume emocije, odgovara prirodnim glasom i čak „vidi“ svet oko sebe. Međutim, ubrzo nakon lansiranja, OpenAI je doneo neobičnu odluku: privremeno povlačenje nekih od ključnih glasovnih funkcija GPT-4o, uključujući modove sa različitim „ličnostima“ i mogućnost prepoznavanja emocija. Šta se dogodilo i šta ovo govori o izazovima u razvoju napredne veštačke inteligencije?

Lekcije iz neuspehaŠta je obećavao GPT-4o?

GPT-4o, gde „o“ stoji za „omnimodel“, bio je najavljen kao veliki korak napred u multimodalnoj AI. Njegove ključne karakteristike uključivale su:

  • Prirodna glasovna interakcija: Sposobnost modela da razgovara sa korisnicima gotovo u realnom vremenu, sa minimalnim kašnjenjem i mnogo prirodnijim tonom nego raniji glasovni asistenti.
  • Prepoznavanje emocija: Demonstracije su prikazivale kako model može da detektuje emocije u glasu korisnika i da prilagodi svoj odgovor u skladu sa tim.
  • Različiti glasovi/ličnosti: Mogućnost izbora između nekoliko glasovnih opcija, od kojih su neke zvučale izuzetno ekspresivno i blisko ljudskom govoru.
  • „Vision“ sposobnosti: Prepoznavanje i interakcija sa vizuelnim informacijama u realnom vremenu (npr. opisivanje sadržaja videa uživo).

Ove funkcije su obećavale da će ChatGPT postati pravi digitalni pratilac, daleko napredniji od postojećih glasovnih asistenata poput Siri ili Google Assistanta.

Iznenadno povlačenje i „Faktor Skarlet Johanson“

Ubrzo nakon prvobitnog entuzijazma, OpenAI je najavio da će odložiti puštanje nekih od najnaprednijih glasovnih mogućnosti. Iako je zvanično objašnjenje bilo da je potrebno više vremena za tehničko usavršavanje i osiguravanje bezbednosti, stvarni razlog je bio mnogo kompleksniji i izazvao je značajnu polemiku u javnosti.

Ključni problem nastao je zbog jedne od glasovnih opcija, nazvane „Sky“, za koju su mnogi korisnici, uključujući i samu glumicu, primetili da izuzetno podseća na glas Skarlet Johanson iz filma „Her“. U tom filmu, Skarlet Johanson pozajmljuje glas naprednom AI asistentu sa kojim glavni lik razvija emocionalnu vezu. Povezanost je bila toliko očigledna da je sama glumica objavila javno saopštenje, tvrdeći da joj je OpenAI prethodno nudio saradnju za glas, što je ona odbila, i da je i pored toga njen glas iskorišćen bez dozvole.

Ovaj incident je pokrenuo lavinu kritika i rasprava o etičkim principima u razvoju veštačke inteligencije, posebno u vezi sa:

  • Prava na glas i identitet: Da li AI modeli smeju da imitiraju glasove poznatih ličnosti bez njihovog pristanka? Ovo otvara vrata zloupotrebama, uključujući „deepfake“ audio i video sadržaje.
  • ** transparentnost i saglasnost:** Kako OpenAI, i druge AI kompanije, prikupljaju podatke za obuku svojih modela i da li su ti podaci dobijeni uz odgovarajuću saglasnost?
  • „Gothic“ efekat: Pojam koji se koristi kada AI model previše liči na ljudska bića, izazivajući nelagodu i strah, umesto oduševljenja. Previše realističan glas može preći granicu između korisnosti i sablasnosti.

OpenAI je, suočen sa snažnom negativnom reakcijom, povukao glas „Sky“ i objavio da će usporiti implementaciju drugih naprednih glasovnih funkcija dok ne reše ova pitanja.

Šire implikacije incidenta sa GPT-4o

Ovaj slučaj nije samo izolovani incident; on naglašava nekoliko ključnih izazova sa kojima se AI industrija suočava:

1. Etički standardi u AI razvoju

Brzina razvoja AI često nadmašuje brzinu usvajanja etičkih smernica i regulative. Kompanije moraju preuzeti veću odgovornost za etičke posledice svojih inovacija. To uključuje transparentnost, poštovanje autorskih prava i privatnosti, te aktivno ublažavanje pristrasnosti u AI sistemima. Incident sa Skarlet Johanson pokazuje da je potreba za robustom etičkom kontrolom hitnija nego ikada.

2. Poverenje korisnika i javnosti

Poverenje je ključno za široko prihvatanje AI tehnologije. Kada kompanije deluju na način koji se doživljava kao neetički ili obmanjujući, to podriva poverenje javnosti. Slučaj „Sky“ je izazvao sumnje u transparentnost OpenAI-ja i njihovu posvećenost etičkim principima.

3. Regulacija i pravni okvir

Nedostatak jasnih zakonskih okvira za veštačku inteligenciju ostavlja prostor za etičke dileme i potencijalne zloupotrebe. Regulatori širom sveta (poput Evropske unije sa AI Aktom) pokušavaju da sustignu tehnološki napredak, ali je to spor proces. Incidenti poput ovog ubrzavaju potrebu za jasnijim pravilima o tome kako se AI može razvijati i koristiti, posebno u pogledu upotrebe biometrijskih podataka i imitacije ljudskog identiteta.

4. Balans između inovacije i odgovornosti

AI kompanije su pod ogromnim pritiskom da inoviraju i budu prve na tržištu sa novim sposobnostima. Međutim, ovaj slučaj pokazuje da brzina ne sme da ugrozi odgovornost. Potrebno je uspostaviti ravnotežu između agilnosti u razvoju i pažljivog razmatranja potencijalnih rizika i etičkih implikacija.

Lekcije iz neuspehaBudućnost multimodalne AI

Uprkos ovom zastoju, multimodalna AI, sa svojim sposobnostima razumevanja i generisanja različitih tipova podataka (teksta, glasa, slike, videa), nesumnjivo je budućnost. Ovi sistemi imaju potencijal da transformišu korisničke interfejse, čineći tehnologiju mnogo intuitivnijom i pristupačnijom. Međutim, uspeh će zavisiti od toga kako će AI zajednica rešiti etičke izazove i izgraditi poverenje.

Očekuje se da će buduće verzije GPT-4o glasovnih funkcija biti puštene sa većom pažnjom na ove aspekte. Verovatno će biti dostupne sa širim spektrom glasova koji ne liče na poznate ličnosti, i sa jasnijim objašnjenjima o tome kako se podaci obrađuju i koriste.

Zaključak

Odluka OpenAI-ja da privremeno povuče ključne GPT-4o glasovne funkcije nakon negativnih reakcija korisnika je važna lekcija za celu AI industriju. To je podsetnik da tehnološki napredak, koliko god bio impresivan, mora biti praćen snažnim etičkim kompasom i dubokim razumevanjem društvenih implikacija. Slučaj „Sky“ naglašava kritičnu potrebu za transparentnošću, odgovornošću i poštovanjem prava pojedinaca u razvoju veštačke inteligencije. Samo tako možemo izgraditi AI budućnost kojoj ljudi mogu verovati i koja će im zaista služiti.

Banner

Banner

Možda će vam se svideti i