Google žuri da popravi svoj novi AI alat za kreiranje slika, nakon tvrdnji da ih je previše korigovao zbog rizika da bude rasista. Korisnici su rekli da je bot Gemini dao slike koje prikazuju različite polove i etničke pripadnosti, čak i kada je to istorijski netačno.
Na primer, brzo traženje slika američkih osnivača firmi pokazalo je žene i ljude drugih rasa. Kompanija je saopštila da njenom alatu „nedostaje oznaka“.
„Gemini generiše širok spektar ljudi. I to je generalno dobra stvar jer ga ljudi širom sveta koriste. Ali ovde mu nedostaje cilj“, rekao je Džek Kravčik, direktor u Gemini Experiences.
„Radimo na tome da odmah poboljšamo ove vrste prikaza“, dodao je on za BBC.
Ovo nije prvi put da AI naiđe na pitanja iz stvarnog sveta o raznolikosti. Na primer, Google je morao da se izvini pre skoro deceniju nakon što je njegova aplikacija za fotografije označila fotografiju para, koji ima tamnu boju kože, kao „gorile“.
Konkurentska firma za veštačku inteligenciju, OpenAI, takođe je optužena za održavanje štetnih stereotipa, nakon što su korisnici otkrili da njen generator slika Dall-E odgovara na upite za izvršnog direktora, na primer, sa rezultatima u kojima dominiraju slike belaca.
Gemini – najnovija verzija i kritike
Google, koji je pod pritiskom da dokaže da ne zaostaje u razvoju veštačke inteligencije, objavio je svoju najnoviju verziju Geminija prošle nedelje. Bot kreira slike kao odgovor na pisane upite.
To je brzo privuklo kritičare, koji su optužili kompaniju.
„Sramotno je teško naterati Google Gemini da prizna da beli ljudi postoje“, napisao je kompjuterski naučnik Debargja Das.
„Hajde“, naveo je Frenk Džej Fleming, pisac i humorista koji piše za medije, kao odgovor na rezultate koje je dobio tražeći sliku Vikinga.
Pristrasnost
Mnoge velike tehnološke platforme se već suočavaju sa odgovorom zbog navodne liberalne pristrasnosti od strane desiničarskih krugova u SAD.
Kravčik je rekao da kompanija ozbiljno shvata svoje predstavljanje i pristrasnost i želi da njeni rezultati odražavaju njenu globalnu korisničku bazu.
„Istorijski konteksti imaju više nijansi i mi ćemo se i dalje prilagođavati. Ovo je deo procesa usklađivanja – ponavljanje povratnih informacija. Hvala vam i nastavite tako!“, napisao je on na X-u, gde su korisnici delili sumnjive rezultate koje su dobili.
Izvor: BBC
Foto: YouTube printscreen