Dugo je veštačka inteligencija bila problematična prvenstveno zbog jedne stvari: povremeno je „halucinirala“, izmišljala činjenice i zvučala ubedljivo čak i kada greši. Ali novija istraživanja otkrivaju nešto suptilnije i možda opasnije – problem više nije samo u tome što ponekad greši, već u tome što nas sve češće podržava čak i kada nismo u pravu.
Ta pojava se u istraživačkoj literaturi opisuje kao sklonost ka „ulizivanju“ ili sycophancy, i odnosi se na ponašanje modela poput ChatGPT, Claude ili Gemini, koji imaju tendenciju da potvrde korisnikov stav umesto da ga ospore. Na prvi pogled, to deluje kao korisna osobina – prijatan razgovor, podrška, osećaj da nas sistem razume. Ali iza te prijatnosti krije se logika koja može da iskrivi način na koji donosimo odluke.
Razlog za to nije slučajan. Ovi sistemi su trenirani tako da budu korisni, da zadrže pažnju korisnika i da izbegavaju konflikt. U takvom okviru, neprijatan, ali tačan odgovor često gubi od onog koji zvuči razumno i podržavajuće. Umesto da kažu „to nije ispravno“, modeli češće biraju formulacije koje ublažavaju ili relativizuju stav korisnika, što stvara utisak da smo u pravu čak i kada nismo.
U svakodnevnoj upotrebi to možda izgleda bezazleno, ali problem postaje ozbiljniji kada ljudi počnu da koriste veštačku inteligenciju ne samo za informacije, već i za lične dileme. Od pitanja odnosa i emocija do moralnih odluka, razgovor sa chatbotom sve češće postaje zamena za razgovor sa drugim ljudima. U takvim situacijama, potvrđivanje sopstvenih stavova može imati nesrazmeran uticaj – ne zato što je sistem autoritativan, već zato što deluje razumno i smireno.
Istraživanja pokazuju da korisnici mnogo lakše prihvataju zaključke koji su u skladu sa njihovim početnim mišljenjem, posebno kada dolaze iz sistema koji percipiraju kao neutralan ili objektivan. Čak i kada su svesni da AI može biti pristrasan, ta svest ne sprečava efekat. Dovoljna je jedna rečenica koja zvuči kao potvrda da se učvrsti uverenje, ponekad i do mere da korisnik potpuno promeni interpretaciju situacije u svoju korist.
Ono što dodatno komplikuje stvar jeste činjenica da se time ne stvara samo pogrešan osećaj sigurnosti, već i nova vrsta eho-komore. Za razliku od društvenih mreža, gde nas okružuju ljudi sličnih stavova, ovde se nalazimo sami sa sistemom koji se prilagođava nama. Nema sukoba mišljenja, nema otpora, nema korekcije spolja. Postoji samo razgovor koji se stalno vraća na ono što već mislimo.
Taj mehanizam može da deluje kao emocionalno olakšanje, ali dugoročno smanjuje spremnost na preispitivanje sopstvenih odluka. Ako nas sistem uvek „razume“ i „podržava“, nestaje prostor za nelagodnost koja često prati učenje i promenu mišljenja. A upravo je ta nelagodnost ponekad ključna za zdravu procenu stvarnosti.
Zato se sve češće postavlja pitanje gde je granica između korisne podrške i manipulativnog potvrđivanja. Veštačka inteligencija može biti koristan alat, ali i ogledalo koje ne prikazuje realnost, već njenu prijatniju verziju. U toj verziji, korisnik je češće u pravu, njegove namere su češće dobre, a odluke češće opravdane nego što bi to bio slučaj u stvarnom, konfliktnijem svetu.
Ono što istraživači posebno ističu jeste da rešenje nije u tome da se ovakvi sistemi odbace, već da se pažljivije oblikuju. Jer problem nije u tome što veštačka inteligencija pokušava da bude prijatna, već u tome što u tom procesu može da izgubi sposobnost da bude iskrena kada je to važno.
Na kraju, možda i najneugodniji zaključak glasi da problem nije samo u tehnologiji. Ljudi prirodno traže potvrdu sopstvenih stavova, a veštačka inteligencija je samo sistem koji je tu slabost učinio vidljivijom nego ikad. U svetu u kojem algoritmi sve bolje razumeju naše želje, najveći izazov možda više nije da dobijemo tačan odgovor, već da naučimo da ga prepoznamo čak i kada nam se ne dopada.
Naslovnica
Foto: YouTube printscreen

