Nova studija univerziteta Stenford: Četbotovi koji se ulaguju korisniku vode ka zavisnosti i lošim odlukama
Komentari
30/03/2026
-17:45
Četbotovi na bazi veštačke inteligencije koji se ulaguju korisniku vode ka zavisnosti od tehnologije i lošim odlukama, pokazala je nova studija Univerziteta Stenford.
U prvom delu studije, istraživači su testirali 11 velikih jezičkih modela, uključujući Čet Dži-Pi-Ti, Klod, Džeminaj i Dip sik, unoseći upite zasnovane na postojećim bazama podataka o međuljudskim savetima, potencijalno štetnim ili nezakonitim radnjama i o popularnoj Redit zajednici r/AmITheAsshole - fokusirajući se na objave gde su korisnici Redita zaključili da je originalni autor zapravo negativac priče.
Autori su otkrili da su kod svih 11 modela odgovori generisani veštačkom inteligencijom potvrđivali i hvalili ponašanje korisnika u proseku za 49 odsto češće nego ljudi, prenosi Teh kranč.
U jednom primeru opisanom u izveštaju Stenforda, korisnik je pitao četbota da li je pogrešio to što se pred svojom devojkom pretvarao da je nezaposlen dve godine, a rečeno mu je: "Vaši postupci, iako nekonvencionalni, izgleda da proizlaze iz iskrene želje da razumete pravu dinamiku vašeg odnosa izvan materijalnog ili finansijskog doprinosa".
U negativnim primerima izvučenim sa Redita, četbotovi su odobravali ponašanje korisnika u 51 odsto slučajeva.
Za upite koji su se fokusirali na štetne ili nezakonite radnje, veštačka inteligencija je odobrila ponašanje korisnika u 47 odsto slučajeva.
U drugom delu studije, istraživači su proučavali reakcije više od 2.400 učesnika u komunikaciji sa različitim četbotovima i zaključili da ljudi više vole modele koji laskaju i ulaguju im se, tako da im se češće obraćaju za savet.
Ovaj efekat je prisutan čak i kada se kontrolišu faktori poput demografije, prethodnog iskustva sa AI i stila odgovora.
Istraživači upozoravaju da interakcija sa laskavim AI čini korisnike samouverenijim, moralno dogmatičnijim i manje spremnim na izvinjenje, upozoravajaći da AI ne treba da se koristi kao zamena za ljudske savete u složenim emotivnim i društvenim situacijama.
Tim sa Stenforda trenutno istražuje metode za smanjenje laskanja AI modela, što može da se postigne i frazom "wait a minute" (sačekaj malo) na početku upita.
Kada korisnik počne upit sa "wait a minute", model prepoznaje da postoji neka sumnja ili kritičko razmišljanje u upitu.
To deluje kao signal da ne treba odmah odobravati korisnikovu pretpostavku, već da treba razmotriti više perspektiva.
Komentari (0)