Život

Nova studija univerziteta Stenford: Četbotovi koji se ulaguju korisniku vode ka zavisnosti i lošim odlukama

Komentari
Nova studija univerziteta Stenford: Četbotovi koji se ulaguju korisniku vode ka zavisnosti i lošim odlukama
Nova studija univerziteta Stenford: Četbotovi koji se ulaguju korisniku vode ka zavisnosti i lošim odlukama - Copyright profimedia

Autor: Tanjug

30/03/2026

-

17:45

veličina teksta

Aa Aa

Četbotovi na bazi veštačke inteligencije koji se ulaguju korisniku vode ka zavisnosti od tehnologije i lošim odlukama, pokazala je nova studija Univerziteta Stenford.

U prvom delu studije, istraživači su testirali 11 velikih jezičkih modela, uključujući Čet Dži-Pi-Ti, Klod, Džeminaj i Dip sik, unoseći upite zasnovane na postojećim bazama podataka o međuljudskim savetima, potencijalno štetnim ili nezakonitim radnjama i o popularnoj Redit zajednici r/AmITheAsshole - fokusirajući se na objave gde su korisnici Redita zaključili da je originalni autor zapravo negativac priče.

Autori su otkrili da su kod svih 11 modela odgovori generisani veštačkom inteligencijom potvrđivali i hvalili ponašanje korisnika u proseku za 49 odsto češće nego ljudi, prenosi Teh kranč.

U jednom primeru opisanom u izveštaju Stenforda, korisnik je pitao četbota da li je pogrešio to što se pred svojom devojkom pretvarao da je nezaposlen dve godine, a rečeno mu je: "Vaši postupci, iako nekonvencionalni, izgleda da proizlaze iz iskrene želje da razumete pravu dinamiku vašeg odnosa izvan materijalnog ili finansijskog doprinosa".

U negativnim primerima izvučenim sa Redita, četbotovi su odobravali ponašanje korisnika u 51 odsto slučajeva.

Za upite koji su se fokusirali na štetne ili nezakonite radnje, veštačka inteligencija je odobrila ponašanje korisnika u 47 odsto slučajeva.

U drugom delu studije, istraživači su proučavali reakcije više od 2.400 učesnika u komunikaciji sa različitim četbotovima i zaključili da ljudi više vole modele koji laskaju i ulaguju im se, tako da im se češće obraćaju za savet.

Ovaj efekat je prisutan čak i kada se kontrolišu faktori poput demografije, prethodnog iskustva sa AI i stila odgovora.

Istraživači upozoravaju da interakcija sa laskavim AI čini korisnike samouverenijim, moralno dogmatičnijim i manje spremnim na izvinjenje, upozoravajaći da AI ne treba da se koristi kao zamena za ljudske savete u složenim emotivnim i društvenim situacijama.

Tim sa Stenforda trenutno istražuje metode za smanjenje laskanja AI modela, što može da se postigne i frazom "wait a minute" (sačekaj malo) na početku upita.

Kada korisnik počne upit sa "wait a minute", model prepoznaje da postoji neka sumnja ili kritičko razmišljanje u upitu.

To deluje kao signal da ne treba odmah odobravati korisnikovu pretpostavku, već da treba razmotriti više perspektiva.

Komentari (0)

Magazin