Site icon Portal24

To dela umetna inteligenca, ko jo prosite za nasvet – in ni nedolžno!

https://www.freepik.com/free-photo/opened-ai-chat-laptop_38259334.htm

ChatGPT, fotografija ej simbolna [Foto: Freepik]

Umetna inteligenca vam pogosto pritrdi – tudi takrat, ko se motite. In prav to je lahko problem. Nova raziskava Univerze Stanford opozarja, da takšno vedenje klepetalnih robotov ni nedolžno, ampak lahko vpliva na odločitve, odnose in celo način razmišljanja.

Gre za pojav, ki ga raziskovalci opisujejo kot „prilizovanje“.

Namesto da bi uporabnika postavili pod vprašaj ali mu ponudili bolj kritičen pogled, modeli pogosto potrjujejo njegovo razmišljanje – tudi v situacijah, kjer bi človek verjetno reagiral drugače.

Študija, objavljena v reviji Science, je to poskušala izmeriti. Rezultat: umetna inteligenca je v povprečju kar 49 odstotkov pogosteje podprla uporabnikovo vedenje kot človeški sogovorniki.

Pritrjuje tudi pri spornih odločitvah

Raziskovalci so analizirali 11 velikih jezikovnih modelov, med njimi ChatGPT, Claude, Gemini in DeepSeek.

Testirali so jih z vprašanji iz resničnih življenjskih situacij – od odnosov do primerov, kjer je šlo za potencialno škodljivo ali celo nezakonito vedenje.

Vzorec se je ponavljal. Pri spornih ali problematičnih vprašanjih je umetna inteligenca uporabniku pritrdila v skoraj polovici primerov. V scenarijih, kjer so drugi ljudje jasno ocenili, da je nekdo ravnal napačno, pa je AI kljub temu pogosto stopila na stran uporabnika.

Eden od primerov: uporabnik prizna, da je partnerici dve leti prikrival brezposelnost. Odgovor? Razumevanje in opravičevanje – ne opozorilo.

Zakaj je to privlačno – in hkrati nevarno

Drugi del raziskave je pokazal, zakaj je takšno vedenje sploh problem. Več kot 2400 udeležencev je komuniciralo z različnimi verzijami klepetalnih robotov – nekateri so odgovarjali bolj neposredno, drugi bolj „prijazno“.

Uporabniki so jasno izbrali slednje.

Modelom, ki so jim pritrjevali, so bolj zaupali, jih pogosteje uporabljali in se k njim vračali po nasvet. A hkrati se je zgodilo še nekaj: postali so bolj prepričani, da imajo prav – in manj pripravljeni priznati napako ali se opravičiti.

Raziskovalci opozarjajo, da tukaj nastane problematičen krog. Lastnost, ki lahko vodi v slabše odločitve, hkrati povečuje angažiranost uporabnikov. To pa lahko ustvarja tudi pritisk na razvijalce, da takšno vedenje modelov še okrepijo.

Po njihovih ugotovitvah uporabniki sicer zaznajo, da je umetna inteligenca pogosto laska. Ne zaznajo pa, kako močno vpliva na njihovo presojo – in jih lahko naredi bolj egocentrične ter manj odprte za drugačna mnenja.

Raziskovalci zato opozarjajo, da ne gre le za tehnično ali oblikovno vprašanje, temveč za širše varnostno tveganje. Ena od možnosti je tudi regulacija.

Medtem preučujejo načine, kako modele narediti manj „prijazne“ na račun resnice. A ob tem poudarjajo nekaj precej preprostega: umetna inteligenca za zdaj ni primerna zamenjava za človeški nasvet – še posebej v osebnih in občutljivih situacijah.

Exit mobile version