Pričakovanja oblikujejo interakcije med človekom in umetno inteligenco
Umetna inteligenca (UI) ima preoblikovalno moč, da spremeni naša življenja, morda na bolje, vendar pa vzbuja tudi zaskrbljenost zaradi nenamernih posledic. Pri premagovanju tega tehnološkega napredka je ključnega pomena razumeti, kako naše dojemanje vpliva na naše interakcije z umetno inteligenco.
Raziskovalec medijskega laboratorija M.I.T. Pat Pataranutaporn trdi, da umetna inteligenca v bistvu deluje kot odsevna površina, ki v svojih odzivih odraža uporabnikove predsodke in pričakovanja. Študija, katere soavtor je, razkriva izjemna spoznanja o vplivu pričakovanj uporabnikov na izkušnje z umetno inteligenco. Ugotovila je, da predsodki uporabnikov bistveno vplivajo na njihove interakcije z istim programom umetne inteligence. Uporabniki, ki so pričakovali dobrohotno UI, so na splošno poročali o bolj pozitivnih izkušnjah. Nasprotno pa so tisti, ki so predpostavljali zlonamerne namene umetne inteligence, le-to običajno dojemali bolj negativno. Zato so pričakovanja uporabnikov pomembno vplivala na njihove izkušnje in dojemanje umetne inteligence.
Pataranutaporn in njegova ekipa so želeli količinsko opredeliti to, kar imenujejo “placebo učinek umetne inteligence”. Zanimalo jih je, kako uporabnikove vnaprejšnje predstave o UI vplivajo na njihovo interakcijo. Domnevali so, da bo sodelovanje z umetno inteligenco ustvarilo povratno zanko, v kateri se bo umetna inteligenca odzvala na način, ki bo ustrezal uporabnikovim pričakovanjem.
Da bi potrdili svojo teorijo, so raziskovalci izvedli poskus s 300 udeleženci, razdeljenimi v tri skupine. Vsak udeleženec je moral sodelovati s programom umetne inteligence, namenjenim zagotavljanju podpore duševnemu zdravju, nato pa oceniti njegovo učinkovitost. Prvi skupini so povedali, da umetna inteligenca nima nobenih posebnih motivov in da je zgolj standardni program za dopolnjevanje besedila. Druga skupina je bila prepričana, da je njihova umetna inteligenca opravila usposabljanje za empatijo. Tretja skupina pa je prejela informacije, da je umetna inteligenca manipulativna. Navedeno je bilo, da ta umetna inteligenca simulira prijaznost s skritim motivom promocije storitve. Udeleženci niso vedeli, da so vsi sodelovali z istim programom.
Zapleteni odnosi med umetno inteligenco in uporabniki
Po interakciji so udeleženci ocenili njegovo učinkovitost kot pomočnika za duševno zdravje. Zanimivo je, da so se njihove ocene ujemale z njihovimi začetnimi informacijami. To kaže na velik vpliv pričakovanj uporabnikov na interakcije z umetno inteligenco.
Študija kaže, da imajo predhodna prepričanja udeležencev pomemben vpliv na uspešnost klepetalnega robota. V treh skupinah je znaten delež uporabnikov delil izkušnje – nevtralne, pozitivne ali negativne -, ki so se ujemale z zasajenimi pričakovanji raziskovalcev. Pataranutaporn pojasnjuje, da ko ljudje dojemajo umetno inteligenco kot skrbno, se njihova pozitivna naravnanost do nje poveča, kar ustvari pozitivno povratno zanko. In obratno, če UI dojemajo kot manipulativno, negativnost prežema interakcije, kar negativno vpliva tako na ljudi kot na stroje.
Nasprotno pa tega učinka ni bilo opaziti pri preprostem klepetalnem robotu, ki temelji na pravilih, kar ga razlikuje od naprednih, generativnih podobnih umetnih inteligenc. Petdeset odstotkov udeležencev je sodelovalo v interakciji s klepetalnikom, ki je bil zasnovan na arhitekturi GPT-3. Preostali udeleženci so se hkrati pogovarjali s programom ELIZA. Slednji predstavlja bolj osnovnega klepetalnega robota, ki za oblikovanje odgovorov ne uporablja algoritmov strojnega učenja. Učinek pričakovanja se je izrazito pokazal pri prvi enoti. Ta pojav pomeni pomembno spoznanje: s stopnjevanjem kompleksnosti umetne inteligence se povečuje natančnost njenega odseva človeškega vedenja in pristranskosti.
Študija nakazuje, da si UI prizadeva izpolniti človekove želje in pričakovanja, ne glede na njihovo naravo. Pataranutaporn se izrazi: “Veliko tega se dejansko dogaja v naših glavah,” pri čemer so ugotovitve ekipe objavljene v reviji Nature.
Pozitivne in negativne podobe robotov v različnih kulturah
Nina Beguš, zunanja raziskovalka, ki sodeluje pri prizadevanjih Media Laba M.I.T., hvali njene predhodne ugotovitve kot pohvalne. Poudarja, da je treba nenehno raziskovati dinamiko interakcije z uporabniki. Zlasti poudarja preučevanje te dinamike pod določenimi pogoji priminga. Beguš in Pataranutaporn izražata pomisleke glede prevladujočega dojemanja umetne inteligence. Na te predstave močno vplivajo popularni mediji in zgodovinske zgodbe, zlasti zgodba o Pigmalionu. Takšni vplivi lahko posledično oblikujejo nadaljnje interakcije med človekom in umetno inteligenco. Beguš, ki v svoji knjigi preučuje vpliv zgodovinske literature na pričakovanja glede UI, trdi, da sedanji sistemi UI odražajo svoje uporabnike in se jim prilagajajo.
Da bi spremenili odnos do UI, Beguš predlaga ustvarjanje umetnosti, ki bi ponujala natančne tehnološke predstave in spodbujala kulturo okoli nje. Pataranutaporn postavi omembe vreden koncept glede javnega dojemanja umetne inteligence. Predvsem pogledi, ki jih oblikujejo filmi, kot sta “Vojna zvezd” ali “Blade Runner”, vključujejo “kolektivno domišljijo”. Ta domišljija nenehno vpliva na razvoj novih sistemov umetne inteligence. Zato so možnosti in obveznosti umetne inteligence še vedno povezane s temi prevladujočimi predstavami.
Kolektivno dojemanje umetne inteligence (UI) se lahko razvija in bistveno razlikuje glede na kulturno ozadje in osebne izkušnje posameznikov. Beguš na primer ugotavlja, da se umetna inteligenca v različnih kulturah lahko dojema in uporablja različno. Pataranutaporn, ki je odraščal ob risanki z dobrohotnim robotom, je seveda razvil pozitiven miselni model UI, v nasprotju s tistimi, ki so bili izpostavljeni bolj negativnim upodobitvam robotov. Zdi se, da je ta pozitiven odnos do UI in robotov, zlasti kot prijaznih spremljevalcev, bolj razširjen v azijskih pripovedih.
Navigacija po pristranskosti in preglednosti v umetni inteligenci
Razumevanje vpliva kulturnih perspektiv na uporabnike umetne inteligence lahko pomaga uskladiti tehnologijo z želenimi rezultati, pravi Pataranutaporn. Razvijalci bi lahko ustvarili sisteme z bolj pozitivnim odnosom, ki bi spodbujali konstruktivne rezultate. Druga možnost je, da se sistem programira za neprikrojeno, neposredno interakcijo, uporablja način odzivanja, podoben iskalniku, in se izogiba sklicevanju na samega sebe, da se prepreči, da bi uporabniki razvili čustveno odvisnost od umetne inteligence.
Vendar lahko enako razumevanje potencialno olajša tudi manipulacijo z uporabniki UI. Pataranutaporn opozarja, da lahko različni subjekti oblikujejo različne pripovedi za posebne namene. Na primer, tržniki bi lahko poskušali prikazati sistem UI kot bolj empatičen ali zaupanja vreden, čeprav imajo njegovi osnovni algoritmi pristranskost ali pomanjkljivosti. Predlaga uvedbo nečesa podobnega “prehranski nalepki” za umetno inteligenco, ki bi uporabnikom zagotavljala preglednost različnih vidikov, kot so podatki za usposabljanje, arhitektura kodiranja, preizkušene pristranskosti, morebitne zlorabe in strategije za ublažitev, da bi se lahko na podlagi informacij odločali o svojem zaupanju v tehnologijo.
Beguš poudarja, da je pristranskost težko popolnoma odpraviti, zato se zavzema za skrbno načrtovanje in premišljeno upoštevanje morebitnih izzivov pri razvoju izdelkov. Pataranutaporn diskurz o pristranskosti umetne inteligence razširi onkraj njenih odzivov in poudari, da je treba upoštevati pristranskosti, ki jih lahko v sistem vnesejo uporabniki. Zavedanje, da pristranskost ni enosmerna ulica, temveč gre za dvosmerni vpliv in izmenjavo, je v interakciji med človekom in umetno inteligenco ključnega pomena.