Sam Altman: Zaupnosti pri AI-terapiji (še) ni – razmislite, preden se odprete ChatGPT

ChatGpt [Foto: Pexels]

V svetu, kjer se umetna inteligenca vedno bolj vpleta v vsakdanje življenje, se odpira vprašanje: komu v resnici zaupamo svoje najbolj osebne misli? Direktor OpenAI, Sam Altman, v nedavnem pogovoru za podcast „This Past Weekend with Theo Von“ opozarja na nekaj, o čemer se še ne govori dovolj – zasebnost pri klepetu z umetno inteligenco, še posebej kadar gre za pogovore, ki bi jih sicer imeli s terapevtom.

„Veliko ljudi ChatGPT uporablja kot osebnega svetovalca ali terapevta,“ je dejal Altman. „Zaupajo mu svoje težave v odnosih, življenjske izzive, občutke. A med takšnim klepetom ni nobene zakonske zaščite – kot obstaja pri zdravniku, terapevtu ali odvetniku.“

To pomeni, da za zdaj ni nobene pravne zaupnosti med uporabnikom in klepetalnim robotom. Če pride do sodnega postopka, bi podjetje – v tem primeru OpenAI – morda moralo razkriti vsebino teh klepetov. Altman je bil glede tega zelo jasen: „To se mi zdi napačno. Morali bi imeti enaka pravila glede zasebnosti, kot jih imamo pri drugih oblikah podpore.“

Kot poudarja Altman, gre pri teh pogovorih pogosto za zelo osebne vsebine, ki bi si jih mnogi želeli obdržati zase – a čeprav se morda zdi, da AI deluje kot razumevajoč poslušalec, zadaj ni terapevta z licenco in ne zakonov, ki bi ščitili uporabnika. „Še nismo tam, da bi AI imel pravni status, ki omogoča privilegirano komunikacijo,“ je dodal.

Pri OpenAI se zavedajo, da bi lahko pomanjkanje zasebnosti odvrnilo številne uporabnike, še posebej tiste, ki v AI iščejo podporo, ki je sicer ne dobijo drugje. V ospredju so tudi skrbi glede pravnega razkritja podatkov – predvsem v primeru, da pride do sodnih pozivov za dostop do klepetov.

Tožbe in digitalna siva cona

V ozadju poteka tudi pravni boj. OpenAI se trenutno spopada s tožbo, v kateri se od njih zahteva, da predloži zgodovino klepetov, vključno z osebnimi podatki milijonov uporabnikov. Izjema so le uporabniki, ki uporabljajo ChatGPT v okviru poslovne različice Enterprise, kjer velja drugačen režim varovanja podatkov. Podjetje se je na odločitev pritožilo in jo označilo za „prekoračitev nadzora“.

Gre za primer, ki jasno kaže, kako zapleteno je danes razmerje med pravom in tehnologijo. Altman opozarja, da takšna praksa pomeni odpiranje vrat še širšim zahtevam po razkritju osebnih podatkov – ne le v civilnih, ampak tudi v kazenskih postopkih.

Primer razveljavitve sodbe Roe proti Wadeu v ZDA je dodatno razgalil pomen varovanja digitalnih podatkov. Mnoge ženske so takrat poiskale bolj varne alternative za sledenje menstrualnemu ciklu – kot je Apple Health, ki omogoča šifriranje podatkov. Enako bi si mnogi želeli tudi za AI – da bi bile misli, ki jih zaupamo tehnologiji, res varne pred tujimi pogledi.

Von, voditelj podcasta, je Altmana vprašal tudi, kako sam uporablja ChatGPT. Njegov odgovor je bil jasen: „Mislim, da je smiselno, da se pred večjo uporabo pogovoriš s samim seboj – in se vprašaš, kakšno raven zasebnosti si res želiš.“

Miha D. Kovač

Foto: Pexels