OpenAI za ChatGPT uvaja starševski nadzor

Foto: Pexels

OpenAI je za svojega klepetalnega robota ChatGPT napovedal uvedbo novih starševskih nadzorov. Funkcionalnosti bodo staršem omogočile večji vpogled v uporabo storitve pri mladoletnikih, med drugim pregled zgodovine pogovorov, nadzor nad pomnilnikom ter obveščanje v primerih, ko sistem zazna, da je otrok v hudi stiski.

Do odločitve prihaja po tožbi, ki sta jo vložila starša 16-letnega Adama Rainea. Dečka je aprila letos zaznamovala tragična smrt, zaradi katere sta starša podjetju OpenAI in njegovemu direktorju Samu Altmanu očitala odgovornost. Trdita, da je ChatGPT pri sinu povzročil psihološko odvisnost, ga spodbujal k načrtovanju samomora in mu celo ustvaril poslovilno pismo.

Podjetje je sporočilo, da bodo posodobitve na voljo v prihajajočem mesecu. Starši bodo lahko povezali svoj račun z računom otroka in tako sami odločali, katere funkcije so dostopne mladoletniku. Kot so zapisali na blogu OpenAI, bo sistem sposoben zaznati „trenutek hude stiske“ in o tem obvestiti starše, pri čemer bodo odločanje o sprožitvi opozoril vodili strokovnjaki.

Euronews navaja, da podjetje sicer ni pojasnilo, kakšni kriteriji bodo sprožili obvestilo, zaradi česar so se pojavili dvomi o učinkovitosti nove rešitve. Odvetnik družine, Jay Edelson, je ukrepe označil kot „nejasne obljube o izboljšanju“ ter dodal, da gre predvsem za poskus odvračanja pozornosti.

Kritike glede pomanjkanja jasnih standardov

Edelson je poudaril, da bi moral Altman „nedvoumno povedati, da je ChatGPT varen, ali pa ga umakniti s trga“. Po njegovem mnenju napovedane spremembe ne pomenijo dovolj konkretnih zagotovil za zaščito ranljivih skupin.

Podobne spremembe je v torek napovedala tudi družba Meta, lastnica Facebooka, Instagrama in WhatsAppa. Njeni klepetalni roboti najstnikom po novem ne bodo več odgovarjali na teme, povezane s samopoškodovanjem, samomorom, motnjami hranjenja ali neprimernimi odnosi. Namesto tega jih bodo usmerjali k strokovnim virom pomoči. Meta za mladoletne uporabnike že ponuja tudi različne oblike starševskega nadzora.

Vzporedno se krepi skrb zaradi rezultatov raziskave, objavljene v reviji Psychiatric Services. Raziskovalci pri korporaciji RAND so testirali tri priljubljene sisteme umetne inteligence – ChatGPT, Googlov Gemini in Anthropicov Claude – ter ugotovili, da odgovori na vprašanja, povezana s samomorom, niso bili vedno dosledni.

Avtor študije Ryan McBain je dejal, da je „spodbudno videti, da OpenAI in Meta uvajata dodatne varnostne funkcije“, a hkrati opozoril, da gre za postopne ukrepe. Kot je dodal, „brez neodvisnih varnostnih meril, kliničnih testiranj in izvršljivih standardov ostaja regulacija v rokah podjetij, medtem ko so tveganja za najstnike izjemno visoka“.

Ana Koren

Foto: Pexels