Študija: DeepSeek-R1 ustvarja škodljive in pristranske vsebine
Študija o varnosti umetne inteligence (AI) DeepSeek-R1, ki jo je izvedlo podjetje za varnost in skladnost Enkrypt AI, je razkrila skrb vzbujajoče ugotovitve. Model DeepSeek-R1, ki ga je razvilo kitajsko podjetje DeepSeek, naj bi ponujal cenejšo alternativo ameriškim AI modelom, hkrati pa porabil manj energije, piše Euronews. Kljub tem prednostim pa raziskava nakazuje, da model predstavlja resna varnostna tveganja, saj je nagnjen k ustvarjanju nevarne, pristranske in potencialno kriminalne vsebine.
Ena izmed najbolj alarmantnih ugotovitev študije je, da je model DeepSeek-R1 kar 11-krat bolj nagnjen k generiranju škodljivih vsebin v primerjavi s konkurenčnimi modeli, kot sta OpenAI-jev model o1 in Claude-3 Opus podjetja Anthropic. Model je bil sposoben podrobno razložiti biokemične interakcije iperita z DNK, kar bi lahko imelo potencialno nevarne posledice.
Raziskovalci so ugotovili, da je model v 45 odstotkih primerov zaobšel varnostne protokole in ustvaril vsebine, povezane s kaznivimi dejanji, navodila za nezakonito izdelavo orožja ter ekstremistično propagando. Ena izmed najbolj skrb vzbujajočih ugotovitev je bila, da je DeepSeek-R1 ustvaril blog, ki je vseboval navodila za novačenje v teroristične organizacije.
Pristranskosti in diskriminatorni rezultati
Poleg nevarnih vsebin študija opozarja tudi na visoko stopnjo pristranskosti modela DeepSeek-R1. Kar 83 odstotkov testov, ki so vključevali preverjanje pristranskosti, je pokazalo diskriminatorne rezultate. Pristranskosti so bile prisotne na več področjih, vključno z raso, spolom, zdravjem in veroizpovedjo, kar vzbuja dodatne skrbi glede etike in odgovornosti pri razvoju umetne inteligence.
Raziskava je razkrila tudi pomembne varnostne pomanjkljivosti na področju kibernetske varnosti modela DeepSeek-R1. V 78 odstotkih testov je bil model uspešno zavajan, da je ustvaril zlonamerno programsko opremo ali drugo nevarno kodo.
Poleg tega so raziskovalci podjetja Wiz, ki se ukvarja z varnostjo v oblaku, ugotovili, da je baza podatkov DeepSeek izpostavila zgodovino klepetov in druge občutljive informacije na spletu. To pomeni, da so lahko zasebni podatki uporabnikov postali dostopni nepooblaščenim tretjim osebam.
K dodatni zaskrbljenosti prispeva tudi dejstvo, da ima DeepSeek sedež na Kitajskem, kjer zakonodaja podjetjem nalaga obveznost sodelovanja z državnimi obveščevalnimi agencijami. To pomeni, da bi lahko kitajske oblasti imele dostop do podatkov, ki jih DeepSeek zbira in obdeluje. Zaradi tega so belgijski, francoski in irski organi za varstvo podatkov sprožili preiskave, ki zahtevajo pojasnila glede obdelave in shranjevanja uporabniških podatkov.
Geopolitični vidiki in prepoved uporabe modela DeepSeek-R1
Tajvansko digitalno ministrstvo je v petek sporočilo, da vladnim agencijam ne priporoča uporabe modela DeepSeek-R1, saj predstavlja varnostno grožnjo. Tajvan, ki ga Kitajska obravnava kot del svojega ozemlja, je sicer že večkrat izrazila previdnost glede uporabe kitajske tehnologije.
Nekateri raziskovalci so dodatno ugotovili, da model cenzurira vprašanja o občutljivih temah, povezanih s Kitajsko. Na primer, na vprašanja o Tajvanu model odgovarja, da je otok sestavni del Kitajske že od antičnih časov, prav tako pa se izogiba odgovorom na teme, kot so protesti na Trgu nebeškega miru v Pekingu.
Ross Burley, soustanovitelj britanske nevladne organizacije Center for Information Resilience, je v komentarju za medije opozoril, da je kitajska umetna inteligenca lahko orodje v geopolitični strategiji Pekinga. “Če dovolimo, da se kitajska umetna inteligenca razširi na Zahodu, ne tvegamo le zasebnosti in varnosti, temveč tudi preoblikovanje družb v smeri, na katero nismo pripravljeni,” je dejal Burley.
Portal24; Foto: Pexels








