To so tveganja, ki jih predstavlja umetna inteligenca
Administracija ameriškega predsednika Joeja Bidna si prizadeva za zaščito ameriške umetne inteligence pred Kitajsko in Rusijo. Načrtujejo uvedbo zaščitnih ukrepov okoli najnaprednejših modelov umetne inteligence. Raziskovalci vlade in zasebnega sektorja so zaskrbljeni, da bi lahko ameriški nasprotniki te modele, ki prebirajo ogromne količine besedila in slik za pridobivanje informacij in ustvarjanje vsebine, uporabili za kibernetske napade ali celo proizvodnjo močnega biološkega orožja.
Grožnje, ki jih predstavlja umetna inteligenca
Med glavnimi grožnjami so deepfakes in dezinformacije. Deepfake so realistični, a izmišljeni videoposnetki, ustvarjeni z algoritmi umetne inteligence na podlagi velike količine objavljenih posnetkov. Pojavljajo se na družbenih omrežjih in zamegljujejo meje med dejstvi in fikcijo v polariziranem svetu ameriške politike. Čeprav so takšni sintetični mediji prisotni že nekaj let, jih je v preteklem letu okrepila množica novih orodij generativne umetne inteligence, kot je Midjourney, ki omogočajo poceni in preprosto ustvarjanje prepričljivih globokih ponaredkov.
Orodja za slikanje, ki jih poganja umetna inteligenca, vključno z OpenAI in Microsoft, se lahko uporabljajo za ustvarjanje fotografij, ki bi lahko promovirale napačne informacije v zvezi z volitvami ali glasovanjem, kljub temu, da ima vsako politiko proti ustvarjanju zavajajoče vsebine, so povedali raziskovalci v marčnem poročilu. Nekatere dezinformacijske kampanje preprosto uporabljajo zmožnost umetne inteligence, da posnema prave novice, kot sredstvo za širjenje lažnih informacij.
Učinkovitost nadzora nad takšno vsebino je različna
Čeprav si glavne platforme družbenih medijev, kot so Facebook, X (prej Twitter) in YouTube, prizadevajo prepovedati in odstraniti globoke ponaredke, je njihova učinkovitost pri nadzoru takšne vsebine različna. Na primer, lani je spletno mesto z novicami pod nadzorom kitajske vlade, ki uporablja generativno platformo umetne inteligence, lansiralo predhodno razširjeno lažno trditev, da imajo Združene države v Kazahstanu laboratorij za izdelavo biološkega orožja za uporabo proti Kitajski, je ministrstvo za domovinsko varnost sporočilo v svojo oceno domovinske varnosti za leto 2024.
Svetovalec za nacionalno varnost Jake Sullivan je na srečanju o umetni inteligenci v Washingtonu dejal, da problem nima preprostih rešitev, saj združuje zmogljivost umetne inteligence z “namenom državnih in nedržavnih akterjev, da uporabljajo dezinformacije v velikem obsegu, motijo demokracije, pospešujejo propagando, oblikujejo dojemanje sveta.” V tem trenutku napad močno presega zmožnosti obrambe,« je opozoril.
Biološko orožje
Ameriška obveščevalna skupnost, možganski trusti in akademiki so vedno bolj zaskrbljeni zaradi tveganj, ki jih predstavljajo tuji akterji, ki dobijo dostop do naprednih zmogljivosti umetne inteligence. Raziskovalci pri Gryphon Scientific in Rand Corporation so ugotovili, da bi lahko napredni modeli umetne inteligence zagotovili informacije, ki bi lahko pomagale ustvariti biološko orožje.
Gryphon je proučeval, kako lahko nasprotniki uporabijo velike jezikovne modele (LLM) – računalniške programe, ki črpajo iz ogromnih količin besedila za ustvarjanje odgovorov na poizvedbe –, da povzročijo opustošenje na področju znanosti o življenju, in ugotovil, da “lahko zagotovijo informacije, ki bi lahko pomagale pri ustvarjanju biološkega orožja z zagotavljanjem uporabnih, natančnih in podrobnih informacij na vsakem koraku.”
Na primer, LLM lahko zagotovi podoktorsko znanje za spopadanje s težavami pri delu z virusom, ki je zmožen pandemije. Randova raziskava je pokazala, da lahko LLM pomagajo pri načrtovanju in izvedbi biološkega napada. Ugotovili so, da lahko zdravnik na primer predlaga metode dovajanja botulinskega toksina z aerosolom.
Nova prizadevanja za obravnavanje groženj
Ministrstvo za domovinsko varnost (DHS) je v svoji oceni ogroženosti domovine za leto 2024 dejalo, da bodo kibernetski akterji verjetno uporabljali umetno inteligenco za “razvijanje novih orodij” za “omogočanje večjih, hitrejših in učinkovitejših kibernetskih napadov” na kritično infrastrukturo, vključno s cevovodi in železnicami. Kitajska in drugi nasprotniki razvijajo tehnologije umetne inteligence, ki bi lahko spodkopale kibernetsko obrambo ZDA, vključno z generativnimi programi umetne inteligence, ki podpirajo napade zlonamerne programske opreme.
Microsoft je v februarskem poročilu dejal, da je sledil hekerskim skupinam, povezanim s kitajsko in severnokorejsko vlado, pa tudi z rusko vojaško obveščevalno službo in iransko revolucionarno gardo, ko so poskušali izpopolniti svoje hekerske kampanje z uporabo velikih jezikovnih modelov.
Spodbujanje inovacij in izogibanje težkim predpisom
Dvostrankarska skupina zakonodajalcev je predstavila predlog zakona, ki bi Bidnovi administraciji olajšal uvedbo nadzora nad izvozom modelov umetne inteligence, da bi zaščitil cenjeno ameriško tehnologijo pred tujimi slabimi akterji. Predlog zakona, ki so ga podprli republikanci v predstavniškem domu Michael McCaul in John Molenaar ter demokrata Raja Krishnamoorthi in Susan Wild, bi ministrstvu za trgovino dal tudi izrecno pooblastilo, da Američanom prepove sodelovanje s tujci pri razvoju sistemov umetne inteligence, ki predstavljajo tveganje za nacionalno varnost ZDA.
Tony Samp, svetovalec za politiko umetne inteligence pri DLA Piper v Washingtonu, je dejal, da oblikovalci politik v Washingtonu poskušajo “spodbujati inovacije in se izogibati težkim predpisom, ki dušijo inovacije”, ko poskušajo obravnavati številna tveganja, ki jih prinaša tehnologija. A opozoril je, da bi “zatiranje razvoja umetne inteligence z regulacijo lahko preprečilo morebitne preboje na področjih, kot so odkrivanje zdravil, infrastruktura, nacionalna varnost in drugo, ter dalo prostor tuji konkurenci”.
[Vir: Hina]; Portal24; Foto: Pexels