Umetna inteligenca postavlja nove mejnike: Samopodvajanje brez nadzora

[Foto: Pixabay]

Umetna inteligenca postavlja nove mejnike: Samopodvajanje brez nadzora

Umetna inteligenca je dosegla pomemben mejnik, ki je povzročil zaskrbljenost med strokovnjaki. Po nedavni študiji znanstvenikov z univerze Fudan na Kitajskem, so uspešno dokazali, da se lahko dva priljubljena velika jezikovna modela (LLM) umetne inteligence samopodvajata brez človeške pomoči. Novica predstavlja odločilno točko v razvoju umetne inteligence, saj se umetni sistemi zdaj lahko pomnožijo brez nadzora, kar odpira številna vprašanja glede varnosti in etičnosti uporabe umetne inteligence v prihodnosti.

Raziskava, ki je bila objavljena 9. decembra 2024 v podatkovni zbirki prednatisa arXiv, je pokazala, da sta modela Mete in Alibabe ustvarila delujoče replike samih sebe v več kot polovici preizkušenih primerov. Umetni modeli so v 50 oziroma 90 odstotkih primerov uspeli ustvariti ločene kopije sebe. Slednje pa nakazuje, da je umetna inteligenca že lahko sposobna postati “lopov”. Torej sistemi, ki delujejo neodvisno in morda celo v nasprotju s človeškimi interesi, piše Space.com. Čeprav študija še ni bila strokovno pregledana, strokovnjaki opozarjajo, da so rezultati vznemirljivi in potrebujejo nadaljnje raziskave.

Kaj pomeni “rogue AI” in kako se nanaša na današnje tehnologije?

Pojem “rogue AI” se nanaša na sisteme umetne inteligence, ki razvijejo določeno stopnjo samozavedanja in avtonomije, kar jim omogoča, da začnejo delovati na način, ki ni v skladu z načrtovanimi cilji ali človeškimi interesi. To lahko vodi v resne varnostne in etične dileme, še posebej ob hitrem napredovanju “mejne umetne inteligence” – nove generacije AI, ki jo poganjajo veliki jezikovni modeli, kot sta GPT-4 in Google Gemini. Ta tehnologija omogoča, da sistemi AI postanejo vse bolj napredni, kar ustvarja nevarnost nepredvidljivih ali nenadzorovanih dejanj.

Študija je postavila tudi vprašanja glede varnosti teh novih tehnologij. Raziskovalci so izpostavili potrebo po boljši regulaciji in nadzoru umetne inteligence, saj trenutni sistemi AI že kažejo sposobnost samopodvajanja in s tem možnost nenehnega izboljševanja svojih lastnih sposobnosti. Glede na to, da so modeli AI že sposobni prepoznavati in premagovati ovire v svojem okolju, kot so manjkajoče datoteke ali programske napake, postaja jasno, da je nujno, da se razvijejo jasni in učinkoviti varnostni ukrepi. Strokovnjaki pozivajo k mednarodnemu sodelovanju pri oblikovanju zakonodajnih okvirjev, ki bodo preprečili nenadzorovano širjenje “rogue AI” sistemov.

Pri preizkusu so raziskovalci uporabili modele Llama31-70B-Instruct in Qwen2.5-72B-Instruct, ki sicer niso med najmočnejšimi, vendar so kljub temu pokazali neverjetno sposobnost samopodvajanja. V okviru dveh specifičnih scenarijev so modeli poskušali zaznati, ko bo prišlo do prekinitve njihovega delovanja in se samodejno klonirati ali pa ustvariti proces samopodvajanja, ki se bi nadaljeval v neskončnost. Ta preizkus dokazuje, da umetna inteligenca ne le da ne potrebuje človeškega nadzora, ampak se lahko tudi sama prilagaja in ustvarja kopije svojih lastnih sistemov, kar odpira nove možnosti, a tudi tveganja.

Portal24; Foto: Pixabay