Proruska dezinformacijska kampanja za širjenje vsebin uporablja orodja umetne inteligence

[Foto: Freepik]

V zadnjem letu so raziskovalci več organizacij, med njimi Reset Tech in finski Check First, zaznali hitro širjenje sofisticirane dezinformacijske kampanje, povezane z Rusijo. V poročilu, objavljenem pretekli teden, so opozorili, da akterji, ki stojijo za kampanjo, v vedno večji meri uporabljajo brezplačna orodja umetne inteligence za ustvarjanje in širjenje manipulativnih vsebin, vključno z lažnimi videoposnetki, slikami, QR-kodami in spletnimi stranmi.

Kampanja, znana pod imeni »Operacija Overload«, »Matrjoška« in »Nevihta 1679«, naj bi delovala že od leta 2023. Povezujejo jo z ruskimi državnimi strukturami, kar so v preteklosti potrdili Microsoft, Inštitut za strateški dialog ter več varnostnih analitikov.

V obdobju od septembra 2024 do maja 2025 so raziskovalci zabeležili občuten porast aktivnosti – kampanja je ustvarila 587 unikatnih vsebin, večino s pomočjo orodij umetne inteligence, kar predstavlja več kot dvakratnik predhodnega obdobja. Uporabljena orodja so bila splošno dostopna, kar pomeni, da je bila produkcija teh vsebin mogoča brez dragih sistemov ali strokovnega znanja.

Taktika, ki so jo imenovali »združevanje vsebin«, temelji na načelu množične produkcije. Uporabniki umetne inteligence lahko na hitro ustvarijo več variacij istega sporočila, kar omogoča učinkovitejše širjenje lažnih informacij prek različnih platform. Cilji kampanje vključujejo polarizacijo javnega mnenja, zlasti glede Ukrajine, migracij, in volitev v demokratičnih državah.

Propaganda s pomočjo glasov in slik, ustvarjenih z umetno inteligenco

V poročilu, ki ga je povzel tudi portal WIRED, raziskovalci opozarjajo na uporabo generatorjev slik in glasu, med drugim orodja Flux AI, ki naj bi ga razvilo podjetje Black Forest Labs. S pomočjo tega orodja je bilo ustvarjenih več ponarejenih podob, ki so prikazovale izmišljene dogodke – med drugim domnevne izgrede migrantov v evropskih mestih.

Analiza slik s pomočjo orodja SightEngine je pokazala, da so bile mnoge fotografije z visoko verjetnostjo ustvarjene prav s Flux AI. Posebno zaskrbljujoče je, da so bile za ustvarjanje vsebin uporabljene diskriminatorne ključne besede, kar po mnenju raziskovalcev odpira etična vprašanja glede varnostnih mehanizmov tovrstnih orodij.

Poleg slik so bile v okviru operacije ustvarjene tudi manipulirane video vsebine. V enem primeru so ponarejevalci uporabili tehnologijo kloniranja glasu, da so v lažnem videoposnetku pripisali francoski raziskovalki izjave, ki jih v resnici ni izrekla – domnevno naj bi v nemščini pozivala k podpiranju skrajne desnice.

Skupno število videoposnetkov se je z 150 med junijem 2023 in julijem 2024 povzpelo na 367 v obdobju med septembrom 2024 in majem 2025. Večina jih je bila ustvarjena prav z umetno inteligenco.

Masovno razpošiljanje vsebin in vdor na TikTok

Ena izmed ključnih taktik kampanje vključuje razpošiljanje vsebin na več kot 600 kanalih na platformah, kot so Telegram, X (nekdanji Twitter), Bluesky in od nedavnega tudi TikTok. Na slednjem so videoposnetki, objavljeni maja, dosegli tri milijone ogledov, preden so bili računi blokirani.

Po podatkih raziskovalcev kampanja izvaja še eno neobičajno potezo – aktivno obvešča medije in organizacije za preverjanje dejstev o svojih vsebinah, kar pomeni, da želi vsaj del svojih manipulacij spraviti v informacijski tok, četudi so pozneje označene kot neresnične.

Od septembra 2024 je bilo poslanih že več kot 170.000 takšnih elektronskih sporočil, naslovljenih na več kot 240 prejemnikov, kar kaže na načrtno strategijo iskanja odzivnosti tudi na strani novinarjev in preverjevalcev dejstev.

Vztrajna in prilagodljiva taktika

»Presenetila me je raznolikost teh vsebin – kot da želijo ujeti čim več zornih kotov iste zgodbe,« je za WIRED povedala Aleksandra Atanasova iz organizacije Reset Tech. Dodala je, da kampanja ne uporablja sofisticiranih, prilagojenih modelov, temveč javno dostopna orodja, kar omogoča širšo dostopnost in hitrost širjenja.

Nekateri primeri, kot je ustvarjanje lažnih spletnih strani z uporabo velikih jezikovnih modelov (LLM), kažejo, da se dezinformacijska orodja vse bolj profesionalizirajo. Čeprav ti poskusi pogosto ne dosegajo velikega prometa, pa lahko s pomočjo družbenih omrežij in algoritmov dosežejo visoko vidnost – celo v iskalnikih.

Po podatkih ameriškega projekta Sunlight naj bi ruske dezinformacijske mreže letno ustvarile več kot tri milijone vsebin, generiranih z umetno inteligenco, kar pomeni vedno večji vpliv na digitalni informacijski prostor – tudi na rezultate klepetalnih robotov, kot sta ChatGPT ali Google Gemini.

Raziskovalci opozarjajo, da je vse težje ločiti med resničnim in umetno ustvarjenim, zato pričakujejo nadaljnjo rast tovrstnih manipulacij: »Recept, ki deluje, že imajo,« pravi Atanasova. »In vedo, kaj počnejo.«

Miha D. Kovač

Foto: Freepik