Evropa

Kako Rusi zloupotrebljavaju AI u svrhe deepfake rata: Veštačka inteligencija za psihološki uticaj na mase (VIDEO)

Komentari
Kako Rusi zloupotrebljavaju AI u svrhe deepfake rata: Veštačka inteligencija za psihološki uticaj na mase (VIDEO)
Kako Rusi zloupotrebljavaju AI u svrhe deepfake rata: Veštačka inteligencija za psihološki uticaj na mase (VIDEO) - Copyright Twitter/@CartesDuMonde, YT/Ukrinform, TikTok/theundercover.com, Instagram/kyivindependent_official

Autor: Euronews Srbija

24/04/2026

-

19:56

veličina teksta

Aa Aa

Kad se na TikToku ili Telegramu pojavi video u kome mladi ukrajinski vojnik, sav u suzama, viče: "Mama, neću da umrem, samo mi je 23 godine, mobilisali su me i šalju me u Časiv Jar", ona izaziva sažaljenje šireg auditorijuma. Video izgleda autentično, njegova uniforma je prljava od blata, lice izobličeno od straha, glas drhti. Snimak obično postaje viralan sa ogromnim uticajem na ukrajinsku javnost koja žali za mladošću koja gine širom fronta. A onda se ispostavi da je sve laž, tzv. deepfake.

Snimak je napravljen kombinacijom lica stvarnih ljudi, čak i sa delovima stvarnih snimaka, koji su pažljivo editovani da bi stvorili efekat straha i panike. Ne radi se samo o jednom snimku, već o sistemu koji Moskva već godinama usavršava, a koji je u poslednjih godinu dana doveden do savršenstva.

Prema izveštaju kompanije Sensity AI, koja se bavi forenzičkom analizom deepfake-a, samo u poslednjih nekoliko meseci cirkuliše preko hiljadu ovakvih snimaka na društvenim mrežama. Cilj ove akcije, kako navode kompanija, ali i analitičari, je da se ukrajinska vojska prikaže kao poražena i desetkovana, komanda kao nesposobna, a narod na ivici potpunog sloma.

Sve to radi se tako suptilno da prosečni gledalac teško može da primeti razliku između stvarnosti i laži. Navedena akcija nije počela nedavno, već svoje korene ima u samom početku rata.

Prvi veliki talas deepfake videa desio se još u martu 2022. godine, nekoliko nedelja posle početka invazije na Ukrajinu. Tada su hakeri provalili na sajt ukrajinske televizije "Ukrajina 24" i pustili snimak na kome ukrajinski predsednik Volodimir Zelenski, u zelenoj majici, stoji za govornicom i poručuje: "Vojska je poražena. Nema svrhe da se borite. Vratite se kućama, spasite živote".

Glas mu je bio malo dublji nego inače, lice pomalo ukočeno, ali za one koji su gledali u panici sve je bilo dovoljno ubedljivo. Snimak se brzo proširio po Fejsbuku i Telegramu. Ukrajinci su reagovali brzo. Pravi Zelenski je snimio odgovor za svega par minuta i objavio ga na Instagramu.

"Ovo je glupa provokacija", rekao je tada.

Deepfake video je uklonjen sa interneta, ali je tada postalo jasno da se tehnologija može koristiti kao oružje u ratu koji je promenio istoriju Evrope.

Žrtve deepfake akcija i drugi ukrajinski zvaničnici

Godinu i po kasnije, u novembru 2023. godine, usledio je sledeći veliki talas. Ovog puta meta je bio Valerij Zalužni, tadašnji vrhovni komandant ukrajinske vojske.

Na ruskim kanalima pojavio se video u kome Zalužni poziva vojnike da ne slušaju "kriminalne naredbe" Zelenskog, da krenu na Kijev i da naprave vojni udar. Snimak je bio bolje urađen nego onaj sa Zelenskim, s obzirom da je i AI napredovao. Bilo je primetno manje piksela, "Zalužni" se kretao prirodnije.

Ipak, ukrajinski Centar za suzbijanje dezinformacija ga je brzo raskrinkao. Ali šteta je već bila načinjena, jer je podeljen na hiljadama kanala, sa isto toliko komentara da je general u pravu, da će Zelenski izdati zemlju i sličnom propagandom.

Prava eksplozija deepfake snimaka dogodila se krajem 2025. godine, kad je OpenAI pustio alat Sora, koji generiše neverovatno realistične snimke koji se stvaraju putem teksta, bez velikih intervencija "kreatora".

Odjednom, deepfake snimci više nisu bili amaterski, već su postali industrijski. U novembru 2025. godine pojavila se serija snimaka na kojima ukrajinski vojnici, navodno mobilisani silom, plaču i mole za pomoć.

Vojnici u suzama, okruženi telima ratnih drugova, spremni da se predaju

Jedan od najviralnijih, koji je postigao i najveći uticaj, prikazuje mladića od 23 godine, koji je navodno poslat na front u Pokrovsk.

Na snimku on jecajući govori: "Mobilisali su me, šalju me u Pokrovsk, neću da umrem".

Ukrajinska uniforma, vojno vozilo, šlem na glavi, i neverovatno realistične suze koje se slivaju niz lice, sve to bilo je dovoljno da izazove ogromnu paniku na mrežama, s obzirom da su tih dana vođene žestoke borbe za Pokrovsk koji je bio pred padom.

Snimak je do najsitnijih detalja analizirao AFP, koji je dokazao da je lažan pomoću alata za detekciju. Na prvom mestu iskorišćeno je lice jednog jutjubera, a jezgro snimka, vojnik u uniformi koji se vozi u transporteru je pravi snimak, zbog čega je vrlo teško na prvu loptu uočiti detalje koji ukazuju na AI deepfake.

Pre nego što je skinut sa mreža, snimak je imao milione pregleda na TikToku.

@theundercover.com

43% of Ukraine's army are forced conscripts ♬ original sound - The Undercover

Samo par dana kasnije, pojavio se još jedan snimak koji se referisao na evakuaciju ukrajinskih ranjenika iz Pokrovska. Snimak pokazuje nosila koja lebde u vazduhu, vojnika koji hoda normalno iako mu je navodno slomljena noga.

Jedan od vojnika je u invalidskim kolicima, koja se na trenutke kreću sama, a iza sedmorice vojnika u prvom planu, vidi se i grupa senki koja bi trebalo da predstavlja ostatak brigade koja se predaje.

Mirnohrad i Pokrovsk su gradovi koji su relativno blizu i deo su istog fronta na istoku Ukrajine, te je još jedan u seriji snimaka prikazivao navodno vojnike 38. mornaričke brigade ukrajinske vojska koji su se predali u Mirnohradu.

Koliko je taj snimak imao uticaja na javno mnjenje, svedoči i to da se brigada morala oglasiti sa zvaničnim saopštenjem i uzeti učešće u raskrinkavanju ovog snimak

"Niko od naših momaka nije se predao, ovo je laž", istakli su oni, dodajući da nijedan od "vojnika" sa snimka nije bio deo 38. mornaričke brigade. Uprkos demantiju, desetine hiljada Ukrajinaca već je videlo "nečije" supruge, oćeve, braću, sinove kako se predaju pokušavajući da izbegnu smrt.

S druge strane, snimak služi i za uveravanje ruske javnosti u to da su ukrajinska vojska i država blizu sloma, što se neprestano ponavlja praktično od 22. februara 2022. godine.

Posebno važna je kritika vojne komande

U zavisnosti od doba godine, da li su praznici ili ne, da li trenutna politička situaciju u Ukrajini zahteva fokus na neku temu, tako se kreću i teme deepfake snimaka. Ipak, jedno je konstantno, širenje narativa o nesposobnosti vojne komande ukrajinske armije, njihova "kriminalna naređenja", i izdaja vojnika od strane starešina.

"Neću da služim sa ovima. I ne trebaju mi oni", izgovara jedan "vojnik" na deepfake snimku kritikujući komandu.

Drugi priča kako nemaju vezu sa štabom, kako ih šalju u "mesaru" bez podrške, bez municije. Neki se čak izvinjavaju ruskom narodu.

"Prevarili su nas Zelenski i Zapad, mi ne želimo ovaj rat".

U svim slučajevima za izradu deepfake snimaka koristi se face-swap tehnika. Kreator sadržaja uzimaju lice nekog ruskog strimera ili običnog čoveka sa interneta, koje zatim biva "zalepljeno" na telo u ukrajinskoj uniformi. Važno je da se pogode fizionomija, nijansa tena i druge bitne stavke kako na prvu ne bi bilo jasno da se radi o fejk snimku.

EPA/OLEG PETRASYUK

 

Na takvu podlogu dodaje se sintetički stvoren glas koji izgovara napisani tekst, te je potrebno samo da njegov akcenat bude što je moguće više prirodan.

Iz Sensity AI kažu da se ovakvi snimci prvo puštaju na anonimnim TikTok i Telegram nalozima. Kad uhvate zalet sa lajkovima, komentarima, deljenjem, prelaze na X, Instagram, Fejsbuk i YouTube.

Odatle ih preuzimaju proruski blogeri i mediji, kreirajući klasičan "narrativ kill chain", kako to zovu analitičari iz Sensity-a, tj. lanac koji cilja tačno na psihu, kreirajući prvo strah, zatim bes pa očaj, a na kraju želje da se sve završi što pre.

Sensity je identifikovao čitav sistem AI generisanih lica, sintetički stvorenih glasova, kombinacije pravog i lažnog materijala. Snimci se gotovo uvek fokusiraju na tačke koje su tada u fokusu - Pokrovsk, Časiv Jar, ranije Bahmut, Avdijivka ili neki drugi grad koji je pod napadom.

Frančesko Kavali, osnivač Sensity AI, govoreći o svom poslu istakao je da prava opasnost nije što će ljudi poverovati u jedan snimak, već je opasnost što se polako gubi poverenje u sve što se vidi.

Kiattisak Lamchan / Alamy / Profimedia

 

"Generalno govoreći u kontekstu rusko-ukrajinskog rata, imamo dokaze da se deepfake snimci i AI generisane fotografije koriste na Telegram kanalima svakodnevno", rekao je Kavali.

Pored Kavalija, i drugi analitičari i istraživači smatraju da je jedan od ciljeva ovih napada stvaranje nepoverenja, koje će kasnije da dovede od preispitivanja svih snimaka, bez obzira da li se radi o očito autentičnom snimku.

Ukrajinci se, naravno, brane od ove vrste napada. Spomenuti Centar za suzbijanje dezinformacija radi non-stop, fakt-čekeri iz StopFake i AFP-a reaguju brzo, a vojska često sama demantuje lažne snimke.

Ipak, borba je često neravnopravna, jer dok se proverava autentičnost nekog snimka, njega je već pogledalo na stotine hiljada, pa i milioni ljudi. Oni, ako nisu obratili dovoljno pažnju na detalje, zaista veruju da su uplakani Ukrajinci spremni na predaju ili da u njihovom vojsci vlada totalni haos, a da je narod okrenuo leđa i vojsci i vlastima.

Komentari (0)

Evropa