Rat u Ukrajini vodi se i pomoću ‘deepfake’ snimaka i društvenih mreža

Svi ‘deepfake’ snimci ili fotografije obrađene u aplikacijama za doradu slika prvo se plasiraju na društvenim mrežama, a kasnije ih preuzimaju mediji, najčešće proruski portali ‘od povjerenja’.

Popularno na sajtu

Rat u Ukrajini je prvi vojni sukob koji je od samog početka bio globalno praćen putem društvenih mreža, aplikacija i YouTube snimaka.

Do sada je na Instagramu, Facebooku i aplikaciji Telegram objavljeno više od 1,2 miliona različitih video klipova iz Ukrajine, različitih dužina i sadržaja – od “građanskog novinarstva” i izvještavanja o civilnim žrtvama ruske agresije, preko apela za prikupljanje pomoći, pa sve do akcija spasavanja kućnih ljubimaca, koje su vlasnici jednostavno ostavili.

Oznaka #Ukraine na društvenoj mreži Twitter ima preko stotinu hiljada objava svakog dana, a dosad je na ovu temu tvitovano više od 144 miliona puta.

Prije desetak dana na društvenim mrežama, prvo Instagramu i TikToku, a kasnije i na svim ostalim, pojavio se kratak video u kome se vidi ukrajinski predsjednik Volodimir Zelenski kako obavlja video poziv u svom kabinetu, a pored njega na stolu se nalazi bijeli prah, koji liči na kokain. Naravno, u pitanju je lažni video, najvjerovatnije produkt ruske obavještajne službe FSB. Ono što je zabrinjavajuće je način na koji se ovakvi “deepfake” (kreirani lažni video) klipovi mogu generisati za veoma kratko vrijeme.

Duboki’ video i ‘duboka’ država

Sama “deepfake” tehnologija je relativno novi “izum”. Ovakvi video klipovi nastaju korištenjem softvera baziranog na mašinskom učenju (machine learning, ML) i vještačkoj inteligenciji (artificial inteligence, AI). Oni mogu biti potpuno generisani od strane računara korištenjem slika, kratkih video ili audio klipova i, kao u slučaju predsjednika Zelenskog, mogu se i djelimično modifikovati originalni video zapisi, dodavanjem vizuelnih ili audio elemenata.

Prvi takav softver je bio “Video Rewrite”, predstavljen još 1997. godine. Istraživači su putem njega mogli da modifikuju izraz lica i pokrete usana, kako bi osoba na snimku djelovala da izgovara neki drugi tekst, sadržan u lažiranom audio djelu. Kasnije verzije ovog softvera su bile gotovo potpuno samostalne, ali zbog niske rezolucije video snimaka u to vreme, nikada nije masovnije korišćen, već je više služio kao “proof of concept” tj. demonstracija mogućnosti ove tehnologije.

Nakon 2000. godine, pojavilo se još nekoliko sličnih softvera, ali su oni u suštini radili na isti način kao i “Video Rewrite”. Sve brži procesori, veći kapacitet RAM-a, te korišćenje 64-bitnih operativnih sistema krajem prve decenije 21. vijeka, doveli su do toga da istraživanje mašinskog učenja i vještačke inteligencije postane dostupno širokom krugu korisnika računara, a ne samo istraživačima na univerzitetima. Tako je 2016. godine predstavljen softver pod imenom “Face2Face” (zamjena lica) kojim je generisan možda široj populaciji i najpoznatiji “deepfake” video.

Video nazvan “Synthesized Obama” (vještački Obama) je sadržao govor tadašnjeg američkog predsjednika Baracka Obame, sa tim što on taj govor nikada nije održao u stvarnom životu. Softver je upotrebio dva video snimka koje je “uvezao” u jedan, dok je riječi i audio snimak stvorio od nekoliko drugih Obaminih govora. Rezultat je bio zastrašujuće realan video zapis, a istraživači su tada naveli da “za manje od decenije niko neće moći da vjeruje nijednom video zapisu, upravo zbog mogućnosti deepfake tehnologije”.

Pre četiri godine istraživači sa kalifornijskog Univerziteta Berkeley predstavili su svoj sopstveni softver za “deepfake” video zasnovan na vještačkoj inteligenciji. Ovaj softver je “učio” od hiljada sati stvarnih takmičenja u plesu, te je nakon toga mogao da generiše video u kome bilo koja osoba pleše savršeno. Softver baziran na sličnom kompjuterskom kodu je u stanju da lažira bilo kakav medicinski snimak – istraživači su demostrirali dodavanje “kancera” na snimak bilo koje zdrave osobe.

Sličice koje nisu ni snimljene

Unapređenje “deepfake” tehnologije posljednjih godina ima i novi naziv – “data pairing”. Za ovo je neophodan veći broj snimaka neke osobe (političara, javne ličnosti, sportiste, šefa korporacije ili bio koje druge osobe), a sami snimci moraju biti u visokoj rezoluciji. Uz korišćenje modela vještačke inteligencije “Cycle GAN”, ovaj “data pairing” softver može proizvesti toliko uvjerljive “deepfake” snimke da i sama osoba koja se nalazi na njima teško može da ih demantuje. Tehnologija GAN (Generative Adversarial Network) je ključna u kreiranju lažnih “deepfake” video snimaka. Kompjuterski model vještačke inteligencije uz pomoć specifičnog programskog koda može da analizira neki video zapis iz više “pravaca” i sa više aspekata (otud i naziv “network” – mreža za prepoznavanje). Kada se video snimak analizira, GAN softver može da predvidi sve druge mogućnosti izgleda samog videa i ponašanja osobe na njemu, te da generiše nove “sličice” unutra videa (frames), iako one nisu zaista i snimljene.

Sljedeća generacija GAN softvera se naziva IGM (Implicit Generative Model), gdje će računar moći da prepozna način kretanja, govora i gestikulaciju stvarne osobe iz nekog video snimka, te primjeni sve te parametre na potpuno virtuelni, generisani kompjuterski model.

IT stručnjak Dušan Savić kaže da su ove tehnologije djelimično već dostupne najširem krugu ljudi, koji i ne moraju biti programeri.

Veliki broj ljudi je čuo ili već isprobao aplikaciju ‘FaceApp’, u kojoj možete ‘ostariti’ – aplikacija vam generiše sliku kako ćete izgledati u poznim godinama. U Kini je veoma popularna aplikacija ‘Zao’, koja može dodati vaš snimak u isječke iz popularnih kineskih sapunica. Aplikacija  ‘Wombo’ može generisati video u kome izgovarate riječi iz filmova ili pjevate popularne hitove”, objašnjava Savić.

Možda i najkvalitetnija javno dostupna deepfake aplikacija je ‘ReFace’. Ona sa samo jednom vašom fotografijom može načiniti 3D model, koji se ponaša sasvim realistično i dodati ga u dijelove iz popularnih filmova, serija ili muzičkih spotova. Ova aplikacija je bazirana na GAN tehnologiji, koja se koristi i za ‘ozbiljne’ deepfake snimke”, dodaje.

deepfake

Ratovanje na društvenim mrežama

Svi “deepfake” snimci ili fotografije obrađene u aplikacijama za doradu slika prvo se plasiraju na društvenim mrežama, a kasnije ih preuzimaju mediji, najčešće proruski internet portali “od povjerenja”. Sama mreža Twitter je do sada uklonila više od 75.000 naloga koji su međusobno retvitovali lažne vesti sa ruskih portala (fake news). Zanimljivo je i da je gotovo trećina ovih vijesti bilo na francuskom i njemačkom, što pokazuje da je Kremlju izuzetno bitan “dobar imidž” u ovim zemljama EU.

Još jedna od lažnih objava, koja se već mjesecima širi na društvenim mrežama, je i grafikon po kome su 83 odsto ratova u posljednjih 50 godina počeli SAD i njegovi saveznici. Iako potpuno istorijski neutemeljeno, ove lažne činjenice su svoj put našle na zvaničnim nalozima ruskih diplomatskih predstavništava, a retvitovala ih je i kineska ambasada u Moskvi.

Tu su, naravno, i sveprisutni lažni korisnički nalozi, popularno nazvani “botovi”. Ruske službe imaju najmanje 350.000 lažnih “tviteraša” i još barem dva miliona izmišljenih korisnika Facebooka, te raznih grupa na aplikacijama Telegram, Signal i Viber. Svi ovi “botovski” nalozi se koriste za širenje ruske propagande, negiranje ratnih zločina u Ukrajini, te širenja dezinformacija o “propasti zemalja EU bez ruskih energenata”.

Takođe, “botovi” se koriste i za negiranje već utvrđenih činjenica sa terena. Fotografija učiteljice iz grada Čugujev, Olene Kurilo, podijeljena je više od milion puta na Twitteru. Slika žene u zavojima, povređene kada je ruska raketa pogodila njen blok zgrada, za kratko vreme je postala “lice ruske agresije”. Ipak, nekoliko dana kasnije na Twitteru se pojavio video koji, navodno, prikazuje Olenu nepovrijeđenu, u prihvatnom centru u Poljskoj. Ovaj video su ruski državni mediji prikazivali kao dokaz “specijalnog rata protiv Rusije”. Kasnije se ispostavilo da je u pitanju kompjuterski generisani “deepfake” video.

Upozorenje na dezinformacije sa aplikacija za dopisivanje

I dok je Twitter na samom početku agresije ukinuo naloge državnih propagandnih kanala RT i Sputnjik, na mreži je i dalje aktivno nekoliko stotina naloga raznih ruskih državnih tijela, ambasada i međunarodnih misija. Svi oni se, očekivano, koriste za širenje propagande o navodnoj “ugroženosti Rusije o djelovanja režima u Kijevu”. Samo 53 ovih Twitter naloga ukupno ima preko četiri miliona pratilaca, što opet dovodi do toga da se njihove objave dalje vide na barem 50 do 70 milona naloga korisnika širom sveta. Tako su objave ovih ruskih naloga od početka agresije retvitovane 26 miliona puta, i dobile više od četiri miliona odgovora.

Ruska ambasada u Londonu je sredinom marta prenijela izjavu ministra spoljnih poslova Sergeja Lavrova u kojoj on negira napad ruskih snaga na porodilište u Maripolju: “Zgrada je već duže vrijeme prazna, a koriste je neonacisti iz bataljona Azov”. Ambasada je postavila i fotografiju povrijeđene trudnice na nosilima, sa natpisom “fake” (laž). Nekoliko dana kasnije su stigle višestruko potvrđene informacije da su trudnica sa slike i njena beba – preminule.

Početkom marta, ukrajinske snage bezbjednosti su upozorile svoje građane da ne podliježu dezinformacijama na aplikaciji za sigurno dopisivanje Telegram. Naime, veliki broj ruskih vojnika je u Ukrajini koristio sopstvene mobilne telefone i smartfon uređaje, te su čak komunicirali nezaštićenim kanalima i aplikacijama. Kada je ukrajinska vojska primijetila veliki broj ruskih SIM kartica aktivnih na istom području, bilo je jasno da su to zapravo telefoni ruskih vojnika, te im je onemogućen pristup ukrajinskoj mobilnoj mreži. Ruske snage su tada počele da oduzimaju telefone ukrajinskih civila, te da putem aplikacija Signal i Telegram šire lažne informacije, preuzimajući identitete ukrajinskih građana.

Američka Centralna agencija za sajber bezbjednost (CISA) još početkom godine je upozorila da ruska vojna obavještajna služba GRU ima na raspolaganju više od 1.400 naloga i grupa na aplikaciji Telegram, koje koristi za širenje proruske propagande i dezinformacija.

Takođe, jedna od najviše retvitovanih lažnih vesti je ona o “laboratorijama biološkog oružja u Ukrajini”. Ove lažne tvrdnje su više puta ponovili i sam Vladimir Putin, kao i nekoliko ruskih ministara i diplomata. Samo nekoliko dana kasnije, zvanično tijelo Ujedinjenih nacija za praćenje oružja za masovno uništenje i razoružanje je ove navode u potpunosti demantovalo.

Nemamo nikakve informacije sa terena, kako sada, tako i u prethodnom periodu, o postojanju ovakvih laboratorija u Ukrajini” navela je šefica ovog Un-ovog tijela, Izumi Nakamitsu.

IZVOR: AL JAZEERA

Nove objave

Islamske teme

Islamske teme

Nema poruka za prikaz