Raskrinkavanje.ba

2023. u retrospektivi: Vještačka inteligencija kao alat za pravljenje lažnih vijesti

Fotografije i videosnimci kreirani uz pomoć vještačke inteligencije (eng. artificial intelligence, AI) korišteni su i tokom protekle godine za promociju preparata kao učinkovitih lijekova, predstavljanje određenih situacija koje se nisu desile stvarnim, ali i za širenje teorija zavjere.

Foto: Raskrinkavanje.ba

Korištenje fotografija u lažnim vijestima i raznim manipulacijama nije novina, a tokom protekle godine zabilježen je i niz situacija u kojima su korištene fotografije i videosnimci generisani putem vještačke inteligencije (AI). Tim Raskrinkavanja je u analizama ukazivao na sve sofisticiranije korištenje vještačke inteligencije, upozoravajući na ovaj izazov za konzumente medijskog sadržaja, i istovremeno informisao o rastućem problemu lažnih informacija i manipulacija putem digitalnih medija.

"Deepfake" snimci korišteni za promociju preparata kao lijekova protiv različitih bolesti

Raskrinkavanje je tokom protekle godine analiziralo nekoliko videosnimaka u kojima poznate ličnosti iz regije navodno preporučuju određene preparate kao lijekove, poput DiaClean, HeartClean i HemoClean, za liječenje različitih bolesti. U pitanju su bili takozvani "deepfake" snimci kreirani pomoću vještačke inteligencije (AI). "Deepfake" su mašinski generirani klipovi ili slike u kojima se određenim akterima mijenjaju lice, tijelo ili glas, čineći tako da oni rade ili govore stvari koje nikada nisu uradili ili rekli, objašnjeno je na stranici Instituta Poynter.

Tokom 2023. godine bavili smo se videozapisima u kojima novinar Senad Hadžifejzović, navodno, preporučuje kapsule za snižavanje krvnog pritiska i "lijek" za hemoroide, što je i sam Hadžifejzović nešto kasnije demantovao.

Još jedan slučaj koji ilustruje problem širenja lažnih informacija putem "deepfake" videosnimaka je i onaj čiji je akter pjevač Halid Bešlić. Naime, internetom je kružio videosnimak u kojem Bešlić navodno preporučuje lijek za regulaciju šećera u krvi.

Javnosti je bio dostupan i videosnimak u kojem poznati neurohirurg dr. Kemal Dizdarević navodno promoviše preparat protiv krvnih ugrušaka i visokog pritiska. 


Detaljni pregled ovih videosnimaka otkrio je neslaganje između riječi i pokreta usta, ukazujući na "deepfake" manipulaciju.

AI montaže kao alat za lažne priče i teorije zavjere

Tokom 2023. godine Raskrinkavanje je pisalo i o viralnim fotografijama koje su predstavljene kao stvarne, dok se u stvarnosti radilo o kreacijima vještačke inteligencije (AI). Jedan od primjera je fotografija na kojoj su navodno navijači Atletico Madrida razvili veliku palestinsku zastavu na stadionu. Osim što je iz samog kluba opovrgnuto da se radi o autentičnoj fotografiji, uočene su i različite nepravilnosti na njoj, kao što je neprirodan oblik ruku navijača. Alat za detekciju AI fotografija procijenio je da je vjerovatnoća da je fotografija generisana vještačkom inteligencijom 99,9%.

Na društvenoj mreži Twitter (sada X) objavljena je fotografija na kojoj se navodno nalazi osnivač Wikileaksa, urednik i novinar Julian Assange. Vlasnik Twitter/X naloga potvrdio je za Associated Press da je fotografija napravljena uz pomoć vještačke inteligencije, a prema njegovim riječima, cilj objave ove fotografije bio je podizanje svijesti javnosti o slučaju Juliana Assangea, kojem je nakon hapšenja “bilo praktički zabranjeno pojavljivanje u javnosti”. 

Viralne su bile i fotografije navodnog hapšenja američkih političara/ki - predsjednika Sjedinjenih Američkih Država Joea Bidena, bivše američke državne sekretarke Hillary Clinton i predsjedavajuće Zastupničkog doma američkog Kongresa Nancy Pelosi. Fotografije su nastale u okviru “trenda” na društvenoj mreži Twitter/X, gdje se uz pomoć AI tehnologije kreiraju slike u kojima se bivši američki predsjednik Donald Trump prikazuje u različitim fiktivnim situacijama.

Ove fotografije objavljene su i na jednom od Facebook profila teoretičarke zavjere Vesne Ćurguz. Opis o Trumpovoj “pobjedi” u njenoj objavi, u kojoj je podijelila pomenute fotografije, sugerišući da se radi o stvarnoj situaciji, upućuje na to da je ovaj sadržaj objavljen u kontekstu QAnon teorije zavjere. Shodno navedenim činjenicama, objava ovih fotografija ocijenjena je kao lažna vijest, ali i kao teorija zavjere.

Neki/e korisnici/e društvenih mreža dijelili/e su tokom 2023. godine snimak napravljen uz pomoć vještačke inteligencije u kojem Elon Musk “govori” da je “iz Šipova”. Podsjećamo, naš partnerski portal Fake News Tragač (FNT) iz Srbije bavio se raskrinkavanjem sličnog snimka te su primijetili “dva providna kvadrata koja se miču saglasno s Maskovom mimikom, jedan u visini očiju, a drugi u visini usta”, te “zamagljen pokret usta koji je čest na lažnim AI snimcima”. Usporedbom se vidi da je isti snimak korišten za pravljenje i videa u kome Musk “priznaje” da je “iz Republike Srpske”.

Autorka: Amina Izmirlić Ćatović

(Raskrinkavanje.ba)