Raskrinkavanje.ba

2024. u retrospektivi: Vještačka inteligencija i dezinformacije

Borba protiv dezinformacija u protekloj godini bila je dodatno komplikovana zbog značajno intenzivnijeg dijeljena “deepfake” snimaka i drugih sadržaja nastalih upotrebom vještačke inteligencije, koji su iskorišteni za obmanjivanje javnosti i širenje lažnih informacija.

Foto: Raskrinkavanje.ba

Sve veća dostupnost i učestalija primjena vještačke inteligencije (eng. artificial intelligence – AI) donosi značajne mogućnosti za olakšavanje i unapređenje svakodnevnih aktivnosti. Poseban interes javnosti privlači generativna vještačka inteligencija, koja, zahvaljujući učenju iz velikih baza podataka, ima sposobnost samostalnog stvaranja teksta, fotografija i videozapisa. Poznati primjeri alata koji koriste ovu tehnologiju uključuju chat botove, poput ChatGPT-a, i lične asistente kao što je Googleov Gemini.

Iako je još uvijek nesagledivo koje sve koristi upotreba vještačke inteligencije može donijeti u medicini, nauci i svakodnevnom životu, očigledno je da njen potencijal može biti zloupotrijebljen. Jedan od očitih primjera takve zloupotrebe jesu “deepfake” videosnimci, koji su često toliko uvjerljivi da ih je teško razlikovati od autentičnog sadržaja. Kroz ovaj i slične primjere zloupotrebe, vještačka inteligencija olakšala je širenje dezinformacija i narušavanje integriteta informacija u javnom prostoru. 

U ovom pogledu unazad na rad Raskrinkavanja u 2024. godini donosimo najučestalije i najzanimljivije primjere dezinformacija u kojima je korištena vještačka inteligencija.

Vještačka inteligencija i paralelna stvarnost

Napad muškarca na policijsku stanicu koji se u oktobru desio u Bosanskoj Krupi, koji je okarakterisan kao teroristički čin, izazvao je veliku pažnju javnosti. Izvještavanje o napadu, u kojem je jedan policajac ubijen, a drugi povrijeđen, pratile su različite dezinformacije. 

Jedna od njih bila je i fotografija hapšenja grupe muškaraca, koja se dijelila uz tvrdnje da prikazuje hapšenje u vezi s napadom na policijsku stanicu. Muškarci na fotografiji imali su lisice na rukama i bili su okruženi naoružanim pripadnicima SIPA-e (Državne agencije za istragu i zaštitu). Imali su odjeću karakterističnu za pripadnike selefijskog pokreta, a pored njih su bili predmeti i oružje pronađeni prilikom hapšenja. Pored ove, dijelilo se još nekoliko sličnih fotografija.

Međutim, sve te fotografije djelo su vještačke inteligencije, što je pokazala analiza Raskrinkavanja i drugih fact-checking portala. Više o tome u tekstu ispod. 

 

Vjerodostojnost navoda da je supruga predsjednika Ukrajine Volodimira Zelenskog, Olena Zelenska, postala vlasnica skupocjenog automobila Bugatti Tourbillon pokušavala se dokazati na internetu fotošopiranom fakturom i “svjedočenjem” radnika autosalona u kojem je vozilo navodno kupljeno. Zelenska nije vlasnica navedenog automobila, a videosnimak svjedočenja djelo je vještačke inteligencije. Detalji se nalaze u analizi ispod. 

 

“Deepfake” snimci za prevarnu promociju proizvoda

U najdominantnije manipulacije nastale korištenjem vještačke inteligencije ove godine ubrajaju se “deepfake” videosnimci. Riječ je o neautentičnim snimcima u kojima su zloupotrijebljene poznate ličnosti i medicinski autoriteti za promociju različitih proizvoda koji navodno olakšavaju tegobe i liječe neke od učestalih bolesti. 

Pojedine javne ličnosti su za ove svrhe zloupotrebljavane više puta. Tako je, recimo, srbijanska doktorica Danica Grujičić u “deepfake” snimcima “promovisala” preparat za dijabetes DiaTrust, a bila je i “pretučena” zbog promocije proizvoda protiv visokog pritiska Hypercaps i HyperFlow.

Neurohirurg Kemal Dizdarević nije bio pošteđen krađe identiteta za prodaju preparata Okulis za vid te otkriće neimenovanog lijeka protiv hipertenzije, zbog kojeg je navodno bio napadnut, kao i Grujičić. Senad Hadžifejzović je kao novinar i javna ličnost također više puta iskorišten za promociju sličnih proizvoda. S doktorom Dizdarevićem “preporučivao je” Okulis, s doktorom Emirom Jahićem HyperFlow, a dodatno i “lijek” protiv hemoroida Hemocare

Pjevači i pjevačice Konstrakta, Ana Bekuta i Dino Merlin, te manekenka Amra Silajdžić, također su bili žrtve sličnih prevarnih “deepfake” snimaka. Kulminacija manipulacija nastalih uz pomoć vještačke inteligencije desila se na marginalnoj Facebook stranici US Home, na kojoj je objavljen niz “deepfake” snimaka s Danicom Grujičić, Senadom Hadžifejzovićem i Emirom Jahićem, kao i nekoliko fotošopiranih fotografija s pjevačicom Lepom Brenom. U ovim primjerima, pak, nije bilo jasnih naziva “lijekova” koji su promovisani.

 

“Deepfake” snimci u drugim kontekstima 

Osim za manipulativnu promociju proizvoda, “deepfake” videosnimci korišteni su i za naizgled šaljive sadržaje, prevare i namjerno širenje dezinformacija. U ovim primjerima ističe se YouTube kanal Crna Hronika TV, na kojem je objavljen niz videosnimaka koji podsjećaju na informativni televizijski program. “Voditeljica” je na svim snimcima izgledala identično i nalazila se u istom “studiju”. Pokreti njenih usana nisu odgovarali govoru koji se čuje na snimcima, pa se moglo zaključiti da je sama “voditeljica” proizvod vještačke inteligencije koji automatski “izgovara” tekst. Među dezinformacijama koje su popularizovane ovim putem našle su se neutemeljene tvrdnje o nestanku djevojčice Danke Ilić u Srbiji. Više o tome u analizi ispod. 

Humoristični “deepfake” o navodnom ekološkom ratovanju, napravljen tako da izgleda kao da aktivistkinja Greta Thunberg promoviše upotrebu “veganskih bombi” i “biorazgradivih projektila” u programu BBC-a, dijelio se na Facebooku bez navoda da video, ustvari, nije autentičan.

 

Na društvenim mrežama dijelio se i snimak koji navodno prikazuje poljubac francuskog predsjednika Emmanuela Macrona s drugim muškarcem. Kadrovi iz ove “deepfake” kreacije objavljeni su i uz tvrdnje da je predsjednik Francuske “orgijao” na brodu s muškarcima. O tome smo pisali u analizi koja se nalazi na linku ispod. 

 

Na društvenoj mreži TikTok napravljen je lažni profil pjevačice Marije Šerifović s nizom videosnimaka u kojima ova pjevačica navodno poklanja kuće, novac i automobili. U čak petnaest videosnimaka objavljenih do pisanja analize Raskrinkavanja, Šerifović je poručivala korisnicima/ama TikToka da učestvuju u takmičenju i osvoje 20.000 eura tako što će zaustaviti pokretnu sličicu na snimku, a potom “registrovati svoje ime” preko linka iz opisa profila. Nekoliko indikatora upućivalo je na to da je riječ o “deepfake” snimku, ali je vjerovatno najupečatljiviji bio akcenat kojim je Šerifović navodno govorila, koji više odgovara makedonskom nego srpskom govornom području. 

 

(Raskrinkavanje.ba)