Lažni lijekovi su igra sa ljudskim životima: Žrtve su i javne ličnosti, a stradaju svi…

Zdravlje 23. okt 202307:36 1 komentar

Javne ličnosti u BiH postale su žrtve umjetne inteligencije, odnosno lažnih reklama u kojima prezentiraju proizvode opasne po zdravlje

Ako imate dijabetes i tražite izlječenje na brzinu kojekakvim nadriproizvodima, doktor Emir Solaković sigurno nema rješenje, kao što ni dr. Ismet Gavrankapetanović nema čarobni lijek za rast kose.

A takve vrste reklame vam nude lažne Facebook stranice, koje već odavno koriste javne ličnosti kao promotore proizvoda opasnih po zdravlje i to bez njihove dozvole. Sve se to radi uz pomoć umjetne inteligencije koja je sve više prisutna u virtuelnom svijetu, pa je običnom čovjeku teško razlučiti istinu od laži.

Lažni snimci

Tako je prije izvjesnog vremena doktor Emir Solaković “reklamirao” na društvenim mrežama nekakve čajeve i preparate za šećernu bolest, ovih dana doktor Ismet Gavrankapetanović “predstavlja” serum za rast kose, lik i glas pjevača Halida Bešlića su iskorišteni u reklami za proizvod za liječenje dijabetesa, a novinar Senad Hadžifejzović “ima” lijek za visoki pritisak, nečiste sudove…

Ustvari, to su lažni snimci intervjua na kojima oni govore o prednostima nekog “ljekovitog proizvoda”. Naravno, oni lakovjerni ili tehnološki neuki će povjerovati i misliti da su proizvodi dobri čim ih reklamiraju javne ličnosti, pogotovo doktori, pa će potrčati da ih kupe.

Žrtva deepfakea su bile brojne svjetske zvijezde, a iz regije Novak Đoković, dok ima i zbijanja šala, pa je Milorad Dodik pričao pohvalno o braći muslimanima

– I tu nastaje problem. I to ogroman, kaže za Oslobođenje doktor Emir Solaković.

On tvrdi da je ovakav način obmanjivanja javnosti svojevrsna vrsta rata u kojoj ljudi stradaju.

– Oni prodaju nešto što niko ne zna šta je i vi to odlučite da pijete, jer su javne ličnosti reklamirale. Znači, krenuli su otvoreno da ubijaju ljude. To su kriminalci. Govorim o našem narodu koji će stradati zbog lažnih proizvoda. To da je lijek, do njega bi se dolazilo kroz zdravstveni sistem, ističe on.

Tvrdi da prevaranti na internetu već godinama koriste slične metode za prodaju lažnih proizvoda, a nadležne institucije u Bosni i Hercegovini gotovo da nisu reagirale.

– Ja sam prije dvije godine, kad sam saznao za lažni video, otišao u MUP i predao prijavu, lično razgovarao sa inspektorima, lično zvao ministra bezbjednosti i on nije htio da digne slušalicu. Rekao sam da su životi u pitanju, ali čovjek nije htio da se javi. Inspektori su zaprimili prijavu i rekli da će poduzeti što je do njih, ali sve je to neka birokratija koja predugo traje. I dok ona traje, ljudi će stradati. Pošto mi “živimo” u Hutovom blatu, jedino rješenje je da ovo što govorim u medijima dođe do ljudi koji će pročitati novine, portal i onda prepričati drugima kakva se opasnost krije iza ovih lažnih reklama. Izgleda da drugog načina nema. Samo sami sebi možemo pomoći, da spasimo nevine ljude, da spasimo nevine živote od lažnih i ko zna kakvih proizvoda, tvrdi on.

I doktor Ismet Gavrankapetanović smatra da su ovakve zloupotrebe lica i glasa itekako opasne, posebno jer je riječ o neprovjerenim proizvodima koje ljudi koji ne znaju da su reklame lažne mogu kupiti.

– Već sam angažirao stručnjaka da prekine ovu zloupotrebu mog lika i glasa, govori nam.

Senad Hadžifejzović, čiji su lik i glas, također, zloupotrijebljeni, upozorava: “Ko to bude kupovao, neka mu je Bog na pomoći. Ne budite naivni!”

Halid Bešlić je, kako kaže za Oslobođenje, angažovao advokata.

– Ovo je nešto što je ne strašno, nego prestrašno. Mene su mnogi zvali i pitali kakvi su ti lijekovi, jesam li smanjio šećer, ma strašno. Uglavnom, angažovao sam pravni tim da poduzme sve korake koji su potrebni da se ovo riješi, ističe on.

I dok svako od njih bije bitku zbog (zlo)upotrebe njihovog lika i glasa, stalni sudski vještak informacijsko-tehnologijske struke Vahidin Đaltur tvrdi da korištenje deepfakea – ovog umjetno-inteligentnog sistema u većini zemalja nije zabranjeno osim kad se odnosi na dječiju pornografiju, klevetu i govor mržnje.

– Dodatni je problem što je izvor ovakve snimke, ukoliko su napravljene korištenjem profesionalne opreme, vrlo teško otkriti. Sistem umjetne inteligencije neprestano se popravlja i usavršava, te su lažni glasovi sve realističniji i teže ka tome da budu identična kopija originalom glasu. Vrlo brzo ćemo doći u situaciju da će vjerojatno samo druga umjetna inteligencija biti u stanju prepoznati lažne digitalne sadržaje koje je proizvela Deepfake AI, pojašnjava Đaltur.

Jedino rješenje je da ovo što govorim u medijima dođe do ljudi koji će pročitati novine, portal i onda prepričati drugima kakva se opasnost krije iza ovih lažnih reklama, ističe dr. Solaković

S obzirom na samu dostupnost i na moć koju mediji danas imaju na ljude, kaže da nas ne trebaju čuditi pokušaji manipulisanja informacijama.

– Od senzacionalističkih naslova (engl. clickbait), preko maliciozno “fotošopiranih” fotografija, do lažnih vijesti (engl. fake news). U zadnje vrijeme sve je popularniji i spomenuti alat zvani deepfake, koji spada u umjetnu inteligenciju. Šta je deepfake?

Umetanje riječi

To je grana mašinskog učenja, a ono spada u oblast umjetne inteligencije. Deepfake se bazira na nečemu što zovemo generative adversarial networks (GANs), odnosno generativne suparničke mreže. Algoritam GAN uključuje dvije odvojene umjetne inteligencije (Artificial Intelligence – AI), jednu koja generiše sadržaj – na primjer, generisani audiozapis – i drugu, “protivničku”, koja pokušava prepoznati da li je taj audiozapis realan ili lažni, tj. radi li se o pravim glasovima ili ne, objašnjava Đaltur.

Dodaje kako je pomoću ove tehnologije moguće umetnuti nove riječi u govor osobe koja priča u videu, tako da na kraju ispadne kako je rekla nešto što nije mislila reći.

– Dakle, relativno malim intervencijama se promijeni sadržaj poruke koju je osoba htjela poslati u javnost, tvrdi on.

Program N1 televizije možete pratiti UŽIVO na ovom linku kao i putem aplikacija za Android|iPhone/iPad

Kakvo je tvoje mišljenje o ovome?

Učestvuj u diskusiji ili pročitaj komentare