Oglas

AI sve češće griješi

Zašto umjetna inteligencija tvrdi da je fotografija mezara ubijenih iranskih učenica lažna, iako nije?

author
Guardian
17. mar. 2026. 13:33
mezari djevojcice iran
Iranian Foreign Media Department/WANA (West Asia News Agency)/Handout via REUTERS / Iranian Foreign Media Department

Fotografija svježe iskopanih mezara u iranskom gradu Minabu, gdje je prema navodima lokalnih vlasti pripremana sahrana više od 100 djevojčica poginulih u američko-izraelskom napadu, postala je jedna od najupečatljivijih slika rata protiv Irana. No, kada su korisnici pokušali provjeriti njenu autentičnost pomoću alata umjetne inteligencije, dobili su samouvjerene - ali pogrešne - odgovore da slika uopće nije iz Irana.

Oglas

Kako piše Guardian, Googleov Gemini tvrdio je da fotografija prikazuje masovnu grobnicu nakon razornog zemljotresa u Turskoj 2023. godine, dok je Grok, AI alat mreže X, naveo da je riječ o arhivskoj fotografiji ukopa žrtava covida u Indoneziji iz 2021. godine. Oba alata nudila su i navodne “izvore”, ali su se linkovi pokazali kao nepostojeći ili nepovezani sa samom fotografijom.

Istraživači su, međutim, utvrdili da je slika autentična. Lokacija je potvrđena satelitskim snimcima, dodatnim fotografijama snimljenim iz drugih uglova i videosnimcima, a stručnjaci nisu pronašli tragove digitalne manipulacije. Problem, kažu, nije u ovoj jednoj slici, već u tome što se lažne ili halucinirane AI “provjere činjenica” sve češće ubacuju u informacijski haos rata.

AI sve češće griješi, ali zvuči uvjerljivo

Stručnjaci upozoravaju da savremeni AI alati često ne “provjeravaju” sadržaj na način kako to rade ljudi, već generiraju odgovor koji zvuči najvjerovatnije i najuvjerljivije. Zato mogu dati detaljne, samopouzdane i potpuno pogrešne odgovore - uključujući izmišljene lokacije, datume i izvore.

Novinar BBC Verifyja Shayan Sardarizadeh kaže da generativna umjetna inteligencija sada čini gotovo polovinu, a ponekad i više, svih viralnih dezinformacija koje njegov tim provjerava. Dok su ranije dominirali stari snimci ili kadrovi iz videoigara, danas je sve više lažnih fotografija i videa generiranih AI-em – ali i pogrešnih “analiza” koje proizvode sami chatbotovi.

Međunarodna studija iz 2025. pokazala je da je oko polovine AI sažetaka sadržavalo barem jedan ozbiljan problem s tačnošću ili izvorima, a kod nekih alata, uključujući Gemini, taj udio je bio i znatno veći.

Stvarni zločini proglašeni “lažnim”

Za istražitelje ratnih zločina i civilnih žrtava to postaje ozbiljan problem. Umjesto da vrijeme troše na dokumentovanje napada i identifikaciju odgovornosti, sve češće moraju prvo pobijati lažne AI tvrdnje.

Još je opasnija posljedica to što se kod publike stvara sumnja da su i stvarni dokazi možda lažni. Stručnjaci upozoravaju da bi, kako AI alati postaju uvjerljiviji, snimci stvarnih zločina mogli biti sve lakše odbačeni kao “fake” ili “AI”.

Za porodice žrtava, to nije samo tehnički problem.

Zamislite da izgubite dijete, a onda gledate kako ljudi koriste umjetnu inteligenciju da tvrde da se to nikada nije dogodilo“, rekao je istražitelj Chris Osieck. „To nije samo prepreka za istrage. To je duboko nepoštovanje prema ljudima koji tuguju“.

╰┈➤ Program N1 televizije možete pratiti UŽIVO na ovom linku kao i putem aplikacija za Android /iPhone/iPad

Više tema kao što je ova?

Kakvo je tvoje mišljenje o ovome?

Učestvuj u diskusiji ili pročitaj komentare

Pratite nas na društvenim mrežama