
Bivši istraživač sigurnosti u OpenAI-u Steven Adler izrazio je ozbiljnu zabrinutost zbog ubrzanog razvoja umjetne inteligencije (AI), upozoravajući da industrija preuzima "veoma rizičan ulog" s ovom tehnologijom.
Adler, koji je napustio OpenAI u novembru prošle godine, objavio je niz postova na platformi X u kojima je naveo da je imao “nevjerovatno iskustvo” u američkoj kompaniji, ali i da ga brine budućnost čovječanstva zbog sve bržeg tehnološkog napretka.
“Prilično sam prestravljen brzinom kojom se AI razvija ovih dana”, napisao je Adler. “Kada pomislim o tome gdje bih mogao podizati buduću porodicu ili koliko bih trebao uštedjeti za penziju, ne mogu da se ne zapitam: hoće li čovječanstvo uopće doći do te tačke?”
Posebno je istakao zabrinutost zbog razvoja opšte umjetne inteligencije (AGI) – hipotetičkog sistema sposobnog da obavlja intelektualne zadatke jednako dobro ili bolje od ljudi.
Stručnjaci su podijeljeni oko potencijalnih rizika razvoja napredne AI tehnologije. Dok neki, poput dobitnika Nobelove nagrade Geoffreyja Hintona, upozoravaju da bi moćni AI sistemi mogli izmaći ljudskoj kontroli s katastrofalnim posljedicama, drugi, poput glavnog AI naučnika kompanije Meta Yanna LeCuna, tvrde da bi AI mogao čak i “spasiti čovječanstvo od izumiranja”.
Adler je naglasio da OpenAI i druge istraživačke laboratorije još uvijek nemaju rješenje za “usklađivanje AI-a s ljudskim vrijednostima” i upozorio da industrija možda ide prebrzo da bi pronašla odgovarajuće sigurnosne mjere.
“Što se AGI utrka više ubrzava, to je manje vjerovatno da će iko pronaći rješenje na vrijeme”, upozorio je.
Do objave je došlo u trenutku kada kineska kompanija DeepSeek, koja također nastoji razviti AGI, izaziva zabrinutost u američkoj tehnološkoj industriji predstavljanjem modela koji može konkurisati OpenAI-ovom, uprkos tome što je razvijen s manje resursa.
Adler je ocijenio da se industrija nalazi u “vrlo lošem stanju” i naglasio potrebu za pravim sigurnosnim regulativama.
“Čak i ako neka laboratorija zaista želi razvijati AGI na odgovoran način, druge mogu zaobići sigurnosne mjere kako bi sustigle konkurenciju – što bi moglo imati katastrofalne posljedice”, zaključio je Adler, prenosi Guardian.
╰┈➤ Program N1 televizije možete pratiti UŽIVO na ovom linku kao i putem aplikacija za Android|iPhone/iPad, pridružite nam se i na WhatsApp kanalu klikom ovdje
Kakvo je tvoje mišljenje o ovome?
Budi prvi koji će ostaviti komentar!