
Evropskoj uniji će trebati najmanje još jedna godina da shvati kako da iskoristi svoj moćni digitalni zakon kako bi obuzdala rizike ChatGPT-a.
Upotreba chatbota zasnovanog na vještačkoj inteligenciji je uzela maha u Evropi, a OpenAI je ovog mjeseca objavio da je prešao važan prag za regulatornu kontrolu. Vijest da više od 120 miliona ljudi koristi funkciju pretraživanja ChatGPT-a svakog mjeseca nije iznenadila Evropsku komisiju, rekla su dva zvaničnika za POLITICO.
Ipak, regulatori još nisu shvatili kako da se nose sa ChatGPT-om u okviru moćnog Zakona EU o digitalnim uslugama koji je na snazi od početka 2024. godine, kako bi osigurali da platforme minimiziraju svoje rizike. Očekuje se da će odluka biti donesena tek sredinom 2026. godine, prema riječima visokog zvaničnika Komisije.
To je test sposobnosti EU da se nosi s rizicima koje predstavljaju veliki jezički modeli, koji brzo postaju sveprisutni u životima ljudi kao i tradicionalni pretraživači, piše Politico.
Tromost odražava činjenicu da je vodeći digitalni zakon osmišljen prije nego što je ChatGPT postao popularan, a njegove definicije ne pokrivaju u potpunosti AI chatbotove - što dovodi Brisel u opasnost da zaostane u rješavanju ovih rizika, čak i kada oni dođu u fokus.
OpenAI je nedavno priznao da 1,2 miliona ljudi svake sedmice vodi razgovore sa ChatGPT-om koji sugerišu da planiraju da sebi oduzmu život, te da se "u nekim rijetkim slučajevima model možda neće ponašati kako je predviđeno u ovim osjetljivim situacijama".
"Za industriju naviknutu na dobrovoljne okvire za sigurnost umjetne inteligencije i samodefinirane kriterije, pravno obavezujući režim dubinske analize Zakona o digitalnim uslugama (DSA) mogao bi biti teška provjera realnosti", rekao je Mathias Vermeulen, direktor briselske advokatske i konsultantske agencije AWO.
"OpenAI će morati značajno unaprijediti svoju igru i neće se moći izvući s jednostavnim kopiranjem/lijepljenjem onoga što trenutno radi", dodao je.
Kompanija nije odgovorila na kritike, već je umjesto toga uputila na svoje stranice za online pomoć za informacije o tome kako se kompanija pridržava DSA-a. Također je napomenula da se brojka od 120 miliona odnosi na ljude koji koriste mogućnosti pretraživanja ChatGPT-a, a ne na cijelu uslugu.
Koliko široko ići
ChatGPT je već regulisan Zakonom EU o umjetnoj inteligenciji. Od augusta mora procijeniti rizike i ublažiti ih, riskirajući kazne do 15 miliona eura ako se ne pridržava propisa.
Ali broj korisnika sada stavlja chatbota u veliku ligu, znatno iznad praga od 45 miliona mjesečnih korisnika za velike platforme i pretraživače u okviru DSA-a.
Kada potpadne pod DSA, riskira kazne do 6 posto svog godišnjeg globalnog prometa.
ChatGPT nije bio "predviđen" Zakonom o uslugama upravljanja informacijama (DSA), ali "odgovara jeziku zakona", rekao je Martin Husovec, profesor prava na Londonskoj školi ekonomije.
Prema strukturi zakona, EU označava stranice kao vrlo velike online platforme i pretraživače - takozvane VLOP-ove ili VLOSE-ove - koje moraju ispunjavati najstroža pravila.
"Ključno pitanje“ je obim oznake za ChatGPT, rekao je Joris Van Hoboken, profesor prava koji se fokusira na upravljanje vještačkom inteligencijom na Slobodnom univerzitetu u Briselu.
Komisija bi mogla suziti izbor na funkcionalnosti pretraživanja ChatGPT-a, klasificirati ga kao pretraživač ili otvoriti okvir za cijelu ponudu - bilo kao platformu ili uslugu.
Koji se zahtjevi postavljaju pred OpenAI i kako ih on može ispuniti uveliko zavise od odluke Komisije.
OpenAI će morati shvatiti koliko su ozbiljni rizici koje predstavlja njegov chatbot - uključujući rizike za izbore i javno zdravlje. Morat će ih ublažiti i obavijestiti Komisiju u opširnom izvještaju o usklađenosti. Što je šira oznaka, to širi izvještaj mora biti.
Ove procjene rizika uključuju "dizajn njihovih sistema preporuka i bilo kojeg drugog relevantnog algoritamskog sistema", prema zakonu DSA. To bi moglo biti teško ako se Komisija fokusira na cijeli model velikih jezika koji je u osnovi ChatGPT-a i njegovih odgovora, umjesto na uži fokus na sadržaj pretrage koji se poslužuje korisnicima.
Uska definicija bi također mogla spasiti OpenAI od jedne obaveze: Kao pretraživač, ne bi morao pružati mehanizam za obavještavanje i djelovanje koji korisnicima omogućava da prijave sadržaj za uklanjanje.
Ako se oznaka izvrši sredinom 2026. godine, to znači da bi DSA zahtjevi pogodili OpenAI u posljednjem kvartalu sljedeće godine.
OpenAI bi također mogao osporiti tu oznaku, kao što su druge platforme neuspješno učinile u prošlosti, rekao je João Pedro Quintais, vanredni profesor informacionog prava na Univerzitetu u Amsterdamu. Svako neslaganje bi dodatno produžilo proces.
Previše zakona?
Ključna pitanja ostaju o tome kako se dva glavna zakona koja se bave umjetnom inteligencijom i platformama preklapaju.
Zakon o umjetnoj inteligenciji i DSA su osmišljeni da koegzistiraju u slučajevima kada je umjetna inteligencija integrirana u digitalne usluge, kao što su Googleovi AI Overviews, rekao je Quintais. Nisu osmišljeni imajući na umu takozvane vertikalno integrirane pružatelje umjetne inteligencije poput OpenAI-a.
Dva zakona se zasnivaju na dva različita okvira rizika. Platforme moraju procijeniti pod koje kategorije rizika spadaju i prilagoditi svoje usluge na odgovarajući način.
Ovi okviri rizika nisu savršeno usklađeni; Zakon o umjetnoj inteligenciji kaže da modeli moraju biti klasifikovani kao neprihvatljivi, visoki, ograničeni ili minimalni ili nikakvi rizici. Platforme i pretraživači moraju utvrditi i ublažiti četiri vrste „sistemskih rizika“, kao što su građanski integritet, izbori, javno zdravlje i temeljna prava.
Ali prema Zakonu o umjetnoj inteligenciji, pretpostavlja se da su funkcije integrirane u VLOPSE-ove, kao što su Googleovi AI pregledi, u skladu s pravilima umjetne inteligencije ako podnesu DSA procjene.
To znači da neke aspekte regulacije - na primjer, dezinformacije i deepfakeovi - "preuzima DSA", rekao je Quintais, dok drugi rizici, na primjer, korištenje ChatGPT-a u procesima zapošljavanja, ostaju unutar Zakona o umjetnoj inteligenciji.
Moguće je da postoje praznine u načinu na koji kompanija procjenjuje rizik svojih usluga jer se ta dva okvira ne usklađuju u potpunosti, rekao je Quintais.
Kompanija bi također mogla imati koristi od onoga što je poznato kao zakoni o sigurnoj luci, prema kojima platforme i pretraživači nisu odgovorni za sadržaj objavljen na njima, dodao je.
╰┈➤ Program N1 televizije možete pratiti UŽIVO na ovom linku kao i putem aplikacija za Android /iPhone/iPad
Kakvo je tvoje mišljenje o ovome?
Učestvuj u diskusiji ili pročitaj komentare