Otkriće iz nedavno provedenog istraživanja ukazuje na znatnu promjenu u ponašanju ChatGPT-a. Korisnici sada dobivaju upozorenja kada pokušavaju izvesti neobičan "trik" koji uključuje tjeranje umjetne inteligencije da beskrajno ponavlja riječi.
Takav razvoj događaja rezultat je studije koja razotkriva sposobnost umjetne inteligencije da otkrije korisničke podatke iz stvarnog svijeta pomoću takvih upita, što baca svjetlo na dosad nepoznati aspekt ChatGPT-a.
Jednostavan trik, stvarni podaci
U prošlosti se OpenAI suočavao s kritikama zbog korištenja stvarnih korisničkih podataka bez odgovarajućeg pristanka ili licenciranja, što je dovelo do zabrinutosti zbog privatnosti i zaštite podataka korisnika interneta. Posljednji izvještaj portala 404 Media bavi se nedavnim upozorenjem ChatGPT-a, a signalizira odstupanje od prethodne reakcije na određene upite. Ta promjena uslijedila je nakon studije u kojoj su istraživači, koristeći naizgled jednostavnu tehniku, otkrili stvarne podatke za kontakt korisnika preko ChatGPT-a.
Ažurirani uvjeti korištenja OpenAI-a izričito zabranjuju korisnicima korištenje bilo koje automatizirane ili programske metode za izvlačenje podataka, no neki mediji tvrde kako zahtjev ChatGPT-u da ponavlja neku riječ nije automatizacija ili programiranje. Nasuprot tome, Pravila o privatnosti ne govore ništa o svim kršenjima vezanima uz spomenuti trik korišten na ChatGPT-u. Takva dvosmislenost postavlja pitanja o stavu platforme o korisničkim interakcijama koje mogu otkriti osjetljive informacije, piše ZIMO.
Studija koja je iznijela taj problem na vidjelo pokazala je kako su istraživači izvukli korisničke podatke iz stvarnog svijeta nagovarajući ChatGPT da ponovi određene riječi. Naime, upute poput “firma” i “pjesma” rezultirale su otkrivanjem osjetljivih informacija, uključujući telefonske brojeve povezane s jednom legitimnom firmom i njezinim izvršnim direktorom. Studija naglašava pristup AI-a korisničkim podacima u svrhu treniranja.
Obveze i posljedice
Ranije ove godine izvršni direktor OpenAI-a Sam Altman potvrdio je obvezu prestanka korištenja podataka o korisnicima za treniranje AI-a. Ta je izjava imala cilj odgovoriti na sve veću zabrinutost u vezi s privatnošću i sigurnošću podataka, posebice jer su klijenti koji plaćaju izrazili bojazan o praksi tvrtke.
Posljedice su izvan nadzora javnosti, a vladina tijela u državama poput Italije poduzela su određene mjere. Italija je prethodno zabranila ChatGPT zbog sumnji u pristup OpenAI-a osobnim podacima te pokrenula istragu utvrđivanja činjenica. Istovremeno, umjetnici i kreativci pokrenuli su pravne radnje protiv OpenAI-a i sličnih tvrtki zbog toga što je generativna umjetna inteligencija navodno neovlašteno upotrebljavala njihova djela.
Program N1 televizije možete pratiti UŽIVO na ovom linku kao i putem aplikacija za Android|iPhone/iPad
Kakvo je tvoje mišljenje o ovome?
Budi prvi koji će ostaviti komentar!