ChatGPT na ‘mukama’: regulatorni problemi u Europi

ChatGPT
Foto: iStock

U jeku pojačavanja zabrinutosti oko umjetne inteligencije, ChatGPT bi se uskoro mogao suočiti s masovnim zabranama u Europi.

Tekst se nastavlja ispod oglasa

Chatbot po kojem funkcionira ChatGPT posljednja je senzacija tehnologije umjetne inteligencije, no nedavno je zabranjen u Italiji zbog mogućeg kršenja europskog pravilnika o privatnosti, odnosno GDPR-a. Talijanska zabrana mogla bi biti samo početak problema za ChatGPT. Naime, vladama diljem Europe ChatGPT smeta jer se sve učestalije koristi za cyber kriminal, različite vrste prijevara pa čak i varanje na testovima, piše Politico.

>Italija do daljnjega zabranila alat umjetne inteligencije ChatGPT

Ključna pogreška

OpenAI, organizacija koja je zaslužna za ChatGPT, počinila je ključnu pogrešku. Budući da nemaju lokalno sjedište ni u jednoj od 27 zemalja EU, bilo koje tijelo koje je nadležno za zaštitu podatka pojedine zemlje članice može pokrenuti istrage i provesti zabrane.

Tekst se nastavlja ispod oglasa

Prethodno se Google suočio s kaznom od 50 milijuna eura zbog kršenja GDPR-a u Francuskoj. Kazna je izrečena prije nego što je američki tehnološki div formalno centralizirao svoju europsku pravnu postavu u Irskoj. TikTok se također suočio s nekoliko istraga o privatnosti i kaznama nizozemskih, talijanskih i francuskih vlasti prije nego što je legalno otvorio trgovinu u Irskoj 2021.

>Australski gradonačelnik priprema prvu tužbu za klevetu zbog ChatGPT sadržaja

Europska regulatorna tijela 

Europski regulatori podataka razmatraju svoje sljedeće korake kako bi ispitali navodnu zlouporabu poput svojih talijanskih kolega.

Tekst se nastavlja ispod oglasa

Glasnogovornik Graham Doyle izjavio je da će Irska komisija za zaštitu podataka “surađivati sa svim EU tijelima za zaštitu podataka u vezi s ovim pitanjem”. Iz belgijskog odreda za zaštitu podataka potvrđuju da bi se o potencijalnim kršenjima ChatGPT-a “trebalo raspravljati na europskoj razini.”

Francusko tijelo za zaštitu podataka CNIL primilo je najmanje dvije pritužbe protiv ChatGPT-a, temeljene na kršenju privatnosti i GDPR-a.

U Norveškoj još nije pokrenuta istraga o ChatGPT-u, no nije isključena u budućnosti. Izjavio je to Tobias Judin, voditelj Datatilsynet-a, međunarodnog regulatornog tijela za zaštitu podataka.

Tekst se nastavlja ispod oglasa

>Beck: ChatGPT uvjerljivo citira nepostojeće knjige – jako će to pomoći istinitom i angažiranom istraživačkom novinarstvu u budućnosti 

>Musk, Wozniak i dr. pozivaju na 6 mjeseci pauze u razvoju umjetne inteligencije zbog rizika

Pravilnik EU-a možda dolazi prekasno da bi se spriječila šteta

Pitanja privatnosti nisu jedini razlog zabrinutosti oko ChatGPT-a.

Krajem ožujka mladi Belgijac počinio je samoubojstvo nakon tjedana razgovora s chatbotom Elizom. Prošli mjesec, tehnološki mogul Elon Musk zajedno s tisućama stručnjaka za umjetnu inteligenciju pozvao je na pauzu u razvoju ChatGPT-a zbog “značajnih rizika za čovječanstvo”.

Tekst se nastavlja ispod oglasa

U SAD-u, Centar za umjetnu inteligenciju i digitalnu politiku pozvao je američku Saveznu komisiju za trgovinu da istraži OpenAI i blokira daljnja izdanja programa.

U Bruxellesu, organizacija za zaštitu potrošača BEUC pozvala je europske i nacionalne regulatore da istraže ChatGPT, upozoravajući da nadolazeći pravilnik EU-a o umjetnoj inteligenciji možda dolazi prekasno da bi se spriječila šteta.

Europski zakonodavci također pregovaraju o pravnim okvirima tehnologije u sklopu nacrta Zakona o umjetnoj inteligenciji EU-a.

Regulatori zaštite podataka postaju regulatori umjetne inteligencije

Nedostatak zakona o umjetnoj inteligenciji ohrabrio je regulatore za zaštitu podataka da uskoče.

“Regulatori zaštite podataka polako shvaćaju da su regulatori umjetne inteligencije”, kazala je Gabriela Zanfir-Fortuna iz organizacije Future of Privacy Forum.

Regulatori privatnosti provode GDPR, uključujući njegova pravila o prikupljanju podataka i zaštiti korisnika od automatiziranog donošenja odluka. Tvrtke poput OpenAI-a moraju imati pravnu osnovu za prikupljanje i korištenje osobnih podataka, biti transparentne u pogledu načina na koji koriste podatke ljudi, održavati točnost osobnih podataka i davati ljudima pravo na ispravak.

OpenAI nikada nije otkrio skup podataka korištenih za treniranje 

OpenAI nikada nije otkrio koji je skup podataka koristio za treniranje modela umjetne inteligencije koji su u osnovi ChatGPT-ja. Čak su i istraživači u Microsoftu, koji je glavni investitor OpenAI-ja, u nedavnom znanstvenom radu izjavili da nisu imali pristup svim detaljima golemih podataka korištenih u obuci ChatGPT-a.  Prethodno je tvrtka za prepoznavanje lica Clearview AI kažnjena zbog korištenja slika Talijana, Francuza i Britanaca za uzradu svog algoritma bez pravne osnove za to.

Činjenica da je ChatGPT krajem ožujka počinio povredu osobnih podataka i otkrio korisničke razgovore i podatke o plaćanju svojih korisnika, samo povećava njegove nevolje.

Talijanska odluka da zaustavi ChatGPT je “poziv na buđenje”, rekla je Dessislava Savova, odvjetnica specijalizirana za tehnologiju u odvjetničkoj tvrtki Clifford Chance. “To će zapravo pokrenuti dijalog u Europi i ubrzat će zauzimanje stajališta drugih regulatora”.

Tekst se nastavlja ispod oglasa
Podržite nas! Kako bismo Vas mogli nastaviti informirati o najvažnijim događajima i temama koje se ne mogu čitati u drugim medijima, potrebna nam je Vaša pomoć. Molimo Vas podržite Narod.hr s 10, 15, 25 ili više eura. Svaka Vaša pomoć nam je značajna! Hvala Vam! Upute kako to možete učiniti možete pronaći OVDJE

Sukladno članku 94. Zakona o elektroničkim medijima, komentiranje članaka na web portalu i društvenim mrežama Narod.hr dopušteno je registriranim korisnicima. Čitatelj koji želi komentirati članke obavezan se prethodno upoznati sa Pravilima komentiranja na web portalu i društvenim mrežama Narod.hr te sa zabranama propisanim člankom 94. stavak 2. Zakona o elektroničkim medijima.