Četbotovi i zaštita podataka o ličnosti – nedavni slučaj iz Italije

Četbotovi i zaštita podataka o ličnosti – nedavni slučaj iz Italije

5. maj 2023.

Nakon što je italijansko regulatorno telo za zaštitu podataka o ličnosti nedavno izreklo privremenu meru zabrane viralne ChatGPT aplikacije zbog nezakonite obrade podataka o ličnosti od strane OpenAI, startap kompanije koja je razvila predmetnu platformu, aktuelizovano je pitanje zaštite podataka o ličnosti u kontekstu korišćenja veštačke inteligencije.

Šta su četbotovi?

Četbotovi predstavljaju softvere za onlajn komunikaciju i interakciju sa korisnicima, koji funkcionišu bez angažovanja ljudskog faktora.

Naime, reč je o naprednoj tehnologiji koja koristi u potpunosti automatizovane procese, odnosno ostvaruje komunikaciju sa korisnicima putem pisanja ili izgovaranja određenih reči ili čak posredstvom drugih aplikacija instaliranih na mobilni telefon ili drugi uređaj. Četbotovi, dakle, predstavljaju virtuelne asistente, posredstvom kojih korisnici mogu da pribave određene informacije i usluge.

Slučaj iz Italije

U martu ove godine, italijanski organ za zaštitu podataka o ličnosti privremeno je blokirao korišćenje softvera za veštačku inteligenciju ChatGPT na teritoriji ove zemlje, zbog obrade podataka o ličnosti suprotno pravilima i načelima u ovoj oblasti, i to prvenstveno iz razloga nepostojanja odgovarajućeg osnova za masovno prikupljanje i skladištenje ličnih podataka, koji su potom korišćeni radi „obuke algoritama koji su u osnovi rada predmetne platforme“, kao i adekvatnog načina da se proveri starost korisnika, čime je aplikacija „izložila maloletnike apsolutno neprikladnim odgovorima u poređenju sa stepenom njihovog razvoja i svesti“.

Italijanski regulator je stoga naložio OpenAI kao rukovaocu da odmah prestane sa predmetnom obradom u odnosu na korisnike iz Italije, te da u roku od 20 dana podnese izveštaj o merama koje će preduzeti radi usklađivanja svog poslovanja sa GDPR, u protivnom može biti suočen sa novčanom kaznom u milionskom iznosu.

Od maja meseca, pomenuta aplikacija je ponovo dostupna korisnicima u Italiji, budući da je OpenAI u međuvremenu uveo neke nove mogućnosti i dodatne kontrole, tako što je korisnicima omogućio podnošenje zahteva za uklanjanje ličnih podataka u skladu sa GDPR, uveo alatku za verifikaciju starosti korisnika, te učinio javno dostupnim podatke o tome kako predmetna platforma obrađuje lične podatke.

Reč je, inače, o aplikaciji koja je u kratkom vremenskom periodu privukla milione korisnika, a koja je u mogućnosti da generiše tekst sličan čoveku i ima širok spektar primene, tj. može da odgovara na pitanja, piše eseje, prevodi tekstove, programira i slično.

Problematika veštačke inteligencije i zaštite podataka o ličnosti

Kao što nam je ovaj slučaj pokazao, upotreba četbotova i slične tehnologije implicira značajne rizike u pogledu zaštite podataka o ličnosti.

Naime, shodno definiciji sadržanoj u GDPR, ali i u domaćem Zakonu o zaštiti podataka o ličnosti, podatak o ličnosti podrazumeva ne samo direktne identifikatore određenog lica, tj. njegovog identiteta (kao što su ime i prezime ili mejl adresa), već i svaki drugi podatak koji se odnosi na fizičko lice, na osnovu kojeg je njegov identitet čak i posredno odrediv. Drugim rečima, podatak o ličnosti podrazumeva i sve one informacije čijim se kombinovanjem može utvrditi identitet određenog lica, a koji princip istovremeno čini okosnicu veštačke inteligencije.

Stoga se postavlja pitanje koliko je zapravo moguće pomiriti ove suštinski suprotstavljene interese, tj. uskladiti funkcionisanje aplikacija koje počivaju na ovakvim i sličnim principima sa načelima i drugim uslovima zakonitosti obrade podataka o ličnosti, prevashodno načelima zakonitosti, poštenja i transparentnosti, te integriteta i poverljivosti obrade.

Ovaj članak je isključivo informativne prirode i ne predstavlja pravni savet. Ukoliko su Vam potrebne dodatne informacije, budite slobodni da nas kontaktirate.