Pravna regulacija veštačke inteligencije u EU

FacebookLinkedinEmail
23.11.2023.
 Pravna regulacija veštačke inteligencije u EU
Veštačka inteligencija je do pre samo godinu dana bila budućnost, vizija o tehnologiji koja će jednog dana možda promeniti način na koji radimo i živimo.

Međutim, na zalasku 2022. godine, u svakodnevicu nam je neprimećeno ušetao servis pod nazivom ChatGPT i vrlo brzo postao glavna vest u tehnološkim, ali i mejnstrim medijima. I dok smo svi pokušavali da dokučimo kako je moguće da je tako nešto svima lako dostupno, već par meseci kasnije iz istraživačkog centra kompanije Open AI stigla je i unapređena, četvrta verzija tog servisa. Četvorka je u novembru 2023. dodatno unapređena mogućnostima, poput analiziranja PDF tekstualnih fajlova i slika, s mogućnošću prepoznavanja sadržaja i davanja pojašnjenja o tom sadržaju.

Ne moramo ići toliko daleko u nagađanjima šta će nova istrenirana peta generacija GPT-a, najavljena za decembar 2023, doneti jer je, nesumnjivo, i ova četvrta revolucionarna pojava vredna analize i promišljanja u pravcu šta i kako dalje. Svima je poznato da je GPT bez ikakvih problema prošao Tjuringov test, a položio i „zloglasni” pravosudni ispit u Sjedinjenim Američkim Državama.

Ne bih se bavio tehničkom analizom veštačke inteligencije (VI) odnosno četbota ChatGPT o čemu već pišu i pričaju ljudi kompetentni za te oblasti, ali ono što svakako mogu da dam sebi za pravo jeste da veštačku inteligenciju stavim u kontekst opasnosti koju ova tehnologija nosi i da se pozovem na uspostavljanje regulatornog okvira u kom će se njena primena ograničiti samo na one aspekte koji imaju dominantno pozitivno dejstvo na ljudski rod. Ako za takve propise nije već kasno…

Mnoge zemlje su zabranile ovaj četbot i on nije dostupan u okviru njihovih granica. Za neke je to možda političko odnosno pitanje zaštite sopstvenih interesa, dok se mogu naći primeri poput Italije, čiji je nadzorni organ za zaštitu podataka o ličnosti, iz straha za bezbednost građana, prilično impulsivno reagovao na pojavu ChatGPT-4 i odmah postavio pitanje privatnosti korisnika servisa, odnosno mogućnosti ostvarivanja prava na zaborav, ali i mera za ograničavanje pristupa neprimerenom sadržaju ili ograničavanje pristupa maloletnicima.

Nakon zabrane koja je trajala oko mesec dana, Open AI je prilagodio način pristupa servisu zahtevu italijanskog poverenika, ograničio je mogućnost pristupa i servis je postao dostupan u Italiji. ChatGPT takođe pogađa i autorskopravni problem potencijalnog kršenja autorskih prava trećih lica, na koja ukazuju drugi servisi. Mnogi od tih slučajeva već su završili na sudu, ali kako je reč o kršenju subjektivnih prava, o tome ćemo drugom prilikom.

Upozorenja stručnjaka na negativna dejstva VI prisutna su na dnevnom nivou, kao i pozivi da se što pre uspostave etičke i pravne norme koje će kanalisati razvoj ove tehnologije, u okviru koje je ChatGPT među bezbednijim servisima veštačke inteligencije kada je reč o riziku po prava ljudi.

Prateći ovaj nadolazeći trend razvoja veštačke inteligencije, Evropska komisija je odobrila radnu verziju Uredbe o veštačkoj inteligenciji, u javnosti nazvane AI Act. Ovaj nacrt upućen je Evropskom parlamentu na usvajanje, i odmah je prosleđen i na javnu raspravu, koja je u toku. Iako su etičke smernice za upotrebu veštačke inteligencije donete još pre nekoliko godina, ova Uredba je prvi veliki korak ka regulisanju upotrebe ovih tehnoloških sistema u Evropi, a svakako je među značajnijim globalno.

Novi akt EU na samom početku donosi nam i neophodnu, zvaničnu definiciju veštačke inteligencije, kako bi se izbegla tumačenja i nepreciznosti u vezi sa tim šta VI jeste, a šta nije. A Akt prilično široko postavlja stvari i pod tim pojmom podrazumeva softver sa jednom ili više tehnika i pristupa (poput mašinskog učenja, statistike i logike) koji, na osnovu parametara koje daje čovek, generiše rezultate u vidu sadržaja, predviđanja, preporuka ili odluka pod uticajem okoline sa kojom ima interakciju.

Među primarnim ciljevima akta VI jeste ukazivanje na rizike od veštačke inteligencije i tendencija da se oni kategorizuju na bazi rizika koji nose, kao osnovnog kriterijuma. Pa tako sistem VI može biti u kategoriji zabranjenog, visokorizičnog ili označen kao ostali servisi niskog rizika. Tako AI Act zabranjuje, na primer, one sisteme VI u kojima bi ona bila korišćena za manipulaciju ljudima za obradu biometrijskih podataka u kontekstu masovnog praćenja ljudi u realnom vremenu na velikom javnom prostoru, stvaranje lažnih identiteta i dipfejka itd. Ove potencijalne primene predstavljaju i najveće pretnje po čovečanstvo, pa je bilo neophodno da se Uredbom EU nedvosmisleno zabrane.

Ipak, Uredba pod određenim uslovima dozvoljava i neke servise iz kategorije visokorizičnih, čije korišćenje može uticati na bezbednost i ljudska prava. To podrazumeva upotrebu VI u sektorima zdravstvene zaštite, radnih odnosa, obrazovanja, praćenja saobraćaja, ali i obrade biometriskih podataka, pri čemu se posebno ističe mogućnost prepoznavanja emocionalne ekspresije i crta lica. U okviru ove osetljive upotrebe nalazi se i krivično-procesna upotreba veštačke inteligencije, koja, iako ima društveno opravdanu svrhu, lako može biti i zloupotrebljena.

Za ovakve servise koji su kategorizovani kao visokorizični postoji obaveza sprovođenja prethodne procene uticaja i obezbeđivanja prethodne transparentnosti obrade, a takođe onaj ko kontroliše tehnologiju ima obavezu da jedan ovakav sistem VI adekvatno i označi kao visokorizičan, a ta informacija mora biti jasno uočljiva. Tako, ukoliko se, na primer, na graničnom prelazu koristi tehnologija „prepoznavanja emocija” uz pomoć VI, subjekat ovakve obrade o tome mora prethodno i nedvosmisleno biti informisan. Ovakvu obradu mora pratiti detaljno informisanje o karakteristikama obrade odnosno tehnologije, o načinu njene primene. Tehnička dokumentacija koja prati ovu tehnologiju i njenu upotrebu čini transparentnom mora biti redovno ažurirana i po svom sadržaju i elementima usklađena sa strogim uslovima koje je Uredba EU propisala.

U svakom slučaju, Akt EU koji reguliše veštačku inteligenciju predstavlja kompleksan, u isto vreme uopšten i striktan dokument, od kog se očekuje da stvori pravnu osnovu za zakonitu upotrebu VI, ali i da bude osnov za nadogradnju drugih podzakonskih propisa i smernica budućim korisnicima ove tehnologije.

Za kraj, to što ovaj tekst nije pisao ChatGPT ne znači da iste ove informacije ne možete dobiti korišćenjem tog servisa. Naprotiv, za detaljno informisanje o AI Act-u, etičkim smernicama o korišćenju i uopšte o regulaciji veštačke inteligencije, preporuka je da koristite upravo ChatGPT četvrte generacije.

FacebookLinkedinEmail