Правна регулација вештачке интелигенције у ЕУ

FacebookLinkedinEmail
23.11.2023.
 Правна регулација вештачке интелигенције у ЕУ
Вештачка интелигенција је до пре само годину дана била будућност, визија о технологији која ће једног дана можда променити начин на који радимо и живимо.

Међутим, на заласку 2022. године, у свакодневицу нам је непримећено ушетао сервис под називом ChatGPT и врло брзо постао главна вест у технолошким, али и мејнстрим медијима. И док смо сви покушавали да докучимо како је могуће да је тако нешто свима лако доступно, већ пар месеци касније из истраживачког центра компаније Open AI стигла је и унапређена, четврта верзија тог сервиса. Четворка је у новембру 2023. додатно унапређена могућностима, попут анализирања ПДФ текстуалних фајлова и слика, с могућношћу препознавања садржаја и давања појашњења о том садржају.

Не морамо ићи толико далеко у нагађањима шта ће нова истренирана пета генерација GPT-а, најављена за децембар 2023, донети јер је, несумњиво, и ова четврта револуционарна појава вредна анализе и промишљања у правцу шта и како даље. Свима је познато да је GPT без икаквих проблема прошао Тјурингов тест, а положио и „злогласни” правосудни испит у Сједињеним Америчким Државама.

Не бих се бавио техничком анализом вештачке интелигенције (ВИ) односно четбота ChatGPT о чему већ пишу и причају људи компетентни за те области, али оно што свакако могу да дам себи за право јесте да вештачку интелигенцију ставим у контекст опасности коју ова технологија носи и да се позовем на успостављање регулаторног оквира у ком ће се њена примена ограничити само на оне аспекте који имају доминантно позитивно дејство на људски род. Ако за такве прописе није већ касно…

Многе земље су забраниле овај четбот и он није доступан у оквиру њихових граница. За неке је то можда политичко односно питање заштите сопствених интереса, док се могу наћи примери попут Италије, чији је надзорни орган за заштиту података о личности, из страха за безбедност грађана, прилично импулсивно реаговао на појаву ChatGPT-4 и одмах поставио питање приватности корисника сервиса, односно могућности остваривања права на заборав, али и мера за ограничавање приступа непримереном садржају или ограничавање приступа малолетницима.

Након забране која је трајала око месец дана, Open AI је прилагодио начин приступа сервису захтеву италијанског повереника, ограничио је могућност приступа и сервис је постао доступан у Италији. ChatGPT такође погађа и ауторскоправни проблем потенцијалног кршења ауторских права трећих лица, на која указују други сервиси. Многи од тих случајева већ су завршили на суду, али како је реч о кршењу субјективних права, о томе ћемо другом приликом.

Упозорења стручњака на негативна дејства ВИ присутна су на дневном нивоу, као и позиви да се што пре успоставе етичке и правне норме које ће каналисати развој ове технологије, у оквиру које је ChatGPT међу безбеднијим сервисима вештачке интелигенције када је реч о ризику по права људи.

Пратећи овај надолазећи тренд развоја вештачке интелигенције, Европска комисија је одобрила радну верзију Уредбе о вештачкој интелигенцији, у јавности назване AI Act. Овај нацрт упућен је Европском парламенту на усвајање, и одмах је прослеђен и на јавну расправу, која је у току. Иако су етичке смернице за употребу вештачке интелигенције донете још пре неколико година, ова Уредба је први велики корак ка регулисању употребе ових технолошких система у Европи, а свакако је међу значајнијим глобално.

Нови акт ЕУ на самом почетку доноси нам и неопходну, званичну дефиницију вештачке интелигенције, како би се избегла тумачења и непрецизности у вези са тим шта ВИ јесте, а шта није. А Акт прилично широко поставља ствари и под тим појмом подразумева софтвер са једном или више техника и приступа (попут машинског учења, статистике и логике) који, на основу параметара које даје човек, генерише резултате у виду садржаја, предвиђања, препорука или одлука под утицајем околине са којом има интеракцију.

Међу примарним циљевима акта ВИ јесте указивање на ризике од вештачке интелигенције и тенденција да се они категоризују на бази ризика који носе, као основног критеријума. Па тако систем ВИ може бити у категорији забрањеног, високоризичног или означен као остали сервиси ниског ризика. Тако AI Act забрањује, на пример, оне системе ВИ у којима би она била коришћена за манипулацију људима за обраду биометријских података у контексту масовног праћења људи у реалном времену на великом јавном простору, стварање лажних идентитета и дипфејка итд. Ове потенцијалне примене представљају и највеће претње по човечанство, па је било неопходно да се Уредбом ЕУ недвосмислено забране.

Ипак, Уредба под одређеним условима дозвољава и неке сервисе из категорије високоризичних, чије коришћење може утицати на безбедност и људска права. То подразумева употребу ВИ у секторима здравствене заштите, радних односа, образовања, праћења саобраћаја, али и обраде биометриских података, при чему се посебно истиче могућност препознавања емоционалне експресије и црта лица. У оквиру ове осетљиве употребе налази се и кривично-процесна употреба вештачке интелигенције, која, иако има друштвено оправдану сврху, лако може бити и злоупотребљена.

За овакве сервисе који су категоризовани као високоризични постоји обавеза спровођења претходне процене утицаја и обезбеђивања претходне транспарентности обраде, а такође онај ко контролише технологију има обавезу да један овакав систем ВИ адекватно и означи као високоризичан, а та информација мора бити јасно уочљива. Тако, уколико се, на пример, на граничном прелазу користи технологија „препознавања емоција” уз помоћ ВИ, субјекат овакве обраде о томе мора претходно и недвосмислено бити информисан. Овакву обраду мора пратити детаљно информисање о карактеристикама обраде односно технологије, о начину њене примене. Техничка документација која прати ову технологију и њену употребу чини транспарентном мора бити редовно ажурирана и по свом садржају и елементима усклађена са строгим условима које је Уредба ЕУ прописала.

У сваком случају, Акт ЕУ који регулише вештачку интелигенцију представља комплексан, у исто време уопштен и стриктан документ, од ког се очекује да створи правну основу за закониту употребу ВИ, али и да буде основ за надоградњу других подзаконских прописа и смерница будућим корисницима ове технологије.

За крај, то што овај текст није писао ChatGPT не значи да исте ове информације не можете добити коришћењем тог сервиса. Напротив, за детаљно информисање о AI Act-у, етичким смерницама о коришћењу и уопште о регулацији вештачке интелигенције, препорука је да користите управо ChatGPT четврте генерације.

FacebookLinkedinEmail