Pravna regulativa veštačke inteligencije: Da li je AI dobar ili loš
Veštačka inteligencija nije više tehnologija budućnosti – ona je već danas svuda oko nas. Možda nisi ni primetio, ali AI odlučuje šta gledaš na TikToku, pomaže lekarima u dijagnostici, pa čak i asistira sudijama u nekim pravnim sistemima.
Foto: Startuj.infostud.com (Shutterstock)
Ona već oblikuje tvoju svakodnevicu – od personalizovanih preporuka na društvenim mrežama, preko pametnih automobila, do automatizacije u zdravstvu i pravosuđu. Međutim, dok tehnologija juri napred, pravni sistem pokušava da je stigne. U ovom blogu ćemo ti bliže definisati pravne okvire veštačke inteligencije kroz primere u praksi.
Zašto nam uopšte treba regulativa AI?
Veštačka inteligencija ti donosi brojne koristi, ali i izazove.
Zamisli sledeće situacije:
- AI sistem u banci automatski odbija zahtev za kredit – jer je tvoj poštanski broj u oblasti sa nižim prihodima. Diskriminacija?
- Autonomno vozilo izaziva saobraćajnu nesreću – ko je odgovoran? Programer? Proizvođač? Vlasnik?
- Chatbot koristi tvoje lične podatke za personalizovane oglase – a nisi dao pristanak.
Sve su to realni problemi koji traže pravno rešenje.
Veštačka inteligencija nije zamena za ljude, već alat koji može da ti pomogne da radiš pametnije, brže i efikasnije. Važno je da koristiš AI odgovorno – uz poštovanje etičkih principa i uz nadzor.
Ali, postavlja se ključno pitanje: ko kontroliše AI? Ko snosi odgovornost kada algoritam pogreši? Da li zakon može pratiti tempo razvoja tehnologije?
Bez odgovarajuće regulative, moguće su zloupotrebe – poput diskriminacije prilikom automatskog odlučivanja (recimo, kod zapošljavanja ili odobravanja kredita), narušavanja privatnosti, pa čak i podrivanja demokratskih procesa putem deepfake tehnologije ili manipulacije informacijama.
EU kao pionir – Zakon o veštačkoj inteligenciji
Evropska unija je 2021. godine napravila prvi ozbiljan korak ka regulisanju AI predstavljanjem AI Act – Zakona o veštačkoj inteligenciji. Ovaj zakon koristi pristup zasnovan na proceni rizika, što znači da tehnologije sa višim rizikom podležu strožim pravilima.
Zakon klasifikuje sisteme AI u četiri kategorije:
- Neprihvatljiv rizik – potpuno zabranjeni (npr. socijalno bodovanje poput onog u Kini).
- Visok rizik – dozvoljeni, ali pod strogim uslovima (npr. AI u zapošljavanju, obrazovanju, pravosuđu).
- Ograničeni rizik – obavezno obaveštavanje korisnika da komuniciraju sa AI.
- Minimalni rizik – gotovo bez ograničenja (npr. AI u igrama, preporuke filmova).
EU vodi politiku "pouzdanog i humanog razvoja AI", teži tehnološkom suverenitetu i postavlja standarde koji bi mogli oblikovati globalni pejzaž veštačke inteligencije. Ključni balans koji pokušava da postigne jeste između inovacije i zaštite osnovnih prava.
Sudska praksa u vezi AI spora
Pre izvesnog vremena, desio se posebno zanimljiv slučaj tužbe koju je Getty podneo protiv Stability AI u Ujedinjenom Kraljevstvu i Sjedinjenim Američkim Državama, optužujući ovu kompaniju da krši njihova prava intelektualne svojine time što je neovlašćeno koristila preko 12 miliona slika i fotografija zaštićenih autorskim pravima kao podatke za obuku njihovog AI programa - Stable Diffusion. Upravo ovaj sudski spor bi mogao biti ključna prekretnica u “borbi” između veštačke inteligencije (i njenih “trenera”) s jedne, i autora odnosno nosioca prava, sa druge strane.
Naime, Stable Diffusion je takozvani “text-to-image tool”, odnosno program koji na osnovu zadatog teksta može da “stvori” sliku. To znači da ako ovom programu zadate da vam izradi/naslika zalazak sunca na plaži, on će to uraditi oslanjajući se na ono iz čega je naučen – u ovom slučaju, između ostalog i na Getty-jeve baze koja sadrže na milione slika i fotografija.
Kako bi napravio “svoju” sliku, ovaj program je neovlašćeno koristio, menjao, isecao (kropovao) i prerađivao jednu ili više sličnih slika iz baze na osnovu koje je treniran.
Imajući u vidu ovakvo “ponašanje” AI programa, ovde se zapravo postavljaju dva pitanja:
- Da li se ovakve radnje AI programa mogu smatrati povredom autorskog dela?
- Da li slika koju je (na osnovu informacija koje ima) stvorila veštačka inteligencija može da uživa autorsko-pravnu zaštitu?
Svakako ti moramo naglasiti da bez obzira što neke platforme za deljenje slika ili fotografija, svojim opštim pravilima propisuju da se prihvatanjem uslova korišćenja platforme automatski daje i dozvola za dalje javno saopštavanje autorskog dela i tzv. embedovanje ili prilagođavanje slika, odnosno fotografija, nesporno je da se time ne mogu derogirati odredbe našeg važećeg Zakona iz oblasti autorskopravne zaštite.
Ako postavljaš pitanje da li veštačka inteligencija može da bude autor, odgovor je vrlo jednostavan i nedvosmislen – Ne!
Gde je Srbija u svemu tome?
Srbija je, kao kandidat za članstvo u EU, već počela da usklađuje svoje zakonodavstvo sa evropskim standardima. Nacionalna strategija za razvoj veštačke inteligencije usvojena je 2019. godine, a fokus je pre svega na razvoju i edukaciji.
Ipak, pravna regulativa AI u Srbiji još je u povoju. Trenutno ne postoji poseban zakon koji reguliše AI. Umesto toga, oslanjamo se na opšte zakone – Zakon o zaštiti podataka o ličnosti, Zakon o obligacionim odnosima, itd. Iako su korisni kao okvir, ovi zakoni nisu uvek dovoljni za specifične izazove koje AI donosi.
Šta nas očekuje u budućnosti?
Ako studiraš pravo, informacione tehnologije ili društvene nauke – veštačka inteligencija će biti deo tvoje profesionalne budućnosti.
Dobra regulativa ne sme gušiti inovacije, ali mora štititi ljudska prava, privatnost i bezbednost. AI nije ni "dobar" ni "loš" – to zavisi od toga kako ga koristimo i regulišemo.
U idealnom scenariju, pravna regulativa neće biti kočnica za inovacije, već zaštitna mreža koja obezbeđuje da se AI razvija odgovorno, transparentno i u službi društva.