Zakon o veštačkoj inteligenciji je vodeći zakon koji reguliše AI na osnovu njenog potencijala da nanese štetu. Skupštinski odbori za građanske slobode i unutrašnje tržište usvojili su tekst velikom većinom.
Vodeći parlamentarni odbori Evropskog parlamenta (EP) dali su zeleno svetlo Zakonu o veštačkoj inteligenciji na glasanju u četvrtak (11. maja), otvarajući put za njegovo usvajanje na plenarnoj sednici sredinom juna.
Ovaj zakon reguliše veštačku inteligenciju na osnovu njenog potencijala da nanese štetu. Skupštinski odbori za građanske slobode i unutrašnje tržište usvojili su tekst velikom većinom.
Sledeći korak je plenarno usvajanje, koje bi trebalo da se održi 14. juna. Nakon što poslanici EP formalizuju svoj stav, predlog će ući u poslednju fazu zakonodavnog procesa, otpočinjući pregovore sa Savetom EU i Evropskom komisijom, takozvanim trijalozima.
„Mi smo nadomak ključnog zakona za digitalno okruženje, ne samo za Evropu, već i za ceo svet", rekao je Brando Benifei, jedan od koizvestilaca dosijea, svojim kolegama uoči glasanja.
Definicija veštačke inteligencije (AI)
Definisanje veštačke inteligencije je kritičan aspekt zakona jer definiše njen obim. Konzervativni poslanici Evropskog parlamenta izborili su se za usklađivanje definicije sa onom koju je formulisala Organizacija za ekonomsku saradnju i razvoj (OECD), koju čini 38 bogatih zemalja:
„'Sistem veštačke inteligencije' (AI sistem) podrazumeva sistem zasnovan na mašinama koji je dizajniran da radi sa različitim nivoima autonomije i koji može, za eksplicitne ili implicitne ciljeve, da generiše rezultate kao što su predviđanja, preporuke ili odluke, koji utiču na fizička ili virtuelna okruženja."
Međutim, OECD već razmišlja o prilagođavanju svoje definicije veštačke inteligencije, pa su stoga zakonodavci EU prilagodili formulaciju kako bi predupredili budući tekst OECD-a.
Zabranjene prakse
Zakon o veštačkoj inteligenciji zabranjuje specifične primene, poput manipulativnih tehnika i društvenog bodovanja, za koje se smatra da predstavljaju neprihvatljiv rizik. Lista ovih zabranjenih radnji značajno je proširena na insistiranje evroposlanika levice.
Zabrana je proširena na AI modele za biometrijsku kategorizaciju i uklanjanje slika lica za pravljenje baza podataka. Softver za prepoznavanje emocija je zabranjen tokom procesa sprovođenja zakona, u oblasti upravljanja granicama, na radnom mestu i u obrazovnim ustanovama.
Biometrijski sistemi identifikacije, koji su prvobitno bili dozvoljeni u specifičnim situacijama kao što su kidnapovanje ili teroristički napadi, bili su kontroverznija tačka. Parlament je imao većinu za potpunu zabranu, uprkos tome što joj se konzervativna Evropska narodna partija (EPP) opirala do poslednjeg trenutka.
Opšte namene veštačke inteligencije
Originalna verzija Zakona o veštačkoj inteligenciji nije uključivala sisteme bez posebne namene. Brzi uspeh ChatGPT-a i drugih velikih jezičkih modela naterao je zakonodavce EU da razmisle kako da najbolje regulišu ovu vrstu veštačke inteligencije. Rezultat je bio višestepeni pristup.
Pravilnik o veštačkoj inteligenciji podrazumevano neće pokrivati sisteme veštačke inteligencije opšte namene (GPAI). Najveći deo obaveza će pasti na ekonomske operatere koji integrišu ove sisteme u aplikaciju koja se smatra visokorizičnom.
Međutim, GPAI provajderi bi morali da podrže usaglašenost operatera pružanjem svih relevantnih informacija i dokumentacije o AI modelu.
Predlažu se stroži zahtevi za osnovne modele, moćne AI sisteme opšte namene kao što je Stable Diffusion koji mogu da napajaju druge AI aplikacije. Obaveze pokrivaju upravljanje rizikom, upravljanje podacima i pouzdanost modela, koji će proveravati nezavisni stručnjaci.
Najviši nivo je za generativne AI modele kao što je ChatGPT, koji bi morali da otkriju svaki put kada je tekst generisan veštačkom inteligencijom, zbog zakona o autorskim pravima.
Kategorizacija visokog rizika
Uredba uvodi stroži režim za visokorizične AI aplikacije. U početku je visoki rizik određen na osnovu liste kritičnih oblasti i slučajeva upotrebe u Aneksu III.
Međutim, poslanici Evropskog parlamenta su uklonili ovaj automatizam, dodajući kao još jedan nivo koji bi bio klasifikovan kao visokorizičan. Sistem veštačke inteligencije takođe bi morao da predstavlja značajan rizik po zdravlje, bezbednost ili osnovna ljudska prava.
Ako sistemi veštačke inteligencije potpadaju pod Aneks III, a provajderi smatraju da ne postoji značajan rizik, morali bi da obaveste nadležni organ, koji će imati tri meseca za prigovor. Provajderi će u međuvremenu moći da lansiraju svoje AI rešenje, ali će pogrešna klasifikacija biti podložna kaznama.
Aneks III je takođe značajno izmenjen, čineći formulaciju preciznijom u kritičnoj infrastrukturi, obrazovanju, zapošljavanju i pristupu osnovnim uslugama. Proširene su oblasti sprovođenja zakona, kontrole migracija i sprovođenja pravde.
Dodati su sistemi preporuka za društvene mreže koje su prema Zakonu o digitalnim uslugama označene kao veoma velike onlajn platforme.
Obaveze koje se tiču visokog rizika
Tekst Evropskog parlamenta učinio je obaveze za provajdere visokorizične veštačke inteligencije mnogo preciznijim, posebno kada su u pitanju upravljanje rizikom, upravljanje podacima, tehnička dokumentacija i vođenje evidencije.
Uveden je potpuno novi zahtev za korisnike visokorizičnih AI rešenja da sprovedu procenu uticaja na osnovna prava, uzimajući u obzir aspekte kao što su potencijalni negativan uticaj na marginalizovane grupe i životnu sredinu.
Upravljanje i sprovođenje
Među zakonodavcima EU postojao je konsenzus da se obezbedi element centralizacije u sprovođenju mera, posebno za prekogranične slučajeve. Koizvestilac Dragoš Tudorače predložio je osnivanje Kancelarije za veštačku inteligenciju.
Tokom pregovora, zadaci Kancelarije za veštačku inteligenciju su značajno smanjeni zbog nedostatka u budžetu EU. Stoga je Kancelarija za veštačku inteligenciju bila ograničena na pomoćnu ulogu, kao što je pružanje smernica i koordinacija zajedničkih istraga.
Nasuprot tome, Komisija je imala zadatak da reši sporove među nacionalnim vlastima o opasnim sistemima veštačke inteligencije.
(EURACTIV.rs)