Posle intenzivnih pregovora, poslanici Evropskog parlamenta premostili su svoje razlike i postigli privremeni politički dogovor o prvom pravilniku o veštačkoj inteligenciji.
Zakon o veštačkoj inteligenciji je vodeći zakonodavni predlog za regulisanje veštačke inteligencije na osnovu njenog potencijala da može nanese štetu. Evropski parlament sada ide ka formalizovanju svog stava nakon što su poslanici EU postigli politički dogovor.
Tekst bi još uvek mogao da bude podložan manjim izmenama na tehničkom nivou uoči ključnog glasanja u komitetu zakazanog za 11. maj, ali se očekuje da će biti na plenarnom glasanju sredinom juna.
„Sada imamo dogovor u kojem će sve grupe morati da podrže kompromis bez mogućnosti podnošenja alternativnih amandmana“, rekao je zvaničnik Evropskog parlamenta za EURACTIV.
Do poslednjih trenutaka, poslanici EU su se bavili nekim od najkontroverznijih delova predloga.
AI opšte namene
Kako se nositi sa sistemima veštačke inteligencije koji nemaju određenu svrhu bila je tema o kojoj se žustro raspravljalo u diskusiji. Poslanici Evropskog parlamenta su potvrdili prethodne predloge da se postave strožije obaveze na modele fondacija, podkategoriju AI opšte namene koja uključuje ChatGPT-a.
Jedina značajna promena u poslednjem trenutku bila je na generativnim AI modelima, koji bi morali da budu dizajnirani i razvijeni u skladu sa pravom EU i osnovnim pravima, uključujući slobodu izražavanja.
Zabranjene prakse
Još jedna politički osetljiva tema bila je koja vrsta AI aplikacija treba da se zabrani jer se smatra da predstavljaju neprihvatljiv rizik.
Pre dve nedelje pojavila se ideja da se zabrani alati sa veštačkom inteligencijom za sve opšte praćenje međuljudskih komunikacija. Predlog je odbačen nakon protivljenja konzervativne Evropske narodne partije.
Zauzvrat, poslanici desnog centra morali su da prihvate produženje zabrane softvera za biometrijsku identifikaciju. U početku je bio zabranjen samo za upotrebu u realnom vremenu, ovaj softver za prepoznavanje mogao je da se koristi naknadno samo za teške zločine i uz predsudsko odobrenje.
EPP, koja ima jaku frakciju za sprovođenje zakona, jedini je delimični izuzetak od sporazuma da se ne podnose alternativni amandmani. Grupa je prihvatila da ne podnese „ključne“ glasove koji bi mogli ugroziti njenu podršku za ceo fajl, ali bi ipak mogla da pokuša da promeni ek-post biometrijsku zabranu.
Uredba o veštačkoj inteligenciji takođe zabranjuje „namernu“ manipulaciju. Reč svrsishodan bila je predmet debate, jer bi namjernost mogla biti teško dokazati, ali je ipak zadržana jer poslanici EP nisu hteli da zabace mrežu previše.
Upotreba softvera za prepoznavanje emocija zasnovanog na veštačkoj inteligenciji zabranjena je u oblastima sprovođenja zakona, upravljanja granicom, radnog mesta i obrazovanja.
Zabrana zakonodavca EU za prediktivnu policiju proširena je sa krivičnih na administrativna, na osnovu holandskog skandala o dečjim dodacima u kojem su hiljade porodica pogrešno optužene za prevaru zbog protočnog algoritma.
Klasifikacija visokog rizika
Prvobitni predlog je automatski klasifikovao rešenja veštačke inteligencije koja spadaju u kritične oblasti i slučajeve upotrebe navedene u Aneksu III kao visokorizična, što znači da bi provajderi morali da se pridržavaju strožijeg režima uključujući zahteve za upravljanje rizikom, transparentnost i upravljanje podacima.
Poslanici EP su uveli dodatni sloj, što znači da bi se model veštačke inteligencije koji spada u kategorije Aneksa III smatrao visokim rizikom samo ako predstavlja značajan rizik od štete po zdravlje, bezbednost ili osnovna prava.
Značajan rizik se definiše kao „rizik koji je značajan kao rezultat kombinacije njegove težine, intenziteta, verovatnoće nastanka i trajanja njegovih efekata, i to je sposobnost da utiče na pojedinca, veći broj osoba ili utiče na određena grupa lica”.
Na zahtev Zelenih, veštačka inteligencija koja se koristi za upravljanje kritičnom infrastrukturom kao što su energetske mreže ili sistemi za upravljanje vodom takođe bi bila kategorisana kao visokorizična ako podrazumevaju ozbiljan rizik po životnu sredinu.
Štaviše, poslanici levog centra dobili su odredbu da će se sistemi preporuka veoma velikih onlajn platformi, kako je definisano Zakonom o digitalnim uslugama (DSA), smatrati visokorizičnim.
Otkrivanje pristrasnosti
Poslanici Evropskog parlamenta su uključili dodatne zaštitne mere za proces u kojem dobavljači visokorizičnih AI modela mogu da obrađuju osetljive podatke kao što su seksualna orijentacija ili verska uverenja kako bi otkrili negativne predrasude.
Konkretno, da bi se izvršila obrada takve posebne vrste podataka, pristrasnost se ne sme otkriti obradom sintetičkih, anonimizovanih, pseudonimizovanih ili šifrovanih podataka.
Štaviše, procena se mora odvijati u kontrolisanom okruženju. Osetljivi podaci se ne mogu preneti drugim stranama i moraju se izbrisati nakon procene pristrasnosti. Provajderi takođe moraju dokumentovati zašto je došlo do obrade podataka.
Opšti principi
Uoči sastanka kancelarija koizvestilaca je proširila predlog opštih principa koji bi se primenili na sve modele veštačke inteligencije. Novi član nije namenjen stvaranju novih obaveza, već će morati da bude ugrađen u tehničke standarde i dokumente sa uputstvima.
Ovi principi uključuju ljudsko djelovanje i nadzor, tehničku robusnost i sigurnost, privatnost i upravljanje podacima, transparentnost, društveno i ekološko blagostanje, raznolikost, nediskriminaciju i pravičnost.
Održivost visokorizične veštačke inteligencije
Visokorizični sistemi veštačke inteligencije će morati da vode evidenciju o svom uticaju na životnu sredinu, a modeli temelja će morati da budu u skladu sa evropskim ekološkim standardima.
(EURACTIV.rs)