„Ako želimo i da obezbedimo sisteme veštačke inteligencije, ali i da obezbedimo privatnost, moramo da ispitamo kako ovi sistemi funkcionišu", rekao je Juhan Lepasar, izvršni direktor Agencije EU za sajber bezbednost.
Agencija Evropske unije za sajber bezbednost (ENISA) objavila je u sredu (7. juna) niz izveštaja o izazovima sajber bezbednosti za veštačku inteligenciju (AI).
Izveštaji su objavljeni u vreme održavanja Konferencije o sajber bezbednosti koju je organizovala ENISA, a koja se bavila bezbednosti u vezi sa AI chatbotovima, istraživanjima i inovacijama, kao i pravnim i industrijskim izazovima.
„Ako želimo i da obezbedimo sisteme veštačke inteligencije, ali i da obezbedimo privatnost, moramo da ispitamo kako ovi sistemi funkcionišu", rekao je Juhan Lepasar, izvršni direktor Agencije EU za sajber bezbednost.
Pitanja privatnosti
ENISA je takođe objavila izveštaje koji se fokusiraju na značajan uticaj koji veštačka inteligencija ima na bezbednost i privatnost, uzimajući kao scenarije predviđanje potražnje za električnim mrežama i medicinskom slikovnom dijagnostikom.
„Iako bezbednost i privatnost nisu nužno iste, one su blisko povezane i podjednako važne", navodi se u jednom od izveštaja.
ENISA je preporučila da „ceo kontekst sajber bezbednosti i privatnosti (zahtevi, pretnje, ranjivosti i kontrole) moraju biti prilagođeni kontekstu i stvarnosti pojedinačne organizacije".
Praznine u istraživanju
Na temu EU okruženja za veštačku inteligenciju i sajber bezbednosti u domenu istraživanja i inovacija, ENISA je mapirala trenutno stanje AI i sajber bezbednosti da bi identifikovala potencijalne nedostatke.
Analiza ukazuje na šest nedostataka u istraživačkim inovacijama, među kojima su nedostatak adekvatnih informacija i znanja o potencijalu AI rešenja za sajber bezbednost, kao i adekvatne dokumentacije projekata implementacije.
Takođe je istaknuto nedovoljno prototipova u kontekstu istraživanja i razvoja (R&D) koji ulaze na tržište, kao i jaz između istraživanja i poslovne zajednice, i ograničen kapacitet takvih projekata za rešavanje postojećih i novih problema.
„Dok uticaj veštačke inteligencije donosi izazove i mogućnosti, obezbeđivanje ranjivosti specifičnih za veštačku inteligenciju predstavljaju i organizacione i izazove za istraživanje i razvoj", rekao je Henrik Junklevic iz istraživačkog odeljenja Evropske komisije.
Prema izveštaju o istraživanju veštačke inteligencije i sajber bezbednosti, ENISA planira da razvije plan i uspostavi opservatoriju za istraživanje i razvoj sajber bezbednosti sa fokusom na veštačku inteligenciju.
Osigurani sistemi
Deo konferencije je obuhvatio i najbolje prakse za obezbeđivanje AI sistema, uz primer uloge nemačke savezne kancelarije za bezbednost informacija (BSI). Vlast oblikuje sigurnost informacija za digitalne tehnologije, uključujući AI.
„Moramo da razvijemo praktične kriterijume, prema tome, AI se mora uzeti u obzir u smislu upotrebe, to je ono na šta moramo obratiti pažnju kada razmatramo obezbeđivanje AI sistema", rekao je Arnd fon Tvikel, iz Savezne kancelarije pri BSI.
S obzirom na složenost sistema veštačke inteligencije, pojavljuju se nove ranjivosti. Da bi se sistem veštačke inteligencije uspešno obezbedio, moraju se uzeti u obzir sve faze koje obuhvataju planiranje, podatke, obuku, evaluaciju i rad.
„Razmatramo osnovna svojstva AI u različitim domenima. Naš doprinos će biti 1) da razvijemo dokumente i tehničke smernice za specifične domene i slučajeve upotrebe, 2) da ažuriramo generalni AI model i da koristimo rezultate iz prve dve tačke da doprinesemo standardizaciji, regulaciji i konsaltingu", fon Tvikel je elaborirao.
Dobre prakse
ENISA je takođe izvestila o višeslojnom okviru za dobre prakse sajber bezbednosti za veštačku inteligenciju.
Izveštaj razmatra tri sloja veštačke inteligencije: osnovnu sajber bezbednost relevantnu za AI, sajber bezbednost specifičnu za AI i sektorsku sajber bezbednost za AI namenjenu publici zainteresovanoj za veštačku inteligenciju, kao i nacionalnim nadležnim organima.
„Postoje različiti pragovi, startapi dolaze sa dobrim rešenjima. Izazov je kako da postavimo prag i kako da regulišemo velike igrače i igrače koji nisu iz EU", istakao je Rafael Poper, istraživač sa Univerziteta u Turkuu.
Iako pravi razliku između različitih zainteresovanih strana, izveštaj otkriva da institucije EU i njene zemlje članice moraju da sarađuju kako bi obezbedile globalno prihvaćen etički okvir za razvoj univerzalno prihvatljivih mera.
„Regulacija dolazi na ovaj ili onaj način. Ključna reč ovde je pouzdana AI. EU sada ima šansu da ih učini pouzdanima. To treba posmatrati kao priliku, a ne kao izazov", dodao je Junklevic.
(EURACTIV.rs)