„Ako želimo i da obezbijedimo sisteme vještačke inteligencije, ali i da obezbijedimo privatnost, moramo da ispitamo kako ovi sistemi funkcionišu", rekao je Juhan Lepasar, izvršni direktor Agencije EU za sajber bezbjednost.
Agencija Evropske unije za sajber bezbjednost (ENISA) objavila je u srijedu (7. juna) niz izvještaja o izazovima sajber bezbjednosti za vještačku inteligenciju (AI).
Izvještaji su objavljeni u vrijeme održavanja Konferencije o sajber bezbjednosti koju je organizovala ENISA, a koja se bavila bezbjednosti u vezi sa AI chatbotovima, istraživanjima i inovacijama, kao i pravnim i industrijskim izazovima.
„Ako želimo i da obezbijedimo sisteme vještačke inteligencije, ali i da obezbijedimo privatnost, moramo da ispitamo kako ovi sistemi funkcionišu", rekao je Juhan Lepasar, izvršni direktor Agencije EU za sajber bezbjednost.
Izvor: EC - Audiovisual ServicePitanja privatnosti
ENISA je takođe objavila izvještaje koji se fokusiraju na značajan uticaj koji vještačka inteligencija ima na bezbjednost i privatnost, uzimajući kao scenarije predviđanje potražnje za električnim mrežama i medicinskom slikovnom dijagnostikom.
„Iako bezbjednost i privatnost nisu nužno iste, one su blisko povezane i podjednako važne", navodi se u jednom od izveštaja.
ENISA je preporučila da „cio kontekst sajber bezbjednosti i privatnosti (zahtjevi, prijetnje, ranjivosti i kontrole) moraju biti prilagođeni kontekstu i stvarnosti pojedinačne organizacije".
Praznine u istraživanju
Na temu EU okruženja za vještačku inteligenciju i sajber bezbjednosti u domenu istraživanja i inovacija, ENISA je mapirala trenutno stanje AI i sajber bezbjednosti da bi identifikovala potencijalne nedostatke.
Analiza ukazuje na šest nedostataka u istraživačkim inovacijama, među kojima su nedostatak adekvatnih informacija i znanja o potencijalu AI rješenja za sajber bezbjednost, kao i adekvatne dokumentacije projekata implementacije.
Takođe je istaknuto nedovoljno prototipova u kontekstu istraživanja i razvoja (R&D) koji ulaze na tržište, kao i jaz između istraživanja i poslovne zajednice, i ograničen kapacitet takvih projekata za rješavanje postojećih i novih problema.
„Dok uticaj vještačke inteligencije donosi izazove i mogućnosti, obezbjeđivanje ranjivosti specifičnih za vještačku inteligenciju predstavljaju i organizacione i izazove za istraživanje i razvoj", rekao je Henrik Junklevic iz istraživačkog odjeljenja Evropske komisije.
Prema izveštaju o istraživanju vještačke inteligencije i sajber bezbjednosti, ENISA planira da razvije plan i uspostavi opservatoriju za istraživanje i razvoj sajber bezbednosti sa fokusom na veštačku inteligenciju.
Izvor: Mondo Stefan StojanovićOsigurani sistemi
Dio konferencije je obuhvatio i najbolje prakse za obezbjeđivanje AI sistema, uz primjer uloge njemačke savezne kancelarije za bezbjednost informacija (BSI). Vlast oblikuje sigurnost informacija za digitalne tehnologije, uključujući AI.
„Moramo da razvijemo praktične kriterijume, prema tome, AI se mora uzeti u obzir u smislu upotrebe, to je ono na šta moramo obratiti pažnju kada razmatramo obezbjeđivanje AI sistema", rekao je Arnd fon Tvikel, iz Savezne kancelarije pri BSI.
S obzirom na složenost sistema vještačke inteligencije, pojavljuju se nove ranjivosti. Da bi se sistem vještačke inteligencije uspješno obezbijedio, moraju se uzeti u obzir sve faze koje obuhvataju planiranje, podatke, obuku, evaluaciju i rad.
„Razmatramo osnovna svojstva AI u različitim domenima. Naš doprinos će biti 1) da razvijemo dokumente i tehničke smjernice za specifične domene i slučajeve upotrebe, 2) da ažuriramo generalni AI model i da koristimo rezultate iz prve dvije tačke da doprinesemo standardizaciji, regulaciji i konsaltingu", fon Tvikel je elaborirao.
Dobre prakse
ENISA je takođe izvijestila o višeslojnom okviru za dobre prakse sajber bezbjednosti za vještačku inteligenciju.
Izvještaj razmatra tri sloja vještačke inteligencije: osnovnu sajber bezbjednost relevantnu za AI, sajber bezbjednost specifičnu za AI i sektorsku sajber bezbjednost za AI namijenjenu publici zainteresovanoj za vještačku inteligenciju, kao i nacionalnim nadležnim organima.
„Postoje različiti pragovi, startapi dolaze sa dobrim rješenjima. Izazov je kako da postavimo prag i kako da regulišemo velike igrače i igrače koji nisu iz EU", istakao je Rafael Poper, istraživač sa Univerziteta u Turkuu.
Iako pravi razliku između različitih zainteresovanih strana, izveštaj otkriva da institucije EU i njene zemlje članice moraju da sarađuju kako bi obezbijedile globalno prihvaćen etički okvir za razvoj univerzalno prihvatljivih mjera.
„Regulacija dolazi na ovaj ili onaj način. Ključna riječ ovdje je pouzdana AI. EU sada ima šansu da ih učini pouzdanima. To treba posmatrati kao priliku, a ne kao izazov", dodao je Junklevic.