EU: Kibernetska varnost umetne inteligence in standardizacija
Agencija Evropske unije za kibernetsko varnost (ENISA) je izdelala pregled učinkov obstoječih splošnih standardov (kot sta ISO 27001/27002 in ISO 9001) na možnost obvladovanja tveganj, s katerimi se sooča umetna inteligenca
Novica je bila objavljena 14.3.2023
Splošni cilj tega dokumenta "Cybersecurity of AI and standardisation« je zagotoviti pregled standardov (obstoječih, v pripravi, v obravnavi in načrtovanih), povezanih s kibernetsko varnostjo umetne inteligence (UI), oceniti njihovo pokritost in opredeliti vrzeli v standardizaciji. To počne z upoštevanjem posebnosti umetne inteligence, zlasti strojnega učenja, in s sprejetjem širokega pogleda na kibernetsko varnost, ki zajema tako „tradicionalno“ paradigmo CIA (zaupnosti, integriteta, razpoložljivost) kot širši koncept zanesljivosti umetne inteligence. Na koncu poročilo preučuje, kako lahko standardizacija podpira izvajanje vidikov kibernetske varnosti, vključenih v predlagano uredbo EU o določitvi usklajenih pravil o umetni inteligenci.
Vendar pa obstajata dve vprašanji:
1)
Čeprav ima UI nekaj posebnosti, je v svojem bistvu programska oprema; zato se lahko tisto, kar velja za programsko opremo, uporabi za UI. Vendar pa še vedno obstajajo vrzeli glede pojasnitve izrazov in konceptov UI:
Skupna definicija terminologije UI in povezane koncepte zanesljivosti (definicija UI ni dosledna).
Smernice o tem, kako naj se standardi, povezani s kibernetsko varnostjo programske opreme, uporabljajo za umetno inteligenco (npr. zastrupljanje podatkov in manipulacija podatkov).
2)
Pojem umetne inteligence lahko vključuje tako tehnične kot organizacijske elemente, ki niso omejeni na programsko opremo, kot je strojna oprema ali infrastruktura, ki prav tako potrebujeta posebna navodila.
Uporaba najboljših praks za zagotavljanje kakovosti v programski opremi je lahko ovirana zaradi nepreglednosti nekaterih modelov UI.
Skladnost s standardoma ISO 9001 in ISO 27001 je na ravni organizacije, ne na ravni sistema, zato je določanje ustreznih varnostnih ukrepov odvisno od analize, specifične za sistem.
Podpora, ki jo lahko zagotovijo standardi za zaščito umetne inteligence, je omejena z zrelostjo tehnološkega razvoja.
Sledljivost in poreklo podatkov in komponent umetne inteligence nista v celoti obravnavana.
Lastnosti strojnega upravljanja niso v celoti odražene v obstoječih standardih.
V zaključku dokumenta so izpostavljeni najbolj očitni vidiki, ki jih je potrebno upoštevati v obstoječih/novih standardih:
Komponente UI/strojno učenje so lahko povezane s komponentami strojne ali druge programske opreme za zmanjšanje tveganja funkcionalne okvare, s čimer se spremenijo tveganja kibernetske varnosti, povezana z nastavitvijo.
Zanesljive metrike lahko potencialnemu uporabniku pomagajo odkriti napako.
Postopki testiranja med razvojnim procesom lahko vodijo do določenih stopenj točnosti/natančnosti.
Osnutek dokumenta je dostopen tukaj
Naslovna fotografija: RawPixel