EU: Kibernetska varnost umetne inteligence in standardizacija

EU: Kibernetska varnost umetne inteligence in standardizacija
17. 03. 2023 objavil/a Info Hiša

Agencija Evropske unije za kibernetsko varnost (ENISA) je izdelala pregled učinkov obstoječih splošnih standardov (kot sta ISO 27001/27002 in ISO 9001) na možnost obvladovanja tveganj, s katerimi se sooča umetna inteligenca

Novica je bila objavljena 14.3.2023

Splošni cilj tega dokumenta "Cybersecurity of AI and standardisation« je zagotoviti pregled standardov (obstoječih, v pripravi, v obravnavi in načrtovanih), povezanih s kibernetsko varnostjo umetne inteligence (UI), oceniti njihovo pokritost in opredeliti vrzeli v standardizaciji. To počne z upoštevanjem posebnosti umetne inteligence, zlasti strojnega učenja, in s sprejetjem širokega pogleda na kibernetsko varnost, ki zajema tako „tradicionalno“ paradigmo CIA (zaupnosti, integriteta, razpoložljivost) kot širši koncept zanesljivosti umetne inteligence. Na koncu poročilo preučuje, kako lahko standardizacija podpira izvajanje vidikov kibernetske varnosti, vključenih v predlagano uredbo EU o določitvi usklajenih pravil o umetni inteligenci.

Vendar pa obstajata dve vprašanji:  

1)     Obseg, v katerem bi morali biti splošni standardi prilagojeni specifičnemu kontekstu umetne inteligence za določeno grožnjo.

Čeprav ima UI nekaj posebnosti, je v svojem bistvu programska oprema; zato se lahko tisto, kar velja za programsko opremo, uporabi za UI. Vendar pa še vedno obstajajo vrzeli glede pojasnitve izrazov in konceptov UI:  

  • Skupna definicija terminologije UI in povezane koncepte zanesljivosti (definicija UI ni dosledna).

  • Smernice o tem, kako naj se standardi, povezani s kibernetsko varnostjo programske opreme, uporabljajo za umetno inteligenco (npr. zastrupljanje podatkov in manipulacija podatkov).

 

2)     Ali obstoječi standardi zadostujejo za obravnavo kibernetske varnosti umetne inteligence ali pa jih je treba dopolniti? Obstajajo pomisleki glede nezadostnega znanja o uporabi obstoječih tehnik za preprečevanje groženj in ranljivosti, ki izhajajo iz umetne inteligence.

  • Pojem umetne inteligence lahko vključuje tako tehnične kot organizacijske elemente, ki niso omejeni na programsko opremo, kot je strojna oprema ali infrastruktura, ki prav tako potrebujeta posebna navodila.

  • Uporaba najboljših praks za zagotavljanje kakovosti v programski opremi je lahko ovirana zaradi nepreglednosti nekaterih modelov UI.

  • Skladnost s standardoma ISO 9001 in ISO 27001 je na ravni organizacije, ne na ravni sistema, zato je določanje ustreznih varnostnih ukrepov odvisno od analize, specifične za sistem.

  • Podpora, ki jo lahko zagotovijo standardi za zaščito umetne inteligence, je omejena z zrelostjo tehnološkega razvoja.

  • Sledljivost in poreklo podatkov in komponent umetne inteligence nista v celoti obravnavana.

  • Lastnosti strojnega upravljanja niso v celoti odražene v obstoječih standardih.

 V zaključku dokumenta so izpostavljeni najbolj očitni vidiki, ki jih je potrebno upoštevati v obstoječih/novih standardih:

  • Komponente UI/strojno učenje so lahko povezane s komponentami strojne ali druge programske opreme za zmanjšanje tveganja funkcionalne okvare, s čimer se spremenijo tveganja kibernetske varnosti, povezana z nastavitvijo.

  • Zanesljive metrike lahko potencialnemu uporabniku pomagajo odkriti napako.

  • Postopki testiranja med razvojnim procesom lahko vodijo do določenih stopenj točnosti/natančnosti.

 Osnutek dokumenta je dostopen tukaj

Naslovna fotografija: RawPixel