ZDA: Ustanovitev centra za umetno inteligenco

ZDA: Ustanovitev centra za umetno inteligenco
07. 04. 2023 objavil/a Info Hiša

Po uvedbi okvira za upravljanje tveganja umetne inteligence (AI RMF 1.0) ameriški Nacionalni inštitut za standarde in tehnologijo (NIST) ustanovil Center virov za umetno inteligenco (AIRC)

Novica je bila objavljena 30.3.2023

AIRC podpira vse akterje UI pri razvoju in uvajanju zaupanja vrednih in odgovornih tehnologij umetne inteligence. AIRC podpira in operacionalizira ogrodje AI RMF 1.0 in pripadajoči »Playbook« - neke vrste preglednica - ter bo rasel z izboljšavami, da bi omogočil interaktivno izkušnjo in omogoča dostop do širokega nabora ustreznih virov UI. Pri tem bo spremljal regulativne standarde za tehnologijo, ki se izvaja po vsem svetu.

AIRC se osredotoča na tri kategorije potencialnih škod, povezanih s sistemi umetne inteligence, ki jih organizacije upoštevajo pri oblikovanju tveganj sistemov, ki temeljijo na umetni inteligenci:

-        škoda ljudem,

-        škoda organizaciji in

-        škoda ekosistemu.

ZDA, ki gostijo številna vodilna svetovna podjetja za umetno inteligenco, kot sta OpenAI in Google, ne nameravajo sprejeti zakonodaje o zavezujočih predpisih, podobno kot EU. Namesto tega je enostavna strategija za obravnavo tveganj umetne inteligence najpomembnejši razlog, zakaj je bil NIST, ki se tradicionalno osredotoča na kodificiranje znanstvenih standardov in meritev, s strani kongresa zadolžen, da ustvari preglednico, ki jo je mogoče uporabiti za določanje prioritet tveganj.

Kot poroča Science|Business: »Čeprav okvir nima zakonske moči, upamo, da ga bodo podjetja sprejela za omejitev svojih obveznosti, če bodo tožena zaradi nedelujočega sistema umetne inteligence. In podjetja ga lahko začnejo uporabljati prav zdaj, medtem ko bi zakon EU o umetni inteligenci lahko povzročil še več prepirov v Bruslju, preden bi začel veljati.«

Spodaj je delček dodatka NIST RMF o tveganjih, specifičnih za umetno inteligenco, ki so nova iz tradicionalne programske opreme:

-        škodljiva pristranskost in težave s kakovostjo podatkov,

-        odvisnost sistema UI od podatkov za naloge usposabljanja,

-        namerne ali nenamerne spremembe med usposabljanjem lahko bistveno spremenijo delovanje sistema UI,

-        nabori podatkov, ki se uporabljajo za usposabljanje sistemov umetne inteligence, se lahko ločijo od prvotnega konteksta ali zastarijo glede na uvajanje,

-        sistem UI vsebuje milijarde ali biljarde odločitev,

-        uporaba predhodno usposobljenih modelov, ki lahko pospešijo raziskave in izboljšajo učinkovitost, lahko povečajo stopnje statistične       negotovosti in povzročijo težave z upravljanjem pristranskosti, znanstveno veljavnostjo in ponovljivostjo,

-        višja stopnja težavnosti pri napovedovanju načinov odpovedi za obsežne vnaprej usposobljene modele,

-        tveganje zasebnosti zaradi izboljšane zmogljivosti združevanja podatkov za sisteme umetne inteligence,

-        sistemi UI lahko zahtevajo pogostejše vzdrževanje in sprožilce za izvajanje korektivnih vzdrževanj zaradi odstopanja podatkov, modela ali koncepta,

-        povečana negotovost in pomisleki glede ponovljivosti,

-        premalo razviti standardi testiranja programske opreme in nezmožnost dokumentiranja praks, ki temeljijo na umetni inteligenci, v skladu s standardom, ki se pričakuje od tradicionalno zasnovane programske opreme, za vse primere, razen za najpreprostejše,

-        težave pri izvajanju rednega testiranja programske opreme, ki temelji na umetni inteligenci, ali pri določanju, kaj testirati, saj sistemi umetne inteligence niso podvrženi enakemu nadzoru kot tradicionalni razvoj kode,

-        stroški računalniškega razvoja sistemov UI in njihov vpliv na okolje in planet,

-        nezmožnost napovedovanja stranskih učinkov sistemov, ki temeljijo na UI, razen statističnih meritev.

Dostop do dokumenta tukaj

Naslovna fotografija: RawPixel