Tveganja umetne inteligence

Tveganja umetne inteligence
23. 08. 2024 objavil/a Bojana Pleterski

Skupina strokovnjakov sedmih izobraževalnih in raziskovalnih ustanov je oblikovala register tveganj umetne inteligence, ki je oziroma bo v veliko pomoč pri izdelavi ocene tveganj umetne inteligence za človekove pravice (FRIA).

 

Pri pripravi ocen tveganj, pa naj si bo to ocena tveganj umetne inteligence za temelje človekove pravice (FRIA) ali nenazadnje ocena učinka v zvezi z varstvom podatkov (DPIA), je vedno zelo priporočljiv vsak namig, katera tveganja je pri tej obdelavi potrebno ocenjevati. S tem se ukvarjajo akademiki, revizorji, nadzorni organi, oblikovalci politik, organizacije, ki razvijajo ali uporabljajo umetno inteligenco in javnost. Različni viri naborov tveganj niso primerljivi in ne omogočajo skupnega razumevanja in razvoja diskusije, ukrepov za obvladovanje tveganj in podobno. Zato je skupina strokovnjakov pripravila repozitorij tveganj umetne inteligence, ki služi kot skupni referenčni okvir.

V pripravi repozitorija so sodelovali strokovnjaki iz MIT FutureTech (Massachusetts Institute of Technology), Ready Research, School of Psychology (The University of Queensland), Future of Life Institute, KU Leuven, Harmony Intelligence, Computer Science and Artificial Intelligence Laboratory (Massachusetts Institute of Technology).

Skupina je s sistematičnim iskanjem, preverjanjem in strokovnim posvetovanjem identificirala različne klasifikacije, strukture in taksonomije tveganj umetne inteligence. Velik poudarek je bil na opredelitvi, katere raziskave bodo vključene v bazo tveganj. Rezultat je 777 različnih tveganjih, ki so črpana iz 43 raziskav oziroma strokovnih dokumentov, pri čemer so zapisani tudi citati in številke strani v dokumentih. Tveganja so zapisana v »živi« bazi, ki se bo posodabljala. Vsebuje tudi taksonomijo vzrokov tveganj, torej klasificira, kako, kdaj in zakaj se ta tveganja pojavijo, ter taksonomija domene tveganj umetne inteligence, ki tveganja kategorizira v sedem področij (npr. »napačne informacije«, »zasebnost&varnost«,…) in 23 poddomen (npr. »napačne ali zavajajoče informacije«,…). 

Na spletni strani najdete tako video z razlago kot dokument s podrobno razlago metodologije in taksonomije ter dostop do samega repozitorija tveganj, kar bo marsikdo ocenil kot neprecenljiv vir. Avtorji bodo veseli tudi povratnih informacij. Tako dokumentacija kot sam nabor tveganj je dolg in je vsekakor potrebno in tudi koristno vložiti čas, da se vanj poglobimo in izboljšamo razumevanje tveganj umetne inteligence. S tem bomo lahko lažje zagotavljali celovito obvladovanje tveganj v svojih sistemih umetne inteligence.

Vir: airisk.mit.edu

Naslovna slika: RawPixel