EU: Umetna inteligenca za splošne namene

EU: Umetna inteligenca za splošne namene
16. 03. 2023 objavil/a Info Hiša

Predlagatelji evropskega Akta o umetni inteligenci nalagajo odgovornost v sorazmerju s tveganji vzdolž celotne verige sistemov umetne inteligence – od ponudnikov velikih jezikovnih modelov pa vse do sistemov umetne inteligence za splošne namene, kot je ChatGPT

Članek je bil objavljen 14.3.2023

Zakonodajalci EU so naložili pomembne obveznosti umetnointeligenčnim sistemom velikega tveganja.  Glavno nerešeno vprašanje v razpravah o zakonodajnem predlogu pa ostaja, kako ravnati z umetno inteligenco za splošne namene (GPAI).

Umetna inteligenca za splošne namene je »sistem umetne inteligence, ki se uči na široki množici podatkov in je zasnovana za oblikovanje splošnih rezultatov, ki se lahko prilagodijo širokemu naboru nalog«.

Soporočevalca Urada Evropskega parlamenta Dragoș Tudorache in Brando Benifei sta 14. marca delila prvi osnutek o tej občutljivi temi, ki predlaga nekatere obveznosti za ponudnike teh vrst modelov umetne inteligence, pa tudi odgovornosti za različne vpletene gospodarske akterje.

Ponudniki GPAI morajo izpolnjevati nekatere zahteve, ki so bile prvotno namenjene rešitvam umetne inteligence z velikim tveganjem, ne glede na distribucijski kanal in če je sistem na voljo kot samostojen ali vgrajen v večji sistem. Zasnova, testiranje in analiza rešitev GPAI morajo biti usklajeni z zahtevami uredbe glede obvladovanja tveganja za zaščito varnosti ljudi, temeljnih pravic in vrednot EU, vključno z dokumentiranjem tveganj, ki jih ni mogoče zmanjšati.

Podatkovni nizi, ki hranijo te velike jezikovne modele, morajo slediti ustreznim ukrepom za upravljanje podatkov, kot je ocenjevanje njihove ustreznosti, primernosti in morebitnih pristranskosti, prepoznavanje morebitnih pomanjkljivosti in relativni ukrepi za ublažitev. Poleg tega bodo morali ChatGPT in podobni ponudniki v celotnem življenjskem ciklu opraviti zunanje revizije, ki bodo testirale njihovo delovanje, predvidljivost, razlago, popravljivost, varovanje in kibernetsko varnost v skladu z najstrožjimi zahtevami uredbe o umetni inteligenci. V zvezi s tem zakonodajalci uvajajo nov člen, ki nalaga evropskim organom in Uradu za umetno inteligenco, da skupaj z mednarodnimi partnerji razvijejo stroškovno učinkovite smernice in zmogljivosti za merjenje in primerjavo vidikov skladnosti sistemov umetne inteligence, zlasti GPAI.

Za modele umetne inteligence, ki ustvarjajo besedilo na podlagi človeških pozivov, ki bi jih lahko zamenjali za pristno vsebino, ki jo je ustvaril človek, bi morale veljati enake obveznosti upravljanja podatkov in preglednosti kot sistemi z visokim tveganjem, razen če je nekdo pravno odgovoren za besedilo. Poleg tega bi morali ponudniki modela GPAI le-tega registrirati v bazi podatkov EU. Podobno bi morali izpolnjevati zahteve glede vodenja kakovosti in tehnične dokumentacije kot ponudniki umetne inteligence z visokim tveganjem in slediti istemu postopku ugotavljanja skladnosti.

Dostop do članka tukaj

Vir: Euractiv

Naslovna fotografija: RawPixel