Nadzorni organ Hamburga je izdal kontrolni seznam za varno uporabo orodij generativne umetne inteligence, ki uporabljajo velike jezikovne modele, kot so na primer ChatGPT, Luminous ali Bard
Novica je bila objavljena 13.11.2023
V mnogih ustanovah so pripomočki postali del vsakdana, a pogosto brez zavezujočih navodil za uporabo. Dejstvo, da jezikovni modeli običajno delujejo v oblaku, predstavlja določena tveganja za varstvo podatkov. Po eni strani je varstvo zaupnih podatkov ogroženo, ker številna podjetja delajo z istim modelom LLM na način, ki temelji na oblaku, pri čemer se vnosi uporabljajo za nadaljnje usposabljanje modelov in tako se jim lahko posredujejo tudi poslovne skrivnosti in osebni podatki. Po drugi strani pa obstaja nevarnost neustrezne obdelave osebnih podatkov zaradi nepravilnih rezultatov, kar je prav tako pomembno z vidika varstva osebnih podatkov, lahko tudi posebnih vrst osebnih podatkov, ki jih je potrebno še bolj varovati.
Nadzorni organ v Hamburgu je izdal kontrolni seznam, ki služi kot vodnik za organizacije (podjetja in državne organe) pri uporabi chatbotov v skladu s predpisi o varstvu podatkov. Kontrolni seznam vsebuje 15 postavk:
1. Oblikujte in dokumentirajte natančna notranja navodila o tem, ali in pod kakšnimi pogoji se katera orodja lahko uporabljajo.
2. Vključite DPO, izvedite DPIA, vključite zaposlene ali njihove predstavnike.
3. Zagotovite korporativni račun, namesto da bi zaposleni uporabljali svoje osebne račune.
4. Uporabite varno preverjanje pristnosti, da preprečite nepooblaščen dostop (npr. ogled prejšnjih poizvedb).
5. Če določila in pogoji ponudnika orodja umetne inteligence dovoljujejo obdelavo podatkov za lastne namene, ne smete posredovati osebnih podatkov umetni inteligenci.
6. Prepričajte se, da rezultati aplikacije AI ne vsebujejo osebnih podatkov. Zato je treba vnos omejiti na primere, ki se ne nanašajo na posameznike. Primer neproblematičnega vnosa: "Napišite oglasno besedilo za izdelek X." Primer problematičnega vnosa: »Katere osebe bodo verjetno zainteresirani za izdelek X?
7. Izogibajte se tudi zapisom, ki bi lahko bili povezani z določenimi osebami. Ni dovolj, da iz vnosa odstranite imena in naslove. Lahko se ugotovi tudi kdo je avtor. Primer: "Pripravite referenco za delovno mesto v zadovoljivem obsegu za prodajalca v avtohiši X." Vpis je lahko oseben, če je možno razpoznati, od katerega podjetja je bil opravljen in ob kateri uri.
8. Zavrnite uporabo vaših podatkov za namene usposabljanja.
9. Storitve klepetalnikov pogosto ponujajo možnost shranjevanja prejšnjih vnosov, tako da se dialog o temi lahko nadaljuje pozneje. Zgodovina mora biti onemogočena, še posebej, če si dialog deli več zaposlenih.
10. Rezultate chatbota je treba obravnavati previdno in preveriti točnost.
11. Preverite rezultate glede diskriminacije.
12. Odločitve s pravnim učinkom bi morali na splošno sprejemati le ljudje.
13. Z usposabljanjem, smernicami in razpravami ozaveščajte zaposlene o tem, ali in kako smejo uporabljati orodja AI.
14. Upoštevajte druge predpise, kot so: varstvo avtorskih pravic ali poslovnih skrivnosti.
15. Spremljajte nadaljnje dogajanje na ravni EU in držav članic.
Novica je dostopna tukaj
Seznam v angleščini je dostopen tukaj
Vir: Der Hamburgische Beauftragtefür Datenschutz und InfromationsfreiheitNaslovna fotografija:
RawPixel