Akt o umetni inteligenci je prvi pravni okvir o umetni inteligenci, ki obravnava tveganja umetne inteligence in Evropi daje vodilno vlogo na svetovni ravni.
Akt o umetni inteligenci (Uredba (EU) 2024/1689 o določitvi harmoniziranih pravil o umetni inteligenci) je prvi celovit pravni okvir o umetni inteligenci na svetu. Cilj pravil je spodbujati zaupanja vredno umetno inteligenco v Evropi.
Akt o umetni inteligenci določa jasen sklop pravil, ki temeljijo na tveganju, za razvijalce in uvajalce umetne inteligence v zvezi s posebnimi uporabami umetne inteligence. Akt o umetni inteligenci je del širšega svežnja ukrepov politike za podporo razvoju zaupanja vredne umetne inteligence, ki vključuje tudi inovacijski sveženj o umetni inteligenci, vzpostavitev tovarn umetne inteligence in usklajeni načrt za umetno inteligenco. Ti ukrepi skupaj zagotavljajo varnost, temeljne pravice in na človeka osredotočeno umetno inteligenco ter krepijo uvajanje, naložbe in inovacije na področju umetne inteligence po vsej EU.
Komisija je za olajšanje prehoda na novi regulativni okvir uvedla pakt za umetno inteligenco, tj. prostovoljno pobudo, katere namen je podpreti prihodnje izvajanje, sodelovati z deležniki ter ponudnike in uvajalce umetne inteligence iz Evrope in zunaj nje pozvati, naj pravočasno izpolnijo ključne obveznosti iz akta o umetni inteligenci.
Zakaj potrebujemo pravila o umetni inteligenci?
Akt o umetni inteligenci zagotavlja, da lahko Evropejci zaupajo temu, kar ponuja umetna inteligenca. Čeprav večina umetnointeligenčnih sistemov ne predstavlja nobenega tveganja in lahko prispeva k reševanju številnih družbenih izzivov, nekateri umetnointeligenčni sistemi ustvarjajo tveganja, ki jih moramo obravnavati, da bi se izognili neželenim rezultatom.
Na primer, pogosto ni mogoče ugotoviti, zakaj je umetnointeligenčni sistem sprejel odločitev ali napoved in sprejel določen ukrep. Zato bo morda težko oceniti, ali je bil nekdo neupravičeno prikrajšan, na primer pri odločitvi o zaposlitvi ali vlogi za javnokoristno shemo.
Čeprav obstoječa zakonodaja zagotavlja določeno zaščito, ne zadostuje za obravnavanje posebnih izzivov, ki jih lahko prinesejo umetnointeligenčni sistemi.
Pristop, ki temelji na tveganju
Akt o umetni inteligenci opredeljuje štiri ravni tveganja za umetnointeligenčne sisteme:
Nesprejemljivo tveganje
Vsi umetnointeligenčni sistemi, ki se štejejo za jasno grožnjo varnosti, možnostim preživljanja in pravicam ljudi, so prepovedani. Akt o umetni inteligenci prepoveduje osem praks, in sicer:
- škodljive manipulacije in prevare, ki temeljijo na umetni inteligenci
- škodljivo izkoriščanje ranljivosti, ki temelji na umetni inteligenci
- socialno točkovanje
- Ocena ali napoved tveganja posameznega kaznivega dejanja
- neciljno strganje interneta ali gradiva CCTV za vzpostavitev ali razširitev podatkovnih zbirk za prepoznavanje obrazov
- Priznavanje čustev na delovnih mestih in v izobraževalnih ustanovah
- biometrična kategorizacija za izpeljavo nekaterih zaščitenih značilnosti
- biometrična identifikacija na daljavo v realnem času za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj v javno dostopnih prostorih
Visoko tveganje
Primeri uporabe umetne inteligence, ki lahko pomenijo resno tveganje za zdravje, varnost ali temeljne pravice, so razvrščeni kot primeri velikega tveganja. Ti primeri uporabe z visokim tveganjem vključujejo:
- Varnostne komponente umetne inteligence v kritičnih infrastrukturah (npr. prometu), katerih okvara bi lahko ogrozila življenje in zdravje državljanov
- Umetnointeligenčne rešitve, ki se uporabljajo v izobraževalnih ustanovah in lahko določajo dostop do izobraževanja in potek poklicnega življenja (npr. točkovanje izpitov)
- Varnostne komponente proizvodov, ki temeljijo na umetni inteligenci (npr. uporaba umetne inteligence pri operacijah s pomočjo robota)
- Orodja umetne inteligence za zaposlovanje, upravljanje delavcev in dostop do samozaposlitve (npr. programska oprema za razvrščanje življenjepisov za zaposlovanje)
- Nekateri primeri uporabe umetne inteligence, ki se uporabljajo za zagotavljanje dostopa do osnovnih zasebnih in javnih storitev (npr. kreditno točkovanje, ki državljanom onemogoča pridobitev posojila)
- Umetnointeligenčni sistemi, ki se uporabljajo za biometrično identifikacijo na daljavo, prepoznavanje čustev in biometrično kategorizacijo (npr. umetnointeligenčni sistem za retroaktivno identifikacijo krajodajalca)
- Primeri uporabe umetne inteligence pri preprečevanju, odkrivanju in preiskovanju kaznivih dejanj, ki lahko posegajo v temeljne pravice ljudi (npr. ocena zanesljivosti dokazov)
- Primeri uporabe umetne inteligence pri upravljanju migracij, azila in nadzora meja (npr. avtomatizirano obravnavanje vlog za izdajo vizuma)
- Rešitve umetne inteligence, ki se uporabljajo v pravosodju in demokratičnih procesih (npr. rešitve umetne inteligence za pripravo sodnih odločb)
Za umetnointeligenčne sisteme velikega tveganja veljajo stroge obveznosti, preden se lahko dajo na trg:
- ustrezni sistemi za oceno in zmanjšanje tveganja
- visokokakovostni nabori podatkov, ki se uporabljajo v sistemu, da se čim bolj zmanjša tveganje diskriminatornih rezultatov
- beleženje dejavnosti za zagotovitev sledljivosti rezultatov
- podrobno dokumentacijo z vsemi potrebnimi informacijami o sistemu in njegovem namenu, da lahko organi ocenijo njegovo skladnost;
- jasne in ustrezne informacije uvajalcu
- ustrezni ukrepi za človeški nadzor
- visoka raven robustnosti, kibernetske varnosti in natančnosti
Omejeno tveganje
To se nanaša na tveganja, povezana s potrebo po preglednosti v zvezi z uporabo umetne inteligence. Akt o umetni inteligenci uvaja posebne obveznosti razkritja za zagotovitev, da so ljudje obveščeni, kadar je to potrebno za ohranitev zaupanja. Na primer, pri uporabi umetnointeligenčnih sistemov, kot so klepetalni boti, bi bilo treba ljudi opozoriti, da komunicirajo s strojem, da lahko sprejmejo informirano odločitev.
Poleg tega morajo ponudniki generativne umetne inteligence zagotoviti, da je mogoče prepoznati vsebino, ustvarjeno z umetno inteligenco. Poleg tega bi morale biti nekatere vsebine, ustvarjene z umetno inteligenco, jasno in vidno označene, in sicer globoki ponaredki in besedilo, objavljeno z namenom obveščanja javnosti o zadevah javnega interesa.
Minimalno tveganje ali brez tveganja
Akt o umetni inteligenci ne uvaja pravil za umetno inteligenco, ki se šteje za minimalno ali brez tveganja. V to kategorijo spada velika večina umetnointeligenčnih sistemov, ki se trenutno uporabljajo v EU. To vključuje aplikacije, kot so videoigre, ki podpirajo umetno inteligenco, ali filtri za neželeno elektronsko pošto.
Kako vse to deluje v praksi za ponudnike umetnointeligenčnih sistemov velikega tveganja?
Kako vse to deluje v praksi za ponudnike umetnointeligenčnih sistemov velikega tveganja?
Ko je umetnointeligenčni sistem na trgu, so organi odgovorni za nadzor trga, uvajalci zagotavljajo človeški nadzor in spremljanje, ponudniki pa imajo vzpostavljen sistem spremljanja po dajanju na trg. Ponudniki in uvajalci bodo poročali tudi o resnih incidentih in nepravilnem delovanju.
Rešitev za zaupanja vredno uporabo velikih modelov umetne inteligence
Umetnointeligenčni modeli za splošne namene lahko opravljajo najrazličnejše naloge in postajajo podlaga za številne umetnointeligenčne sisteme v EU. Nekateri od teh modelov bi lahko predstavljali sistemska tveganja, če bi bili zelo zmogljivi ali široko uporabljeni. Za zagotovitev varne in zaupanja vredne umetne inteligence akt o umetni inteligenci določa pravila za ponudnike takih modelov. To vključuje preglednost in pravila v zvezi z avtorskimi pravicami. Za modele, ki lahko pomenijo sistemska tveganja, bi morali ponudniki ta tveganja oceniti in zmanjšati.
Pravila akta o umetni inteligenci o umetni inteligenci za splošne namene bodo začela veljati avgusta 2025. Urad za umetno inteligenco olajšuje pripravo kodeksa ravnanja za podrobno opredelitev teh pravil. Kodeks bi moral biti osrednje orodje za ponudnike, da dokažejo skladnost z aktom o umetni inteligenci, in vključevati najsodobnejše prakse.
Upravljanje in izvajanje
Evropski urad za umetno inteligenco in organi držav članic so odgovorni za izvajanje, nadzor in izvrševanje akta o umetni inteligenci. Odbor za umetno inteligenco, znanstveni odbor in svetovalni forum usmerjajo upravljanje akta o umetni inteligenci in svetujejo v zvezi z njim. Več podrobnosti o upravljanju in izvrševanju akta o umetni inteligenci.
Naslednji koraki
Akt o umetni inteligenci je začel veljati 1. avgusta 2024 in se bo v celoti uporabljal dve leti pozneje, tj. 2. avgusta 2026, z nekaterimi izjemami:
- prepovedi in obveznosti glede pismenosti na področju umetne inteligence, ki so se začele uporabljati 2. februarja 2025
- pravila upravljanja in obveznosti za umetnointeligenčne modele za splošne namene se začnejo uporabljati 2. avgusta 2025;
- pravila za umetnointeligenčne sisteme velikega tveganja, vgrajene v regulirane proizvode, imajo podaljšano prehodno obdobje do 2. avgusta 2027
Zadnje novice
Politike in zakonodaja
Publikacija
- 12-05-2025Evropska komisija objavila analizo povratnih informacij deležnikov o opredelitvah umetne inteligence in prepovedanih praksah
- 23-09-2024EU study calls for strategic AI adoption to transform public sector services
- 05-04-2024Umetna inteligenca za javno dobro: Zveza EU-ZDA za raziskave na področju umetne inteligence za javno dobro
Informativni pregled/infografika
Brošura
- 04-02-2025Živi repozitorij za spodbujanje učenja in izmenjave na področju pismenosti na področju umetne inteligence
- 04-03-2024Obzorje Evropa: novi projekti na področju umetne inteligence, podatkov in robotike – izdaja 2024
- 14-04-2021Novi projekti na področju robotike v okviru programa Obzorje 2020 za leto 2021
Povezane vsebine
Širša slika
Podrobnejše informacije
-
Evropski urad za umetno inteligenco in nacionalni organi za nadzor trga so odgovorni za izvajanje...
-
Komisija namerava povečati število strokovnjakov za umetno inteligenco z usposabljanjem in...