Novice

Umetna inteligenca – pogled skozi pravni okvir

18.08.2025
Umetna inteligenca – pogled skozi pravni okvir

Umetna inteligenca (UI) postaja vse bolj prisoten del našega vsakdana – od priporočil na družbenih omrežjih do pametnih orodij v zdravstvu, izobraževanju in javni upravi. Ob tem pa se pojavljajo tudi pomembna vprašanja o vplivih, tveganjih in potrebi po jasnih pravilih, ki bodo zagotavljala, da se UI razvija v korist ljudi in družbe. Članek prinaša pregled ključnih določil nove zakonodaje, njen vpliv na Slovenijo in zlasti pomen za nevladne organizacije, ki se znajdejo tako v vlogi uporabnic kot varuhinj pravic v digitalni dobi.

 

 

Kazalo:

  1. Kaj je umetna inteligenca?
  2. Kako se umetna inteligenca že uporablja? – tudi v Sloveniji
  3. Koristi ali tveganja?
  4. Evropski Akt o umetni inteligenci – kaj določa in koga zadeva?
  5. Pogled na slovenski zakonodajni parket
  6. Kje dobim več informacij in podporo?
  7. Kaj Akt o umetni inteligenci pomeni za nevladne organizacije?
  8. Kaj lahko storimo nevladniki?

 

 

Kaj je umetna inteligenca?

Umetna inteligenca (UI) je računalniška tehnologija, ki z algoritmi analizira velike količine podatkov, odkriva vzorce, se uči iz izkušenj in sprejema odločitve, podobno kot človeško razmišljanje, vendar hitreje in natančneje. Umetna inteligenca tako predstavlja enega ključnih tehnoloških mejnikov sodobne družbe.

 

 

Kako se umetna inteligenca že uporablja? – tudi v Sloveniji

V praksi se UI uporablja na različnih področjih, na primer v zdravstvu (npr. diagnostika rentgenskih slik), prometu, energetiki, industriji, izobraževanju in tudi v nevladnem sektorju. Uporablja se za avtomatiziranje rutinskih opravil, povečuje učinkovitost in zmanjšuje človeški napor.

 

»Umetna inteligenca je že del vsakdanjika – tudi v javni upravi in okoljskih tehnologijah, kot je napovedovanje poplav ali upravljanje z vodo.«

 

Tudi v Sloveniji se UI v različnih sektorjih že uporablja. V zdravstvu se na primer razvijajo orodja za zgodnje odkrivanje raka z analizo slikovnega gradiva, v energetiki UI pomaga pri napovedovanju porabe in optimizaciji delovanja omrežij, v prometu pa omogoča boljšo regulacijo tokov prometa in napovedovanje zastojev. V javni upravi so vse bolj prisotni klepetalni roboti za pomoč uporabnikom (npr. eUprava, eDavki), pa tudi sistemi za avtomatizirano obravnavo vlog in odločb. Na področju okolja se UI uporablja za napovedovanje naravnih nesreč, kot so poplave in suše, ter za pametno upravljanje z vodnimi viri. Sodišča testirajo orodja, ki omogočajo analizo sodne prakse in podporo pri pisanju odločb. Nevladniki to orodje uporabljamo pri oblikovanju vsebin za družbene medije, ali pri raziskovanju določenih tem in družbenih problem, za prevajanje besedil in podobno.

 

 

Koristi ali tveganja?

Organizacija za gospodarsko sodelovanje in razvoj (OECD) sicer poudarja, da UI prinaša enako ali celo več koristi kot tveganj. Vendar nevarnosti, kot so  diskriminacija, pristranskost, zloraba podatkov, varnostna ranljivost, zmanjšana transparentnost odločanja in kršitve temeljnih pravic, se že pojavljajo. In ravno zato obstaja potreba po regulaciji.

 

»EU uvaja prvi globalni pravni okvir za odgovorno uporabo UI.«

 

 

Evropski Akt o umetni inteligenci – kaj določa in koga zadeva?

Tako je Evropska unija z uveljavitvijo Akta o umetni inteligenci 1. avgusta 2024, vzpostavila prvi globalni, sistemski in tveganju prilagojen regulativni okvir. Akt določa pravila, katerih namen je izboljšati delovanje notranjega trga z določitvijo enotnega pravnega okvira, predvsem za razvoj, dajanje na trg, dajanje v uporabo ter za uporabo umetno inteligenčnih sistemov v EU. Pravila Akta o umetni inteligenci so skladna z vrednotami EU, saj spodbujajo uvajanje na človeka osredotočene in zaupanja vredne umetne inteligence ter stremijo k zagotavljanju visoke ravni varovanja zdravja, varnosti in temeljnih pravic, kot so določene v Listini EU o temeljnih pravicah.

 

»Uredba naslavlja tako tveganja za zdravje, varnost in temeljne pravice, kako tudi varuje demokracijo, vladavino prava in okolje.«

 

Sistemom UI je dodelila štiri ravni tveganja, od nizkega do nesprejemljivega, ter za vsako raven uredila različne obveznosti, vključno s prepovedmi za sisteme nesprejemljivega tveganja in strožjimi zahtevami za visoko tvegane aplikacije.

Minimalno tveganje Za večino sistemov umetne inteligence, kot so filtri za neželeno e-pošto in videoigre, omogočene z umetno inteligenco, akt o umetni inteligenci ne uvaja obveznosti, vendar lahko podjetja prostovoljno sprejmejo dodatne kodekse ravnanja.
Veliko tveganje Sistemi umetne inteligence z velikim tveganjem, kot so medicinska programska oprema, ki temelji na umetni inteligenci, ali sistemi umetne inteligence, ki se uporabljajo pri zaposlovanju, morajo izpolnjevati stroge zahteve, vključno s sistemi za zmanjšanje tveganja, visokokakovostnimi nabori podatkov, jasnimi informacijami za uporabnike, človeškim nadzorom itd.
Posebno tveganje glede preglednosti Sistemi, kot so klepetalni boti, morajo uporabnike jasno obvestiti, da komunicirajo s strojem, nekatere vsebine, ustvarjene z umetno inteligenco, pa morajo biti kot take označene.
Nesprejemljivo tveganje Sistemi umetne inteligence, ki vladam ali podjetjem omogočajo „družbeno točkovanje“, se na primer štejejo za očitno grožnjo za temeljne pravice in so zato prepovedani.

 

 

Pogled na slovenski zakonodajni parket

Za uresničevanje evropskega pravnega okvira v Sloveniji je Ministrstvo za digitalno  preobrazbo pripravilo predlog osnutka Zakona o izvajanju Uredbe (EU) o določitvi harmoniziranih pravil o umetni inteligenci (UI), ki je bil dne 25.7.2025 posredovan v obravnavo v vladnoproceduro.

 

»Zakon ne uvaja novih obveznosti, ampak določa, kdo nadzira izvajanje pravil.«

 

Zakon ne prinaša novih pravil oziroma obveznosti za sisteme UI, saj le-te določa že evropska uredba oz. Akt o umetni inteligenci. Njegov glavni namen je  določiti, kateri organi v Sloveniji bodo skrbeli za učinkovito izvajanje in nadzor nad pravili Akta ter prekrške in globe. Osnutek zakona pristojnost organov za nadzor trga po Aktu o umetni podeljujeInformacijskemu pooblaščencu, Agenciji za komunikacijska omrežja in storitve Republike Slovenije (AKOS), Agenciji za zavarovalni nadzor (AZN), Banki Slovenije in Tržnemu inšpektoratu RS (TIRS).

 

Organ  Področje nadzora nad UI
Informacijski pooblaščenec Prepovedane prakse (opredeljene v 5. členu Akta o UI)- Visoko tvegani sistemi s področij:
• biometrije
• izobraževanja in poklicnega usposabljanja
• preprečevanja, odkrivanja in preiskovanja kaznivih dejanj
• migracij, azila in upravljanja nadzora meje
• pravosodja in demokratičnih procesov
Agencija za zavarovalni nadzor (AZN) Sistemi UI za oceno tveganja in oblikovanje cen za fizične osebe v primeru življenjskega in zdravstvenega zavarovanja.
Banka Slovenije Sistemi UI za ocenjevanje kreditne sposobnosti fizičnih oseb ali določanje kreditne ocene, če jih uporabljajo finančne institucije.
Tržni inšpektorat RS (TIRS) Sistemi UI za ocenjevanje kreditne sposobnosti in kreditne ocene pri nebančnih ponudnikih.

 

 

»Posebej pomembno za občine, šole, bolnišnice in tudi nevladne organizacije – zakon omogoča svetovanje in podporo.«

 

 

Kje dobim več informacij in podporo?

Osnutek zakona določa tudi enotno kontaktno točko, pristojni organ za vodenje evidence visoko tveganih sistemov UI s področja kritične infrastrukture ter pristojni organ za vzpostavitev regulativnih peskovnikov za UI ter njegove naloge. Predvideni so tudi ukrepi Ministrstva za digitalno preobrazbo, povezani z izvedbo promocijskih kampanj o uporabi Akta o umetni inteligenci, prilagojeni potrebam malih in srednjih podjetij, vključno z zagonskimi podjetji, uvajalci in organi lokalne skupnosti. Poleg tega predvideva zakon še podporo malim in srednje velikim podjetjem ter javnim organom pri vključevanju UI. Zlasti občine, šole, bolnišnice in drugi javni zavodi pogosto nimajo zadostnega znanja ali sredstev za varno in učinkovito uvedbo UI-tehnologij, zato zakon omogoča svetovanje in dostop do znanj, s čimer spodbuja odgovorno digitalno preobrazbo tudi na lokalni ravni.

 

»Cilj ni omejevanje razvoja, temveč večje zaupanje in zaščita pravic.«

 

Namen nove zakonodaje tako ni omejevanje razvoja, temveč vzpostavitev zaupanja v tehnologijo in omogočanje zaupanja vredne in pregledne uporabe UI. Z jasnimi pravili, nadzorom in transparentnostjo želi Slovenija zagotoviti, da se UI razvija v korist ljudi, vse to pa ob spoštovanju temeljnih pravic, zasebnosti, nediskriminacije in človekovega dostojanstva in etičnih načel. Hkrati pa si prizadeva spodbujati  konkurenčnost domačega tehnološkega okolja in krepiti inovacijski potencial države.

 

 

Kaj Akt o umetni inteligenci pomeni za nevladne organizacije?

Čeprav se zdi, da je Akt o umetni inteligenci (AI Act) predvsem zakonodaja za podjetja, razvijalce tehnologij in javno upravo, ima pomembne posledice tudi za nevladne organizacije (NVO). Zakaj?

  1. NVO kot uporabnice UI
    Tudi nevladne organizacije vse pogosteje uporabljajo digitalna orodja – za komunikacijo z uporabniki, obdelavo podatkov, analize, avtomatizacijo upravnih opravil ipd. Če ta orodja temeljijo na umetni inteligenci (npr. klepetalni roboti, sistemi za podporo odločanju), se lahko uvrščajo v področje zakonodaje, še posebej če gre za visoko tvegane primere (izobraževanje, socialne storitve, pravna pomoč ipd.).
     
  2. NVO kot zagovornice pravic in nadzora
    NVO imajo ključno vlogo pri spremljanju družbenih učinkov tehnologije, varovanju človekovih pravic in zastopanju skupin, ki so lahko ob uporabi UI bolj ranljive (npr. mladi, manjšine, migranti). Akt o umetni inteligenci posebej poudarja pomen zaupanja, varovanja temeljnih pravic in etične rabe UI, kar je neposredno povezano s poslanstvom številnih NVO.
     
  3. Dostop do podpore in znanja
    Slovenski zakon, ki spremlja izvajanje Akta, predvideva tudi ukrepe za podporo javnim organom, malim in srednjim podjetjem ter lokalnim skupnostim pri uvajanju UI. Tovrstna podpora – kot je svetovanje, dostop do znanja in gradiv – je pomembna priložnost tudi za NVO, zlasti za tiste, ki delujejo na področjih digitalizacije, izobraževanja, zdravstva, človekovih pravic ali skupnostnega razvoja.

 

 

Kaj lahko storimo nevladniki?

  • Spremljamo, kako se UI uporablja v našem okolju (npr. v šolah, občinah, pri ponudnikih socialnih storitev).
  • Ocenimo, ali sami uporabljamo UI-orodja, in ali za nas veljajo kakšne obveznosti glede transparentnosti ali odgovornosti.
  • Vključimo se v javne razprave o regulaciji in etiki umetne inteligence, zlasti tam, kjer so v igri temeljne pravice posameznikov ali marginaliziranih skupin.
  • Izkoristimo podporne ukrepe, ki jih zakon predvideva (npr. promocijske kampanje, svetovanje, regulativni peskovniki).

 

Umetna inteligenca tako ni le stvar tehnike – je stvar vrednot, zakonov in skupnosti. Z odgovorno uporabo umetne inteligence gradimo zaupanje v digitalno prihodnost.

 

 

Vir: Zavod PIP