Reglerne betyder, at og myndigheder skal sikre sig, at deres systemer ikke udgør en trussel mod sikkerheden, borgernes rettigheder eller værdighed.
Derudover skal medarbejderne have de rette kompetencer til at arbejde med det.
Annonce
Klare rammer
- Formålet med forordningen er at skabe klare rammer for, hvordan kunstig intelligens må og ikke må benyttes for at sikre borgeres rettigheder samtidig med, at virksomhedernes muligheder for innovation styrkes, siger vicedirektør i Digitaliseringsstyrelsen Lars Bønløkke Le.
Det er eksempelvis ikke tillad at bruge kunstig intelligens til at måle personers følelsesmæssige tilstand på en arbejdsplads eller uddannelse.
Virksomheder, der bruger kunstig Intelligens skal i fremtiden overholde visse nye regler.Airam Dato-on/Pexels.com
DE NYE REGLER
Minimal eller ingen risiko AI-systemer: Disse systemer er ikke underlagt særlige krav, da de anses for at være lavrisiko. Langt de fleste AI-systemer der anvendes i EU, falder ind under denne kategori. Dette er eksempelvis anbefalingssystemer i streamingplatforme, der foreslår film eller musik, autokorrektur og navigation.
Begrænset risiko AI-systemer (Anvendelsesdato: 2. august 2026): Disse systemer skal overholde specifikke gennemsigtighedskrav. For eksempel skal brugere, der taler eller skriver med en chatbot, gøres opmærksom på, at det er et AI-system. Desuden skal AI-genereret tekst, lyd- og videoindhold, herunder deepfakes markeres som AI-genereret, når det offentliggøres med det formål at informere offentligheden om spørgsmål af offentlig interesse.
Højrisiko AI-systemer (Anvendelsesdato: 2. august 2026 og 2. august 2027): Disse systemer har væsentlig risiko og er underlagt krav, såsom detaljeret dokumentation, risikostyring, overvågning og ansvarlighed. Højrisiko AI-systemer er eksempelvis AI, der anvendes i kritisk infrastruktur (fx transport og forsyning), sikkerhedskomponenter i produkter (fx anvendelse af kunstig intelligens i robotassisteret kirurgi), uddannelse (fx bedømmelse af eksaminer), ansættelse (fx sorteringssoftware til ansættelsesprocedurer) og væsentlige private og offentlige tjenester (fx prisfastsættelse ifm. sygeforsikring). Læs mere om: Højrisiko AI-systemer
Forbudte AI-systemer (Anvendelsesdato: 2. februar 2025): Disse systemer udgør en klar trussel mod sikkerhed, borgernes rettigheder eller værdighed og er derfor forbudt. Forbudte AI-systemer er eksempelvis AI, der anvendes til masseovervågning eller til automatisk at vurdere risikoen for, at personer begår kriminalitet.
Kravene gælder kun nye AI-systemer udviklet efter anvendelsesdatoen eller AI-systemer, hvor der er foretaget væsentlige ændringer.