Sikker og ansvarlig AI: EU’s AI-forordning
- 20. mar.
- 1 min læsning
EU’s nye AI-forordning trådte i kraft den 1. august 2024, og reglerne vil blive trinvist implementeret frem mod 2027. Men hvad betyder det egentlig i praksis?
Formålet med forordningen er at skabe klare regler for udviklere, distributører og brugere af kunstig intelligens. Den fastlægger, hvilke typer AI man må anvende, og hvordan det skal ske på en sikker og ansvarlig måde. Målet er at beskytte sundheden, sikkerheden og borgernes grundlæggende rettigheder.
Risikobaseret tilgang
AI-forordningen arbejder ud fra en risikobaseret tilgang, som betyder, at jo højere risiko en AI-løsning udgør for sundheden, sikkerheden og borgernes grundlæggende rettigheder, desto strengere krav stilles der.
Der skelnes mellem:
AI-modeller til almen brug – grundlæggende algoritmiske modeller, som kan integreres i mange forskellige systemer.
AI-systemer – komplette løsninger, som inkluderer software, dataindsamling, brugergrænseflade m.m., og som virksomheder og myndigheder typisk anvender i praksis.
Kategorier under forordningen
1. Gennemsigtighedsforpligtelser (træder i kraft 2. august 2026)
Brugere skal gøres opmærksomme, når de interagerer med AI, fx via chatbots. Desuden skal AI-genereret indhold som tekst, billeder og videoer tydeligt markeres som skabt af AI.
2. Højrisiko AI-systemer (træder i kraft 2. august 2026 og 2. august 2027)
Højrisiko-systemer kan fx bruges i ansættelsesprocesser, kritisk infrastruktur eller uddannelse. Disse systemer kan udgøre en væsentlig risiko for sundhed, sikkerhed og grundlæggende rettigheder og er derfor underlagt strenge krav til risikostyring, dokumentation og kontrol.
3. Forbudte former for AI-praksis (trådte i kraft 2. februar 2025)
AI, der anvendes til manipulation eller andre handlinger, der kan skade sundhed, sikkerhed eller grundlæggende rettigheder, er forbudt.
Har du lyst til at blive klogere på EU's AI-forordning?



Kommentarer