Følg os

Kunstig intelligens

Lov om kunstig intelligens: Rådet og parlamentet indgår en aftale om de første regler for kunstig intelligens i verden

DEL:

Udgivet

on

Vi bruger din tilmelding til at levere indhold på måder, du har givet samtykke til, og til at forbedre vores forståelse af dig. Du kan til enhver tid afmelde dig.

Efter tre dages "maraton"-forhandlinger er Rådets formandskab og Europa-Parlamentets forhandlere nået til en foreløbig aftale om forslaget om harmoniserede regler om kunstig intelligens (AI), den såkaldte kunstig intelligens-lov. Udkastet til forordning har til formål at sikre, at AI-systemer, der bringes på det europæiske marked og bruges i EU, er sikre og respekterer grundlæggende rettigheder og EU-værdier. Dette skelsættende forslag har også til formål at stimulere investeringer og innovation inden for kunstig intelligens i Europa.

Carme Artigas, spansk udenrigsminister for digitalisering og kunstig intelligens

Dette er en historisk præstation og en kæmpe milepæl mod fremtiden! Dagens aftale løser effektivt en global udfordring i et teknologisk miljø i hurtig udvikling på et nøgleområde for fremtiden for vores samfund og økonomier. Og i denne bestræbelse formåede vi at holde en ekstremt delikat balance: at øge innovation og udbredelse af kunstig intelligens i hele Europa, mens vi fuldt ud respekterer vores borgeres grundlæggende rettigheder.Carme Artigas, spansk statssekretær for digitalisering og kunstig intelligens

AI-loven er en flagskib lovgivningsinitiativ med potentiale til at fremme udviklingen og udbredelsen af ​​sikker og troværdig kunstig intelligens på tværs af EU's indre marked af både private og offentlige aktører. Hovedideen er at regulere AI baseret på sidstnævntes evne til at forårsage skade på samfundet efter en 'risikobaseret' nærme sig: jo højere risiko, jo strengere regler. Som det første lovforslag af sin art i verden kan det sætte en global standard for AI-regulering i andre jurisdiktioner, ligesom GDPR har gjort, og dermed fremme den europæiske tilgang til tech-regulering på verdensscenen.

Hovedelementerne i den foreløbige aftale

Sammenlignet med Kommissionens oprindelige forslag kan de vigtigste nye elementer i den foreløbige aftale opsummeres som følger:

  • regler vedr højeffektive AI-modeller til generelle formål der kan forårsage systemisk risiko i fremtiden, såvel som højrisiko AI-systemer
  • et revideret system af regeringsførelse med nogle håndhævelsesbeføjelser på EU-plan
  • forlængelse af listen over forbud men med mulighed for at bruge biometrisk fjernidentifikation af retshåndhævende myndigheder i det offentlige rum, med forbehold for sikkerhedsforanstaltninger
  • bedre beskyttelse af rettigheder gennem forpligtelsen for installatører af højrisiko AI-systemer til at udføre en konsekvensanalyse af grundlæggende rettigheder før et AI-system tages i brug.

Mere konkret dækker den foreløbige aftale følgende aspekter:

Definitioner og omfang

For at sikre, at definition af et AI-system giver tilstrækkeligt klare kriterier til at skelne AI fra simplere softwaresystemer, tilpasser kompromisaftalen definitionen med den tilgang, som OECD foreslår.

Den foreløbige aftale præciserer også, at forordningen ikke finder anvendelse på områder uden for EU-rettens anvendelsesområde og under ingen omstændigheder bør påvirke medlemslandenes kompetencer mht. national sikkerhed eller enhver enhed, der har fået betroet opgaver på dette område. Desuden vil AI-loven ikke gælde for systemer, der udelukkende bruges til militær or forsvar formål. Tilsvarende bestemmer aftalen, at forordningen ikke finder anvendelse på AI-systemer, der udelukkende anvendes med det formål forskning og innovation, eller for folk, der bruger AI af ikke-professionelle årsager.

reklame

Klassificering af AI-systemer som højrisiko og forbudt AI-praksis

Kompromisaftalen giver mulighed for en vandret beskyttelseslag, herunder en højrisikoklassificering for at sikre, at AI-systemer, der sandsynligvis ikke vil forårsage alvorlige krænkelser af grundlæggende rettigheder eller andre væsentlige risici, ikke fanges. Kun AI-systemer præsenterer begrænset risiko ville være udsat for meget lys gennemsigtighedsforpligtelser, for eksempel at afsløre, at indholdet var AI-genereret, så brugere kan træffe informerede beslutninger om videre brug.

En bred vifte af høj risiko AI-systemer ville være godkendt, men underlagt en række krav og forpligtelser for at få adgang til EU-markedet. Disse krav er blevet præciseret og justeret af medlovgiverne på en sådan måde, at de er flere teknisk muligt , mindre belastende for interessenter at efterleve, for eksempel med hensyn til kvaliteten af ​​data, eller i forhold til den tekniske dokumentation, der bør udarbejdes af SMV'er for at påvise, at deres højrisiko AI-systemer overholder kravene.

Da AI-systemer udvikles og distribueres gennem komplekse værdikæder, omfatter kompromisaftalen ændringer, der tydeliggør fordeling af ansvar , de forskellige aktørers roller i disse kæder, især udbydere og brugere af AI-systemer. Den præciserer også forholdet mellem ansvar i henhold til AI-loven og ansvar, der allerede eksisterer under anden lovgivning, såsom den relevante EU-databeskyttelse eller sektorlovgivning.

For nogle anvendelser af kunstig intelligens anses risiko for uacceptabel og derfor vil disse systemer blive forbudt fra EU. Den foreløbige aftale forbyder f.eks. kognitiv adfærdsmanipulation, den umålrettede ophugning af ansigtsbilleder fra internettet eller CCTV-optagelser, følelsesgenkendelse på arbejdspladser og uddannelsesinstitutioner, social score, biometrisk kategorisering at udlede følsomme data, såsom seksuel orientering eller religiøs overbevisning, og nogle tilfælde af prædiktiv politi for enkeltpersoner.

Undtagelser for retshåndhævelse

I betragtning af de særlige forhold ved retshåndhævende myndigheder og behovet for at bevare deres evne til at bruge kunstig intelligens i deres vitale arbejde, blev der vedtaget adskillige ændringer af Kommissionens forslag vedrørende brugen af ​​kunstig intelligens-systemer til retshåndhævelsesformål. Med forbehold for passende sikkerhedsforanstaltninger, er disse ændringer beregnet til at afspejle behovet for at respektere fortroligheden af ​​følsomme operationelle data i forhold til deres aktiviteter. For eksempel blev der indført en nødprocedure, der tillader retshåndhævende myndigheder at implementere et højrisiko AI-værktøj, som ikke har bestået overensstemmelsesvurdering procedure i hastende tilfælde. Der er dog også indført en specifik mekanisme for at sikre dette grundlæggende rettigheder vil være tilstrækkeligt beskyttet mod enhver potentiel misbrug af AI-systemer.

Desuden med hensyn til brugen af ​​realtid biometrisk fjernidentifikation systemer i offentligt tilgængelige rum, præciserer den foreløbige aftale målene, hvor en sådan brug er strengt nødvendig til retshåndhævelsesformål, og til hvilke retshåndhævende myndigheder derfor undtagelsesvis bør have tilladelse til at bruge sådanne systemer. Kompromisaftalen giver mulighed for yderligere sikkerhedsforanstaltninger og begrænser disse undtagelser til tilfælde af ofre for visse forbrydelser, forebyggelse af ægte, nuværende eller forudsigelige trusler, såsom terrorangreb, og eftersøgning af personer, der er mistænkt for de alvorligste forbrydelser.

AI-systemer til generelle formål og fundamentmodeller

Nye bestemmelser er blevet tilføjet for at tage højde for situationer, hvor AI-systemer kan bruges til mange forskellige formål (generel AI), og hvor AI-teknologi til generelle formål efterfølgende integreres i et andet højrisikosystem. Den foreløbige aftale omhandler også de specifikke tilfælde af AI-systemer til generelle formål (GPAI).

Der er også aftalt specifikke regler for fundament modeller, store systemer, der er i stand til kompetent at udføre en bred vifte af særprægede opgaver, såsom at generere video, tekst, billeder, samtale i sidesprog, computere eller generere computerkode. Den foreløbige aftale bestemmer, at funderingsmodeller skal overholde specifikke gennemsigtighedsforpligtelser før de sættes på markedet. Der blev indført en strengere ordning for 'høj effekt' fundament modeller. Disse er fundamentmodeller trænet med store mængder data og med avanceret kompleksitet, kapaciteter og ydeevne langt over gennemsnittet, som kan sprede systemiske risici langs værdikæden.

En ny styringsarkitektur

Efter de nye regler om GPAI-modeller og det åbenlyse behov for håndhævelse af dem på EU-plan, an AI Office i Kommissionen er oprettet til at føre tilsyn med disse mest avancerede AI-modeller, bidrage til at fremme standarder og testpraksis og håndhæve de fælles regler i alle medlemslande. EN videnskabeligt panel af uafhængige eksperter vil rådgive AI-kontoret om GPAI-modeller, ved at bidrage til udviklingen af ​​metoder til evaluering af fundamentsmodellernes muligheder, rådgive om udpegning og fremkomsten af ​​high impact-fundamentmodeller og overvåge mulige materialesikkerhedsrisici relateret til funderingsmodeller.

AI bestyrelse, som vil omfatte medlemslandenes repræsentanter, vil forblive som en koordineringsplatform og et rådgivende organ for Kommissionen og vil give en vigtig rolle til medlemsstaterne i forbindelse med gennemførelsen af ​​forordningen, herunder udformningen af ​​adfærdskodekser for fondemodeller. Endelig en rådgivende forum for interessenter, såsom industrirepræsentanter, SMV'er, nystartede virksomheder, civilsamfundet og den akademiske verden, vil blive oprettet for at levere teknisk ekspertise til AI Board.

sanktioner

Bøderne for overtrædelser af AI-loven blev fastsat som en procentdel af den krænkende virksomheds globale årlige omsætning i det foregående regnskabsår eller et forudbestemt beløb, alt efter hvad der er højere. Dette ville være 35 millioner euro eller 7 % for overtrædelser af de forbudte AI-applikationer, 15 millioner euro eller 3 % for overtrædelser af AI-lovens forpligtelser og 7,5 millioner euro eller 1,5 % for levering af ukorrekte oplysninger. Det er dog fastsat i den foreløbige aftale mere forholdsmæssige lofter om administrative bøder til SMV'er og nystartede virksomheder i tilfælde af overtrædelser af bestemmelserne i AI-loven.

Kompromisaftalen gør det også klart, at en fysisk eller juridisk person kan indgive en klage til de relevante markedsovervågningsmyndighed vedrørende manglende overholdelse af AI-loven og kan forvente, at en sådan klage vil blive behandlet i overensstemmelse med den pågældende myndigheds dedikerede procedurer.

Gennemsigtighed og beskyttelse af grundlæggende rettigheder

Den foreløbige aftale indeholder bestemmelser om en konsekvensanalyse af grundlæggende rettigheder før et højrisiko AI-system sættes på markedet af dets deployere. Den foreløbige aftale giver også mulighed for øget gennemsigtighed vedrørende brugen af ​​højrisiko AI-systemer. Navnlig er nogle bestemmelser i Kommissionens forslag blevet ændret for at angive, at visse brugere af et højrisiko AI-system, som er offentlige enheder, også vil være forpligtet til at registrere sig i EU-database til højrisiko AI-systemer. Desuden lægger nyligt tilføjede bestemmelser vægt på en forpligtelse for brugere af en følelsesgenkendelsessystem at informere fysiske personer, når de bliver udsat for et sådant system.

Foranstaltninger til støtte for innovation

Med henblik på at skabe en retlig ramme, der er mere innovationsvenlig og at fremme evidensbaseret regulatorisk læring, skal bestemmelserne vedr. foranstaltninger til støtte for innovation er blevet væsentligt ændret i forhold til Kommissionens forslag.

Det er især blevet afklaret, at AI regulatoriske sandkasser, som formodes at etablere et kontrolleret miljø for udvikling, test og validering af innovative AI-systemer, bør også give mulighed for test af innovative AI-systemer under virkelige forhold. Endvidere er der tilføjet nye bestemmelser, der tillader test af AI-systemer i virkelige verdens forholdunder særlige forhold og sikkerhedsforanstaltninger. For at lette den administrative byrde for mindre virksomheder indeholder den foreløbige aftale en liste over foranstaltninger, der skal iværksættes for at støtte sådanne operatører, og indeholder nogle begrænsede og klart specificerede undtagelser.

Ikrafttræden

Den foreløbige aftale bestemmer, at AI-loven skal finde anvendelse to år efter dets ikrafttræden, med nogle undtagelser for specifikke bestemmelser.

Næste skridt

Efter dagens foreløbige aftale vil arbejdet fortsætte på teknisk niveau i de kommende uger med at færdiggøre detaljerne i den nye forordning. Formandskabet vil forelægge kompromisteksten til medlemslandenes repræsentanter (Coreper) til godkendelse, når dette arbejde er afsluttet.

Hele teksten skal bekræftes af begge institutioner og gennemgå en juridisk-lingvistisk revision, før den formelle vedtagelse af medlovgiverne.

Baggrundsoplysninger

Kommissionens forslag, der blev præsenteret i april 2021, er et nøgleelement i EU's politik for at fremme udviklingen og udbredelsen på tværs af det indre marked af sikker og lovlig kunstig intelligens, der respekterer grundlæggende rettigheder.

Forslaget følger en risikobaseret tilgang og fastlægger en ensartet, horisontal retlig ramme for kunstig intelligens, der har til formål at sikre retssikkerhed. Udkastet til forordning har til formål at fremme investeringer og innovation i kunstig intelligens, forbedre styring og effektiv håndhævelse af eksisterende lovgivning om grundlæggende rettigheder og sikkerhed og lette udviklingen af ​​et indre marked for kunstig intelligens-applikationer. Det går hånd i hånd med andre initiativer, herunder den koordinerede plan om kunstig intelligens, som har til formål at fremskynde investeringer i kunstig intelligens i Europa. Den 6. december 2022 nåede Rådet til enighed om en generel indstilling (forhandlingsmandat) til denne sag og indledte interinstitutionelle forhandlinger med Europa-Parlamentet ("triloger") i midten af ​​juni 2023.

Del denne artikel:

EU Reporter udgiver artikler fra en række eksterne kilder, som udtrykker en bred vifte af synspunkter. Standpunkterne i disse artikler er ikke nødvendigvis EU Reporters.

trending