Artificial Intelligence Wetgeving

29-12-2023 Print this page
B916626

Europese Parlementsleden hebben een politieke overeenkomst bereikt met de Raad over een wetsvoorstel om ervoor te zorgen dat AI in Europa veilig is, fundamentele rechten en democratie respecteert, terwijl bedrijven kunnen gedijen en groeien. In't kort:
1. Er zijn maatregelen overeengekomen met betrekking tot kunstmatige intelligentie voor algemeen gebruik.
2. Beperkingen voor het gebruik van biometrische identificatiesystemen door wetshandhavingsinstanties.
3. Verbod op sociale score systemen en het gebruik van AI om gebruikerskwetsbaarheden te manipuleren of uit te buiten.
4. Recht van consumenten om klachten in te dienen en zinvolle uitleg te ontvangen.
5. Boetes variërend van 35 miljoen euro of 7% van de wereldwijde omzet tot 7,5 miljoen euro of 1,5% van de omzet.

Uitgebreide versie

Verboden toepassingen

Erkennend het potentiële gevaar voor de rechten van burgers en de democratie door bepaalde toepassingen van AI, zijn de medewetgevers overeengekomen om te verbieden:

  • Biometrische categorisatiesystemen die gevoelige kenmerken gebruiken (bijv. politieke, religieuze, filosofische overtuigingen, seksuele geaardheid, ras);
  • Ongerichte verzameling van gezichtsafbeeldingen van internet of bewakingsbeelden om gezichtsherkenningdatabases te maken;
  • Emotieherkenning op de werkplek en in onderwijsinstellingen;
  • Sociale scoring gebaseerd op sociaal gedrag of persoonlijke kenmerken;
  • AI-systemen die het menselijk gedrag manipuleren om hun vrije wil te omzeilen;
  • AI gebruikt om de kwetsbaarheden van mensen uit te buiten (vanwege hun leeftijd, handicap, sociale of economische situatie).

     

Uitzonderingen voor rechtshandhaving
Onderhandelaars hebben ingestemd met een reeks waarborgen en nauwe uitzonderingen voor het gebruik van biometrische identificatiesystemen in openbaar toegankelijke ruimtes voor rechtshandhavingsdoeleinden, onderworpen aan voorafgaande gerechtelijke toestemming en voor strikt gedefinieerde lijsten van misdaden. "Post-remote" biometrische identificatiesystemen zou strikt worden gebruikt bij gerichte zoekacties van een persoon die veroordeeld is of verdacht wordt van het plegen van een ernstig misdrijf.

"Real-time" gebruik van biometric identification zou voldoen aan strikte voorwaarden en het gebruik ervan zou beperkt zijn in tijd en plaats, met als doel:

  • gerichte zoekacties naar slachtoffers (ontvoering, mensenhandel, seksuele uitbuiting),
  • preventie van een specifieke en actuele terroristische dreiging, of
  • het lokaliseren of identificeren van een persoon die wordt verdacht van het plegen van een van de specifieke misdrijven die worden genoemd in de verordening (bijv. terrorisme, mensenhandel, seksuele uitbuiting, moord, ontvoering, verkrachting, gewapende overval, deelname aan een criminele organisatie, milieucriminaliteit).


Verplichtingen voor systemen met hoog risico

Voor AI-systemen geclassificeerd als hoog risico (vanwege hun aanzienlijke potentieel schadelijk voor gezondheid, veiligheid, fundamentele rechten, milieu, democratie en de rechtsstaat) werden duidelijke verplichtingen overeengekomen. EP-leden slaagden erin om een verplichte impactbeoordeling van fundamentele rechten op te nemen, naast andere vereisten, die ook van toepassing zijn op de verzekerings- en banksector. AI-systemen die worden gebruikt om de uitkomst van verkiezingen en het stemgedrag van kiezers te beïnvloeden, worden ook geclassificeerd als hoog risico. Burgers zullen het recht hebben om klachten in te dienen over AI-systemen en uitleg te ontvangen over beslissingen die zijn gebaseerd op AI-systemen met een hoog risico die hun rechten beïnvloeden.

 

Rails voor algemene kunstmatige intelligentiesystemen

Om rekening te houden met de brede reeks taken die AI-systemen kunnen uitvoeren en de snelle uitbreiding van hun mogelijkheden, werd overeengekomen dat AI-systemen voor algemeen gebruik (GPAI) en de GPAI-modellen waarop ze zijn gebaseerd, moeten voldoen aan transparantievereisten zoals aanvankelijk voorgesteld door het Parlement. Deze omvatten het opstellen van technische documentatie, naleving van het auteursrecht van de EU en het verspreiden van gedetailleerde samenvattingen over de inhoud die wordt gebruikt voor training.

 

Voor hoogimpact-GPAI-modellen met systemisch risico slaagden onderhandelaars van het Parlement erin om strengere verplichtingen vast te leggen. Als deze modellen aan bepaalde criteria voldoen, moeten ze modelbeoordelingen uitvoeren, systemische risico's beoordelen en verminderen, aanvallende tests uitvoeren, ernstige incidenten rapporteren aan de Commissie, zorgen voor cyberveiligheid en rapporteren over hun energie-efficiëntie. EP-leden benadrukten ook dat tot geharmoniseerde EU-standaarden worden gepubliceerd, GPAI's met systemisch risico kunnen vertrouwen op gedragscodes om aan de verordening te voldoen.

 

Maatregelen ter ondersteuning van innovatie en MKB's
EP-leden wilden ervoor zorgen dat bedrijven, met name het MKB, AI-oplossingen kunnen ontwikkelen zonder onredelijke druk van grote bedrijven die de waardeketen controleren. Om dit te bereiken, bevordert de overeenkomst zogenaamde regelgevende zandbakken en tests in de echte wereld, opgezet door nationale autoriteiten om innovatieve AI te ontwikkelen en te trainen voordat ze op de markt worden geplaatst.

 

Sancties en inwerkingtreding
Niet-naleving van de regels kan leiden tot boetes variërend van 35 miljoen euro of 7% van de wereldwijde omzet tot 7,5 miljoen of 1,5% van de omzet, afhankelijk van de inbreuk en de omvang van het bedrijf.

 

REF: 20231206IPR15699

Joint trilogue press conference excepts are to be found here.
[Om de toepassing nog eens te benadrukken is voor de vertaling van dit artikel gebruik gemaakt van ChatGPT, klik hier om het oorspronkelijke en volledige persbericht te lezen