Geldboetes onder de EU AI Act

De EU AI Act handhaaft strenge sancties voor AI-overtredingen, met boetes tot €35M of 7% van de wereldwijde omzet voor verboden praktijken zoals manipulatie, uitbuiting of ongeoorloofd biometrisch gebruik. Zorg dat uw AI-systemen voldoen om ernstige financiële en reputatierisico’s te voorkomen.

Geldboetes onder de EU AI Act

Overzicht van het sanctiekader

De EU AI Act stelt een getrapt sanctiesysteem in om verschillende niveaus van overtredingen aan te pakken en naleving van haar strikte regels te bevorderen. De boetes zijn afgestemd op de ernst van de overtreding, zodat AI-exploitanten en ontwikkelaars verantwoordelijk worden gehouden. Er zijn drie hoofdcategorieën:

  • Ernstige overtredingen
  • Hoog-risico overtredingen
  • Overige niet-nalevingskwesties

Elke categorie koppelt specifieke verplichtingen aan bijbehorende sancties, waarbij het proportionaliteitsbeginsel wordt toegepast om overmatige lasten voor kleine en middelgrote ondernemingen (kmo’s) te voorkomen.

Ernstige overtredingen: Tot €35 miljoen of 7% van de wereldwijde omzet

De zwaarste sancties gelden voor verboden praktijken zoals gedefinieerd in de EU AI Act. Deze omvatten:

  • Het inzetten van AI-systemen die kwetsbaarheden van gebruikers uitbuiten
  • Gebruik van subliminale technieken om gedrag te manipuleren
  • Het toepassen van realtime biometrische identificatie in openbare ruimten in strijd met de regels

Organisaties die zich hieraan schuldig maken kunnen boetes krijgen tot €35 miljoen of 7% van de wereldwijde jaaromzet, afhankelijk van welk bedrag hoger is.

Voorbeeld: Het gebruik van AI voor sociale scoring door overheidsinstanties, wat kan leiden tot oneerlijke discriminatie en schending van fundamentele rechten, geldt als een ernstige overtreding. Deze sancties waarborgen de ethische principes die ten grondslag liggen aan AI-ontwikkeling en -gebruik.

Hoog-risico overtredingen: Tot €20 miljoen of 4% van de wereldwijde omzet

AI-systemen met hoog risico moeten voldoen aan strikte eisen, waaronder:

  • Conformiteitsbeoordelingen
  • Transparantiemaatregelen
  • Risicomanagementprotocollen

Niet voldoen aan deze eisen kan leiden tot boetes tot €20 miljoen of 4% van de wereldwijde omzet.

Voorbeeld: Hoog-risicosystemen worden vaak gebruikt in kritieke sectoren zoals gezondheidszorg, rechtshandhaving en onderwijs, waar fouten aanzienlijke gevolgen kunnen hebben. Een AI-wervingsinstrument dat algoritmische vooringenomenheid vertoont en leidt tot discriminerende aanwervingsbeslissingen, valt in deze categorie.

Overige niet-naleving: Tot €10 miljoen of 2% van de wereldwijde omzet

De laagste categorie boetes geldt voor minder ernstige overtredingen, zoals:

  • Administratieve fouten
  • Onvolledige documentatie
  • Niet voldoen aan transparantie-eisen voor AI-systemen met beperkt risico

Organisaties die schuldig bevonden worden aan deze overtredingen kunnen boetes krijgen tot €10 miljoen of 2% van de wereldwijde omzet.

Voorbeeld: Als een organisatie er niet in slaagt gebruikers te informeren dat ze met een AI-systeem communiceren, zoals vereist bij toepassingen met beperkt risico zoals chatbots, kan dit leiden tot sancties binnen deze categorie.

Proportionaliteit voor kmo’s

Om eerlijkheid te waarborgen, past de EU AI Act het proportionaliteitsbeginsel toe voor kmo’s. Boetes voor kleinere organisaties worden aan de onderkant van de schaal berekend om onevenredige financiële lasten te voorkomen. Zo kunnen bedrijven van verschillende groottes binnen het AI-ecosysteem opereren én aan de regelgeving voldoen.

Verboden praktijken en criteria voor overtredingen

Het begrijpen van de verboden praktijken volgens de EU AI Act is essentieel om te zorgen dat de AI-systemen van uw organisatie voldoen aan strikte ethische en wettelijke richtlijnen. Artikel 5 van de wet definieert duidelijk praktijken die onacceptabel zijn omdat ze individuen of de samenleving kunnen schaden en bevordert zo betrouwbare AI, terwijl democratische waarden en mensenrechten worden beschermd.

Subliminale manipulatie

De EU AI Act verbiedt het gebruik van AI-systemen die mensen manipuleren onder het niveau van hun bewuste waarneming. Deze technieken zijn ontworpen om gedrag te beïnvloeden op manieren die mensen verhinderen weloverwogen beslissingen te nemen. AI-systemen van dit type zijn verboden als zij fysieke of psychologische schade veroorzaken of kunnen veroorzaken.

Voorbeeld: Door AI aangestuurde advertenties die psychologische zwakheden uitbuiten om mensen onder druk te zetten tot aankopen die zij niet van plan waren te doen. Door dergelijke methoden te verbieden, richt de EU AI Act zich op het beschermen van individuele autonomie en welzijn.

Uitbuiting van kwetsbaarheden

AI-systemen die kwetsbaarheden vanwege leeftijd, handicap of sociaaleconomische omstandigheden uitbuiten, zijn niet toegestaan. Deze systemen benutten specifieke zwakheden, wat leidt tot schade of verstoorde besluitvorming.

Voorbeeld: Een AI-gedreven leningaanvraag die financieel kwetsbare personen doelbewust benadert met roofzuchtige kredietopties overtreedt deze regel.

Sociale scoresystemen door overheidsinstanties

De wet verbiedt overheidsinstanties AI te gebruiken voor het creëren van sociale scoresystemen. Dergelijke systemen beoordelen individuen op basis van hun gedrag of voorspelde eigenschappen, wat vaak leidt tot oneerlijke of discriminerende behandeling.

Voorbeeld: Een sociaal scoresysteem dat iemand de toegang tot openbare diensten ontzegt op basis van vermeend gedrag.

Ongeoorloofd gebruik van realtime biometrische identificatiesystemen

De EU AI Act stelt strikte grenzen aan het gebruik van realtime biometrische identificatiesystemen in openbare ruimten. Deze systemen mogen alleen in uitzonderlijke gevallen worden ingezet (bijvoorbeeld bij het opsporen van vermiste personen of bij onmiddellijke dreiging zoals terroristische activiteiten). Het gebruik van deze technologieën zonder de juiste toestemming is een overtreding van de wet.

Voorbeeld: Gezichtsherkenningssystemen die worden gebruikt voor grootschalige surveillance zonder geldige juridische grondslag.

Criteria voor het bepalen van overtredingen

Bij het beoordelen van overtredingen houdt de EU AI Act rekening met de potentiële schade en maatschappelijke impact. Belangrijke factoren zijn onder meer:

  • Intentie en doel: Is het AI-systeem ontworpen of gebruikt om individuen te manipuleren, uit te buiten of te schaden?
  • Impact op fundamentele rechten: In hoeverre schaadt de AI-praktijk rechten zoals privacy, gelijkheid en persoonlijke autonomie?
  • Ernst van de schade: Wat is de mate van fysieke, psychologische of maatschappelijke schade?

Bijvoorbeeld, een AI-systeem dat onbedoeld schade veroorzaakt door technische fouten kan minder zware sancties krijgen dan een systeem dat opzettelijk ontworpen is om gebruikers uit te buiten.

Handhavingsmechanismen van de EU AI Act

De EU AI Act beschrijft handhavingsmaatregelen om naleving van de regels te waarborgen, fundamentele rechten te beschermen en betrouwbare AI te stimuleren. Dit gebeurt door samenwerking tussen nationale autoriteiten, markttoezichthouders en de Europese Commissie.

Nationale autoriteiten

Nationale autoriteiten spelen een centrale rol bij de handhaving van de EU AI Act binnen hun respectieve lidstaten, waaronder:

  1. Opzetten van AI-governancestructuren: Lidstaten moeten governancekaders creëren (zoals toezichtcomités) om de naleving van de wet te monitoren.
  2. Uitvoeren van nalevingsbeoordelingen: Autoriteiten controleren of AI-systemen voldoen aan de eisen, met focus op hoog-risicotoepassingen. Dit omvat het beoordelen van documentatie, uitvoeren van audits en het waarborgen dat systemen aan EU-normen voldoen.
  3. Opleggen van sancties: Autoriteiten kunnen sancties opleggen, zoals de geldboetes beschreven in de wet.

Lidstaten moeten AI-governancestructuren hebben opgezet tegen medio 2026, in overeenstemming met de volledige inwerkingtreding van de wet.

Monitoring- en rapportageverplichtingen

De EU AI Act vereist grondige monitoring en rapportage voor AI-systemen:

  1. Toezicht na het in de handel brengen: Ontwikkelaars en gebruikers moeten AI-systemen monitoren na ingebruikname en eventuele risico’s of problemen aanpakken.
  2. Meldplicht voor incidenten: Ernstige incidenten of overtredingen moeten binnen een vastgestelde termijn aan nationale autoriteiten worden gemeld.
  3. Nalevingsdocumentatie: Organisaties moeten volledige dossiers bijhouden (risicobeoordelingen, conformiteitscontroles) die beschikbaar zijn voor inspectie.

Transparantie in documentatie en risicobeoordelingen

Transparantie is een essentieel onderdeel van de handhaving:

  1. Publieke bekendmaking: Ontwikkelaars van hoog-risico AI-systemen moeten informatie geven over het doel, de werking en de beperkingen van het systeem.
  2. Risicomanagementkaders: Organisaties moeten kaders ontwikkelen om risico’s met betrekking tot AI-systemen te identificeren, beoordelen en aanpakken.
  3. Gedetailleerde technische documentatie: Gedetailleerde documentatie (systeemontwerp, algoritmen, databronnen) is vereist om naleving te kunnen aantonen.

Praktische gevolgen en voorbeelden van EU AI Act-boetes

De EU AI Act handhaaft strikte regels voor het gebruik van AI en introduceert zware boetes voor overtredingen. Deze regels:

  • Voorkomen misbruik
  • Zorgen voor naleving door organisaties
  • Zijn van toepassing op organisaties zowel binnen als buiten de EU

Voorbeelden van verboden AI-praktijken

  • Subliminale manipulatie: AI-tools die mensen onbewust aanzetten tot aankopen. Een retailer die dergelijke technologie gebruikt, kan boetes tot €35 miljoen of 7% van de wereldwijde jaaromzet krijgen.
  • Uitbuiting van kwetsbaarheden: AI-systemen die zich richten op kwetsbare groepen (kinderen, ouderen). Bijvoorbeeld een educatieve AI-tool die is ontworpen om kinderen te misleiden, kan leiden tot sancties.
  • Ongeoorloofd gebruik van biometrische systemen: Gebruik van realtime biometrische systemen (gezichtsherkenning in openbare ruimten) zonder juiste toestemming, bijvoorbeeld massasurveillance, kan tot zware boetes leiden.
  • Sociale scoring door overheidsinstanties: Personen scores toekennen op basis van sociaal gedrag (zoals in bepaalde niet-EU-landen) is illegaal, omdat het kan leiden tot discriminatie en sociale ongelijkheid.

Lessen voor organisaties

Overtreding van de EU AI Act kan tot meer leiden dan financiële sancties—het kan de reputatie schaden, het vertrouwen van consumenten ondermijnen en juridische procedures uitlokken. Organisaties zouden:

  1. Risicobeoordelingen uitvoeren: Regelmatig AI-systemen evalueren op nalevingskwesties.
  2. Transparantie waarborgen: Duidelijke administratie en transparantie in AI-activiteiten behouden.
  3. Investeren in ethische AI: Prioriteit geven aan ethische AI-ontwikkeling om te voldoen aan regelgeving en vertrouwen op te bouwen.

Naleving en AI-innovatie

Naleving van de EU AI Act is niet alleen wettelijk verplicht, maar bevordert ook innovatie door veiligere en betrouwbaardere AI-systemen te creëren. Organisaties die voldoen, kunnen:

  • Nieuwe markten betreden
  • Sterkere samenwerkingen aangaan

Voor internationale bedrijven is naleving cruciaal, omdat de wet ook geldt voor niet-EU-organisaties die AI-systemen in de EU aanbieden. Wereldwijde ondernemingen moeten hun praktijken afstemmen op EU-regelgeving om competitief te blijven.

Veelgestelde vragen

Wat zijn de maximale boetes onder de EU AI Act?

De EU AI Act legt boetes op tot €35 miljoen of 7% van de wereldwijde jaarlijkse omzet voor ernstige overtredingen, zoals verboden manipulerende AI-praktijken, uitbuiting van kwetsbaarheden, ongeoorloofde biometrische identificatie en sociale scoring door overheidsinstanties.

Welke AI-praktijken zijn strikt verboden door de EU AI Act?

Strikt verboden praktijken zijn onder meer subliminale manipulatie, uitbuiting van kwetsbaarheden, sociale scoring door overheidsinstanties en ongeoorloofd gebruik van realtime biometrische identificatiesystemen in openbare ruimtes.

Hoe pakt de EU AI Act overtredingen met hoog-risico AI-systemen aan?

AI-systemen met hoog risico moeten voldoen aan strenge eisen zoals transparantie, risicomanagement en conformiteitsbeoordelingen. Niet-naleving kan leiden tot boetes tot €20 miljoen of 4% van de wereldwijde omzet.

Worden de boetes aangepast voor kleine en middelgrote ondernemingen (kmo's)?

Ja, de EU AI Act past het proportionaliteitsbeginsel toe, zodat boetes voor kmo's aan de onderkant van de schaal worden berekend om onevenredige financiële druk te voorkomen.

Wat moeten organisaties doen om te voldoen aan de EU AI Act?

Organisaties moeten regelmatig risicobeoordelingen uitvoeren, transparantie en documentatie waarborgen, ethische AI-ontwikkelpraktijken volgen en zorgen dat hun systemen aan de eisen van de wet voldoen om financiële, juridische en reputatierisico's te vermijden.

Viktor Zeman is mede-eigenaar van QualityUnit. Zelfs na 20 jaar leiding te hebben gegeven aan het bedrijf, blijft hij in de eerste plaats een software engineer, gespecialiseerd in AI, programmatische SEO en backend-ontwikkeling. Hij heeft bijgedragen aan tal van projecten, waaronder LiveAgent, PostAffiliatePro, FlowHunt, UrlsLab en vele anderen.

Viktor Zeman
Viktor Zeman
CEO, AI Engineer

Zorg voor AI-naleving met FlowHunt

Bescherm uw bedrijf tegen hoge EU AI Act-boetes. Ontdek hoe FlowHunt AI-naleving, risicomanagement en transparantie vereenvoudigt.

Meer informatie