De AI Act: wat betekent deze wet voor mijn organisatie?

blank

Artificial Intelligence (AI) heeft de afgelopen jaren een razendsnelle ontwikkeling doorgemaakt. De EU wil deze ontwikkeling in goede banen leiden en is daarom sinds 2021 bezig met het ontwerpen van wetgeving. Op 8 december 2023 heeft de EU een voorlopig akkoord bereikt over de AI Act: de Europese wet die binnenkort eisen zal stellen aan de ontwikkeling en het gebruik van AI.

Wat is het doel van de AI Act?

AI heeft veel nuttige toepassingen, maar helaas zijn er ook risico’s voor de gezondheid, veiligheid en rechten van burgers. Privacyschendingen, discriminerende algoritmen en softwarefouten bij zelfrijdende auto’s kunnen veel schade aanrichten. De AI Act heeft als doel om AI veiliger en transparant te maken.

Wie moet zich aan de AI Act houden?

De AI Act bevat regels voor aanbieders en gebruikers van AI. Aanbieders zijn bedrijven die AI-systemen verkopen aan of laten gebruiken door anderen in de EU. Oftewel: ontwikkelaars en verkopers van AI.

Gebruikers zijn personen, bedrijven en organisaties die AI-systemen gebruiken voor het uitvoeren van werkzaamheden. Denk bijvoorbeeld aan een onderneming die een AI-systeem gebruikt voor procesautomatisering, marketing of klantenservice.

Welke regels gelden voor mijn AI?

Dat hangt af van de risico’s van jouw AI-systeem. De AI Act maakt namelijk onderscheid tussen verschillende risicocategorieën en de verplichtingen verschillen per categorie. Kort gezegd: hoe hoger de risico’s, hoe strenger de regels.

Welke risicocategorieën zijn er?

1. Onaanvaardbaar risico: deze AI-systemen vormen zo’n groot risico voor mens en maatschappij dat ze verboden zijn. Voorbeelden hiervan zijn:

  • Emotieherkenning op de werkvloer en in het onderwijs;
  • Manipulatie van iemands gedrag;
  • Ongerichte verzameling van gezichtsopnames vanaf het internet of camerabeelden om gezichtsherkenningsdatabases samen te stellen;
  • Social credit scoring op basis van iemands gedrag en eigenschappen;
  • Uitbuiting van iemands kwetsbaarheid (waaronder leeftijd, fysieke of geestelijke vermogens, of sociale of economische situatie).

2. Hoog risico: dit zijn AI-systemen die worden gebruikt in producten met strenge veiligheidseisen, zoals medische hulpmiddelen, motorvoertuigen, vaartuigen en vliegtuigen.

Daarnaast vallen bepaalde AI-systemen die worden gebruikt in een aantal specifieke sectoren (zoals onderwijs, werkgelegenheid, sociale zekerheid en krediet) ook binnen deze categorie. Denk bijvoorbeeld aan AI die besluiten neemt over het functioneren van werknemers. Of AI die iemands kredietwaardigheid beoordeelt. Voor deze systemen gelden de meeste regels.

3. Beperkt risico: dit zijn AI-systemen die geen onacceptabel of hoog risico voor mens en maatschappij vormen. Denk aan AI-systemen die:

  • Interacteren met mensen, zoals chatbots;
  • Emoties herkennen;
  • Mensen indelen op basis van biometrische kenmerken, of;
  • Beeld- of geluidsmateriaal genereren of bewerken.

Voor systemen met een beperkt risico gelden aanzienlijk minder verplichtingen. Wel gelden er nog wat extra regels voor general-purpose AI: AI-systemen die zijn ontworpen om een breed scala aan intelligente taken uit te voeren, zoals ChatGPT.

4. Laag risico: dit zijn alle AI-systemen die niet binnen een van de bovenstaande categorieën vallen. Voor deze systemen geeft de AI Act geen verplichtingen.

Ben jij een aanbieder of gebruiker van AI? Dan zul je dus eerst moeten inventariseren welke AI-systemen jouw onderneming gebruikt, om vervolgens te onderzoeken binnen welke risicocategorieën die systemen vallen. Benieuwd naar de specifieke verplichtingen die voor jouw AI-systeem zullen gelden? Hou dan onze website in de gaten, want dat leggen wij binnenkort uit!

Juridisch advies over de AI Act

Weet jij niet zeker onder welke risicocategorie jouw AI-systeem valt? Of heb je andere vragen over de AI Act? Neem dan contact op met ons via info@privacycoaches.nl en wij helpen je hiermee!

Benieuwd wat Privacycoaches
voor jou kan doen?

blank

Start typing and press Enter to search