Terug naar overzicht
10 juli 2025 | 3 minuten

AI en Europa deel 1: de eerste AI Act

AI en Europa deel 1: de eerste AI Act

Er zijn weinig thema’s waar beleidsmakers zich zo ongemakkelijk bij voelen als AI. Het ontwikkelt zich razendsnel, is vaak moeilijk uit te leggen, en raakt aan gevoelige onderwerpen als macht, privacy en ongelijkheid. Dan helpt het ook niet dat overheden zelden bekendstaan om hun kennis en kunde op het gebied van nieuwe technologieën. Toch kwam de Europese Commissie met de AI Act.

De bedoeling is simpel: AI mag, maar niet alles. De wet kijkt niet naar wat AI is, maar naar wat het doet. Hoe hoger de risicocategorie, hoe zwaarder de eisen. Een virtuele assistent in de klantenservice van een webwinkel? Zelden een probleem. Een AI-systeem dat sollicitanten beoordeelt of gezichten herkent in de openbare ruimte? Dan moet je aan hele strenge voorwaarden voldoen, of het mag helemaal niet. Soms is dat maar beter ook, want zonder duidelijke grenzen laat je belangrijke beslissingen over aan systemen die niet verantwoordelijk kunnen worden gehouden.

De gedachte is logisch, maar de praktijk blijkt lastiger. Want hoewel de regels goed bedoeld zijn, voelt het voor sommige organisaties anders. Leuk dat we mogen innoveren, maar kan iemand eerst uitleggen hoe? Die frustratie is begrijpelijk. De AI Act kent veel open normen en grijze gebieden. Wat precies een ‘hoog risico’-toepassing is, hangt niet alleen van de techniek af, maar vooral van de context.

Een algoritme in een speelgoedrobot is iets anders dan dezelfde techniek in een HR-systeem. Zo bleek bijvoorbeeld het Japanse BakeryScan AI-systeem in 2017, ontwikkeld om brood en croissants te herkennen en correct te beprijzen, 99% accuraat in het herkennen van kankercellen. De techniek was bijna hetzelfde, maar de toepassing werd uiteindelijk heel anders.

Bovendien komt er nogal wat bij kijken: risicobeoordelingen, data verantwoording, gebruikersdocumentatie. En dat allemaal terwijl veel bedrijven nog bezig zijn met de basis: “Doet het wat we willen?” krijgt er ineens een tweede laag bij: “Wat mag er eigenlijk wel?”

Het risico is dat bedrijven op de rem gaan staan uit angst om het fout te doen. Toch is de AI Act niet bedacht om startups of bedrijven dwars te zitten. Integendeel. Er komen speciale uitprobeer zones, zogeheten ‘’regulatory sandboxes’’, juist om te voorkomen dat vernieuwing wordt afgeremd, en nationale overheden moeten actief gaan helpen niet alleen controleren.

De AI Act staat niet op zichzelf. Parallel daaraan zet de Europese Commissie ook stappen om het innovatieklimaat te verbeteren. Denk aan de Choose Europe to Start and Scale strategie, die de randvoorwaarden voor start-ups en scale-ups moet versterken: minder versnippering, betere toegang tot kapitaal, en een markt die sneller openbreekt. Oftewel: de EU probeert niet alleen te reguleren, maar ook te bouwen aan een ecosysteem waarin verantwoord innoveren haalbaar blijft.

Wat betekent dit voor jou? Of je nu met een eigen AI-model werkt of tools van anderen integreert: de kans is groot dat je binnenkort iets moet uitleggen. Aan klanten, investeerders, of misschien wel een toezichthouder. Wat doet je systeem precies? Hoe wordt er mee omgegaan? En: kun je verantwoorden wat eruit komt?

Het goede nieuws: de meeste organisaties hoeven geen juridische handboeken te schrijven. Maar ze moeten wél het verhaal op orde hebben. Hoe transparanter en zorgvuldiger je je toepassing uitlegt, hoe geloofwaardiger je blijft, en hoe kleiner het risico op onaangename verrassingen.

Meer weten? Neem gerust contact op met Roel Yska (roel@castro.brussels).