Terug naar overzicht
17 oktober 2025 | 3 minuten

AI en Europa deel 3: wie houdt de regie?

AI en Europa deel 3: wie houdt de regie?

De regels zijn er. De infrastructuur komt op gang. Maar wie bewaakt de toepassing? De EU wil met het nieuwe AI Office richting geven aan generatieve AI. Tegelijk laat China zien hoe AI niet alleen technologie is, maar ook een geopolitiek instrument. In die context is uitvoeringskracht geen luxe, maar noodzaak.

Met de AI Act zette Europa als eerste een juridisch kader neer voor het gebruik van AI. In Nederland merken we daar concreet van dat bedrijven en overheden steeds vaker moeten laten zien hoe hun AI werkt en waar de data vandaan komt. Ook merk je dat projecten vaker in Europa zelf moeten draaien. Niet alleen vanwege regels, maar ook omdat klanten en overheden dat verlangen voor zekerheid en controle vanuit Europees grondgebied.

In deel 1 legden we uit hoe die regels zijn gebaseerd op risico’s. In deel 2 keken we naar infrastructuur, de onderliggende rekenkracht die AI überhaupt mogelijk maakt. Maar wetgeving en datacentra maken nog geen beleid. Dat vergt interpretatie, handhaving, en keuzes over hoe je met AI wil omgaan. Die taak komt bij het nieuwe European AI Office te liggen. Het moet toezien op naleving van de AI Act, in het bijzonder voor general purpose AI-modellen als ChatGPT of Gemini. Het moet standaarden helpen vaststellen, codes van praktijk opstellen, en toezicht houden op systeemrisico’s. Op papier een stevige rol. Maar in de praktijk is de opbouw nog pril, en de verwachtingen torenhoog. Het AI Office staat sinds zomer 2025 onder leiding van Lucilla Sioli, maar beschikt nog over beperkte capaciteit en zoekt nadrukkelijk samenwerking met nationale toezichthouders.

Terwijl Europa zoekt naar uitvoering, toont China een andere kant van AI. Interne documenten van het bedrijf GoLaxy, opgedoken via Vanderbilt University en recent gepubliceerd door The New York Times, laten zien hoe AI al volop wordt ingezet in informatie-operaties. Geen sciencefiction: het bedrijf ontwikkelt een “Smart Propaganda System” dat op grote schaal sociale media monitort, sentimenten volgt, en automatisch content genereert die lijkt op echte, menselijke uitingen.

De technologie wordt gebruikt om oppositie in Hongkong te verzwakken, verkiezingen in Taiwan te beïnvloeden, en zelfs Westerse politici te profileren. Volgens de documenten verzamelde GoLaxy gegevens over duizenden Amerikaanse publieke figuren. Hoewel niet alles te verifiëren is, bevestigen Amerikaanse inlichtingendiensten de nauwe banden tussen het bedrijf en de Chinese overheid.

Juist dit soort toepassingen laat zien waarom uitvoering ertoe doet. Regels zonder regie blijven vrijblijvend. De EU presenteert zich als normsteller voor ’trustworthy AI’, maar dat vergt meer dan goede intenties. En daar wringt het. De uitwerking van de eerste gedragscodes, richtsnoeren voor aanbieders van generatieve AI, is in volle gang. Maar volgens Euractiv dreigt het AI Office juist hier zijn gezag te verliezen. De eerste Code of Practice voor general purpose AI verscheen in juli 2025; bedrijven kunnen deze vrijwillig toepassen om hun conformiteit te tonen. Maar in plaats van zelf de pen te voeren, overweegt de Commissie consultancybedrijven zoals de Big Four in te schakelen. Mogelijk zelfs in samenwerking met de bedrijven die straks onder toezicht staan. Daarmee ontstaat het risico van zelfregulering via de achterdeur.

Critici noemen het een “valse start”. Zonder heldere regie en transparantie dreigt het AI Office slechts toeschouwer te worden van het spel dat het zou moeten leiden. Tegelijk zijn er ook voorstanders van een pragmatische aanpak. Zij wijzen erop dat snelheid vereist is: de codes moeten al in 2025 klaar zijn. Bovendien kan het inschakelen van experts, ook commerciële, bijdragen aan uitvoerbaarheid en aansluiting bij de praktijk.

Voor bedrijven en instellingen betekent dit dat ze moeten opletten. De komende maanden worden bepalend voor hoe AI-regels straks in de praktijk gaan werken. Wie nu meepraat, via consultaties, sectorfora of direct contact met de Commissie, kan mee vormgeven aan de kaders waar hij straks aan moet voldoen. Belangrijk: het AI Office krijgt ook bevoegdheden om informatie op te vragen, model beoordelingen uit te voeren, en zelfs modellen van de markt te halen bij ernstige risico’s. Het wordt dus geen papieren tijger, mits het zijn rol waarmaakt.

China laat zien wat AI als strategisch instrument kan betekenen. Europa wil daar een ander model tegenover zetten. Maar dat vraagt om meer dan idealen. Het vraagt om een AI Office dat gezaghebbend, onafhankelijk en capabel is. De komende maanden zal blijken of Brussel die belofte weet in te lossen.

Wil je weten wat dit betekent voor jouw organisatie, of hoe je input kunt leveren aan dit proces? Neem contact op met Roel (roel@castro.brussels).