We vertrouwen AI met onze data: hoe verstandig is dat?
We vertrouwen AI met onze data omdat het makkelijk, goedkoop en efficiënt lijkt. Maar terwijl onze modellen slimmer worden, raken wij de controle kwijt. Onder de CLOUD Act mag de Amerikaanse overheid data opeisen van bedrijven als Microsoft, Amazon en Google – zelfs als die data in Europa staat. Wat ooit een keuze voor gemak was, is nu een kwestie van autonomie en vertrouwen.
In dit artikel laat ik zien wat organisaties vandaag al kunnen doen om hun digitale soevereiniteit te beschermen, zonder te wachten op Brussel of Big Tech.
In een eerder artikel op Frankwatching schreef ik over de relatie tussen data, HR en privacy. Daar ging het vooral over hoe organisaties zorgvuldig met persoonsgegevens omgaan. Dit keer richt ik me op de volgende stap: hoe we als Europa de controle over onze digitale infrastructuur kunnen herwinnen, en waarom dat juist nu zo belangrijk is.
Onze digitale autonomie staat onder druk. Toch liggen de oplossingen dichterbij dan we denken. Gelukkig ontstaan er in heel Europa initiatieven die laten zien dat het ook anders kan. Nieuwe spelers bouwen aan technologie die niet draait op afhankelijkheid, maar op transparantie, samenwerking en vertrouwen.
Europese AI-alternatieven komen eindelijk op stoom
Er waait een nieuwe wind door Europa. Start-ups als Mistral, Aleph Alpha en Hugging Face (EU Cloud) bouwen aan AI-systemen die wél voldoen aan de Europese waarden: privacy, transparantie en dataminimalisatie.
Mistral is een goed voorbeeld. Het bedrijf werkt met Europese datacenters, biedt transparantie over modelarchitectuur en laat organisaties zich afmelden voor het hergebruik van data. GDPR by design. Toch is het geen heilige graal. Mistral is jong, gebruikt deels nog subcontractors of – processors buiten de EU en audits moeten zich nog bewijzen.
Het potentieel is groot, maar vertrouwen vraagt tijd, transparantie en Europese samenwerking. En juist daar wringt het: beleid en praktijk bewegen nog niet in hetzelfde tempo.
Tussen beleid en praktijk: waar verliezen we de controle?
De AI Act, die in augustus 2024 officieel werd aangenomen, moet zorgen voor meer transparantie, risicobeoordeling en verantwoord gebruik van AI-systemen. Een belangrijke stap, maar wetgeving alleen verandert nog geen gedrag.
Tegelijk voert de Europese Commissie een dubbele strategie onder de noemer ‘Apply AI’ en ‘AI in Science’: aan de ene kant het versnellen van AI-adoptie in bedrijfsleven en publieke sector, aan de andere kant investeren in wetenschappelijk onderzoek, talent en infrastructuur. Daarmee probeert Europa niet alleen regels te stellen, maar ook het tempo van innovatie zelf te bepalen.
Toch laat de praktijk een ander beeld zien. Volgens het CBS gebruikte in 2024 ongeveer 23% van de Nederlandse bedrijven een of meer AI-technologieën. Bij grote ondernemingen lag dat op bijna 60%. Nieuwe cijfers tonen aan dat die groei in 2025 versnelt: volgens het rapport Unlocking Europe’s AI Potential – Netherlands Edition 2025 (van EY en The Lisbon Council, in samenwerking met Microsoft) gebruikt inmiddels 49% van de Nederlandse bedrijven AI – een stijging van 26% in één jaar.
De Rekenkamer constateerde in haar rapport Focus op AI bij de rijksoverheid dat veel AI-systemen binnen de overheid nog experimenteel zijn. Slechts een deel is operationeel, en bij een derde is onbekend of ze doet wat ze moet doen. De Autoriteit Persoonsgegevens waarschuwt ondertussen voor ongecontroleerde datastromen. Vicevoorzitter Monique Verdier vat het scherp samen:
Zodra data eenmaal in een model zit, verlies je de controle: het kan er niet zomaar weer uitgehaald worden en de gevolgen zijn moeilijk te voorspellen.
Beleid is er dus volop, maar de praktijk blijft achter. Terwijl regels worden aangescherpt, blijven veel organisaties in de dagelijkse realiteit worstelen met één simpele vraag:
waar staat onze data eigenlijk en wie heeft er toegang toe?
En dat brengt ons bij de kern van het probleem: wetgeving kan richting geven, maar geen verantwoordelijkheid afdwingen.
Wachten op wetgeving? Dat kunnen we ons niet permitteren
De overheid zet de richting uit, maar organisaties moeten zelf bepalen waar hun data staat en wie erbij kan.
Dat begint met simpele, maar cruciale vragen:
- Waar staat onze data fysiek opgeslagen?
- Welke subcontractors of -processors gebruiken onze leveranciers?
- Kunnen medewerkers bezwaar maken tegen gebruik van hun data in AI-toepassingen?
Sommige Nederlandse gemeenten stellen die vragen inmiddels hardop. Zo koos de gemeente Amsterdam ervoor om generatieve AI-tools, zoals ChatGPT en Copilot, voorlopig te verbieden binnen de organisatie, totdat er garanties zijn over dataveiligheid en transparantie.
Andere gemeenten gaan juist actief op zoek naar Europese alternatieven. Volgens Computable (2025) gebruiken steeds meer overheden private AI*, toepassingen binnen een gecontroleerde omgeving, zoals een eigen datacenter of Nederlandse cloud.
Zoals Eugene Tuijnman (CEO SLTN) het treffend zegt:
AI inzetten is aantrekkelijk, maar je wilt niet dat je bedrijfsdata op het publieke internet belandt. Dat de Amerikaanse overheid zo’n greep op onze data heeft, heeft echt voor een schokgolf gezorgd.
Het illustreert dat organisaties niet kunnen wachten op regelgeving alleen. De echte vraag is: durven we nu al de controle te nemen, of laten we anderen die voor ons bepalen?
* Private AI verwijst naar AI-toepassingen die draaien binnen een afgeschermde, gecontroleerde infrastructuur, bijvoorbeeld een eigen datacenter of Nederlandse cloudomgeving. Organisaties behouden zo volledige zeggenschap over hun data en modellen, zonder dat deze met externe partijen worden gedeeld.
Drie scenario’s: welke kant kiest Europa met AI?
Hoewel harde cijfers voor eind 2025 nog schaars zijn, tekenen zich duidelijke trends af.
Scenario 1: versnelde adoptie
AI-gebruik groeit explosief, gestuwd door Europese innovatiefondsen en publiek-private samenwerking. Eind 2026 zou meer dan de helft van alle Europese bedrijven actief AI kunnen inzetten, vooral in kennisintensieve sectoren.
Scenario 2: gefragmenteerde groei
Sommige landen lopen voorop – Nederland, Duitsland, Finland – terwijl Zuid- en Oost-Europa achterblijven. Een ‘two-speed Europe’ dreigt, waarin digitale ongelijkheid nieuwe afhankelijkheden schept.
Scenario 3: vertraging door regels en kosten
De AI Act vraagt om audits en documentatie; voor kleinere organisaties kan dat zwaar wegen. Als naleving te complex of te duur wordt, stokt de groei juist.
Welke kant het opgaat, hangt af van keuzes die organisaties nú maken: welke infrastructuur ze gebruiken, welke waarborgen ze eisen en hoe transparant ze zijn over hun datastromen.
Controle herwinnen begint met samenwerking
Digitale soevereiniteit bereik je niet in je eentje. Bedrijven, overheden en leveranciers moeten samenwerken aan een betrouwbaar ecosysteem.
Dat begint wat mij betreft met deze drie stappen:
- Kies bewust. Selecteer leveranciers die dataverwerking binnen de EU garanderen, auditbare modellen bieden en subprocessors openbaar maken.
- Wees transparant. Communiceer intern én extern waar data wordt opgeslagen, wie toegang heeft en met welk doel.
- Investeer lokaal. Steun Europese innovatie, ook als dat tijdelijk duurder of minder ‘bewezen’ lijkt dan de grote Amerikaanse alternatieven.
Zoals voormalig minister Robbert Dijkgraaf het samenvat:
Om optimaal gebruik te maken van de kansen van AI, moeten we investeren in kennis, infrastructuur en autonomie. Alleen zo blijft Europa concurrerend én soeverein.
Digitale soevereiniteit: de prijs van vertrouwen
Digitale soevereiniteit draait niet om grenzen, maar om vertrouwen: weten waar je data is en wie erover beslist. Het betekent dat we zelf grip houden op onze data en dus op onze toekomst.
Europa zet stappen: AI-initiatieven groeien, maar de kloof met de VS blijft groot. In 2025 ging ruim 80% van het wereldwijde AI-investeringskapitaal naar Amerikaanse bedrijven; Europa bleef steken op 9%. De EU Data Act en investeringen in Europese infrastructuur brengen ons dichter bij autonomie, maar alleen beleid is niet genoeg.
Elke organisatie die kiest voor transparantie, privacy en Europese infrastructuur, helpt het vertrouwen in AI te herstellen. Want wie de controle over zijn data verliest, verliest uiteindelijk ook de controle over zijn toekomst. De vraag is niet óf we die controle terugpakken, maar wanneer.