7 maatschappelijke AI-uitdagingen waar we aan moeten werken

In Nederland hoeven we niet naar futuristische dystopieën te kijken om de gevaren van AI te begrijpen. Denk bijvoorbeeld aan de Toeslagenaffaire. Een algoritme van de Belastingdienst beoordeelde automatisch wie verdacht was van fraude. Geen transparantie, geen menselijke controle – alleen een systeem dat duizenden ouders onterecht wegzette als fraudeurs. Het gevolg: levens verwoest, banen kwijt, kinderen uit huis geplaatst. En niemand die écht aansprakelijk was. In de AI-high waar veel professionals en organisaties in zitten, vergeten we in mijn optiek om ook echt scherp te gaan kijken naar de minder positieve kanten.
Elke nieuwe technologie begint met blinde vlekken
We zien het elke keer weer bij de meeste nieuwe technologieën. De opkomst van internet leidde tot explosies in criminaliteit en desinformatie. De Bitcoin-revolutie begon met idealen, maar trok ook hackers en witwassers aan. Social media begonnen als platforms om te verbinden, maar werden snel wapens in informatie-oorlogen. En denk aan drones: ooit hobby-technologie, nu inzetbaar voor spionage of zelfs aanvallen. Wetgeving? Die liep altijd achter.
We zien nu dezelfde reflexen bij AI: overheden die worstelen met regels, bedrijven die winst voorrang geven, criminelen die de boel slim misbruiken en een samenleving die pas echt wakker schrikt als het misgaat. Ja, ik word elke dag enthousiaster over alle mogelijkheden en hoe ze mij versterken als professional. Maar ik merk elke keer weer als ik ergens spreek over AI en het publiek erover vraag; niemand houdt de ontwikkelingen meer bij; zo veel en zo snel. Laat staan dat mensen rustig nadenken over de impact ervan. Wat AI kan, maar vooral: wat het doet en wat dat met ons doet.
Zeven AI-gevaren die al geen toekomstmuziek meer zijn
De discussie over AI-risico’s richt zich in mijn optiek vaak op de bekende thema’s: hallucinerende chatbots, privacyproblemen of AI’s die data lekken. Toegegeven, die problemen zijn reëel, maar ze worden inmiddels heel actief en succesvol aangepakt. Hallucinaties nemen flink af door betere modellen / redeneringsvermogen en privacy wordt beter gewaarborgd via afgesloten omgevingen zoals Microsoft Copilot.
Maar in mijn optiek zitten de échte risico’s veel dieper. Niet in wat AI zegt, maar in wat het stilletjes doet. Wie wordt gevolgd, beoordeeld of uitgesloten door een algoritme? Welke beslissingen nemen machines al zonder dat we het doorhebben? Wat betekent dat voor onze rechtsstaat, arbeidsmarkt of mentale gezondheid?
Laatst mocht ik voor een overheidsorganisatie de hosanna- en hypeverhalen thuis laten en het personeel volledig bang maken met gefundeerde argumenten over waar ik zie dat er nog te weinig gebeurt om de uitwassen van AI tegen te gaan. Mijn top 7:
1. AI maakt desinformatie geloofwaardiger en gevaarlijker
Nepnieuws is niet nieuw, maar AI maakt het overtuigender én schaalbaarder. Tijdens de verkiezingen in Nederland in 2023 gingen deepfake-video’s van politici viraal. Een gemanipuleerde toespraak die nooit had plaatsgevonden werd duizenden keren gedeeld – vaak als ‘bewijs’. Ze zijn zo goed, dat ze ook door de controlefilters van de socialmedia-platformen heen komen.
Volgens onderzoek heeft 1 op de 3 Nederlanders moeite om echt van nep te onderscheiden. Onderzoek van de Universiteit Leiden toont aan dat mensen die meer gebruikmaken van social media en vatbaar zijn voor complottheorieën, beter zijn in het herkennen van deepfakes, wat suggereert dat anderen mogelijk kwetsbaarder zijn voor misinformatie.
2. Van slimme stad naar controlestaat
Smart city-technologieën, zoals gezichtsherkenning en gedragsanalyse, bieden efficiëntie maar brengen ook risico’s met zich mee voor privacy en burgerrechten. In Amsterdam wordt geëxperimenteerd met slimme camera’s die afval op straat herkennen. En met algoritmen die tijdens de coronapandemie detecteerden of mensen voldoende afstand hielden. Hoewel deze technologieën bijdragen aan stadsbeheer, roepen ze ook vragen op over toezicht en privacy.
3. Algoritmes kunnen systematisch discrimineren zonder dat we het doorhebben
Het gebruik van AI in sollicitatieprocedures kan leiden tot onbedoelde discriminatie. Het College voor de Rechten van de Mens stelt dat werkgevers verantwoordelijk blijven voor de uitkomsten van algoritmes en zich niet kunnen verschuilen achter technologie als er sprake is van ongelijke behandeling. Een onderzoek onder 896 Nederlandse werkgevers toonde aan dat het bewustzijn over de risico’s van algoritmische discriminatie laag is.
4. AI beslist soms dodelijk, zonder mens erbij
De ontwikkeling van autonome wapensystemen, ook wel ‘killer robots‘ genoemd, roept ethische en juridische vragen op. Volgens de Adviesraad Internationale Vraagstukken (AIV) en de Commissie van Advies inzake Volkenrechtelijke Vraagstukken (CAVV) moet Nederland zich nadrukkelijker bezighouden met de regulering van deze systemen. Er is bezorgdheid dat zonder duidelijke regelgeving de inzet van dergelijke wapensystemen kan leiden tot onvoorspelbare en mogelijk catastrofale gevolgen.
5. AI kan worden gemanipuleerd door een sticker op een stopbord
AI-systemen in het verkeer, zoals die voor zelfrijdende auto’s, zijn kwetsbaar voor manipulatie. In een onderzoek werden kleine stickers op stopborden geplakt, waardoor zelfrijdende auto’s deze verkeersborden niet meer als zodanig herkenden en ze interpreteerden als borden met een snelheidsbeperking. Hoewel dit specifieke voorbeeld niet uit Nederland komt, benadrukt het de noodzaak voor robuuste beveiligingsmaatregelen en voortdurende evaluatie van AI-systemen in kritieke infrastructuren.
6. AI verandert werk en niet iedereen wordt meegenomen
De opkomst van AI heeft aanzienlijke gevolgen voor de Nederlandse arbeidsmarkt. Volgens een rapport van PwC is meer dan 44% van de banen in Nederland in hoge of zeer hoge mate blootgesteld aan generatieve AI, zoals ChatGPT. Dit betekent dat bijna de helft van de huidige functies significant kan veranderen door de inzet van AI-technologieën.
De veranderingen op de arbeidsmarkt hebben bredere maatschappelijke implicaties. Een rapport van de APG benadrukt dat het verlies van werk door AI kan leiden tot sociale uitsluiting en een gevoel van verlies van controle over het eigen leven. Zonder adequate ondersteuning en omscholingsmogelijkheden kunnen getroffen werknemers moeite hebben om opnieuw werk te vinden, wat kan resulteren in economische ongelijkheid en sociale spanningen.
7. AI beïnvloedt gedrag zonder dat je het merkt
AI-algoritmes op platforms zoals TikTok kunnen gebruikers onbewust sturen richting content die schadelijk is voor hun mentale gezondheid. Amnesty International waarschuwt dat de ‘Voor Jou’-pagina van TikTok na enkele uren gebruik een overweldigende hoeveelheid content toont die gerelateerd is aan mentale gezondheidsproblemen, wat zorgwekkende implicaties heeft voor jongeren. Dit onderstreept de noodzaak voor transparantie en regulering van algoritmische aanbevelingssystemen op social media-platforms.
Wat kunnen we eraan doen?
Technology changes exponentially, but social, economic, and legal systems change incrementally – Larry Downes
Technologie ontwikkelt zich nu eenmaal altijd veel sneller dan wetgeving. Dat noemen ze ook wel het ‘pacing problem‘. Er wordt wereldwijd inmiddels keihard gewerkt aan regels en ethiek voor AI. De EU heeft de AI Act, de VS lanceert AI-principes en ook landen als Japan en Canada zetten kaders neer. Belangrijker nog: steeds meer AI-ontwikkelaars bouwen zelf ethische toetskaders in hun werk.
Bedrijven als OpenAI en Anthropic publiceren ‘red teaming’-verslagen en stellen hun modellen open voor toetsing. Maar dit is vaak nog een wassen neus in mijn optiek, want dit alles is nog volledig vrijwillig/vrijblijvend voor de bedrijven. Zonder duidelijke verplichtingen, onafhankelijke controle en stevige handhaving blijven we kwetsbaar. Wat zijn dan wel oplossingen? Ik heb een aantal ideeën voor Nederland op een rij gezet.
Een wettelijk recht op menselijke toetsing
Een AI-systeem mag nooit als enige beslissen over zaken die diep ingrijpen in iemands leven: denk aan het toekennen van toeslagen, zorgtoegang, een lening of zelfs een juridische beoordeling. Mensen moeten altijd het recht hebben om uitleg te krijgen en om die beslissing te laten herzien door een mens. Dat klinkt misschien logisch, maar is nog lang niet vanzelfsprekend geregeld.
In de Europese AI Act wordt het belang van menselijke controle bij risicovolle systemen genoemd, maar een hard afdwingbaar burgerrecht bestaat nog niet. In de financiële sector wél: daar geldt al dat kredietbeslissingen op verzoek opnieuw door een mens moeten worden bekeken. Nederland kan dit als eerste expliciet vastleggen, bijvoorbeeld via een aparte AI-wet of als uitbreiding op bestuursrechtelijke waarborgen. Digitale ombudsdiensten kunnen vervolgens burgers laagdrempelig helpen bij bezwaar en toetsing.
Dat is geen administratieve luxe, maar een bescherming tegen onzichtbare macht. Zolang systemen mogen beslissen zonder dat je weet wie verantwoordelijk is, zijn rechten kwetsbaar.
Transparantie als bouwplicht
AI-systemen die niet uitlegbaar zijn, zouden niet in gebruik mogen worden genomen. Iedereen die een AI-systeem ontwikkelt of inzet – overheid of bedrijf – moet vooraf documenteren hoe het werkt:
- wat het doel is
- welke data zijn gebruikt
- welke aannames erin zitten
- hoe vaak het faalt
- hoe gebruikers feedback kunnen geven.
In andere sectoren is dat volkomen normaal. Denk aan het CE-keurmerk in de bouw of techniek: zonder technische onderbouwing geen toegang tot de markt. Grote techbedrijven publiceren inmiddels vrijwillig ‘model cards’ met uitleg over hun AI, maar die zijn vaak summier en juridisch niet bindend.
Door wettelijk te eisen dat ieder systeem dat publieke of maatschappelijke impact heeft een ‘algoritmisch paspoort’ moet hebben, wordt transparantie een ontwerpeis. Dat maakt het mogelijk om systemen te vergelijken, te controleren, en – indien nodig – af te wijzen. Juist in een tijd waarin AI-beslissingen steeds minder zichtbaar worden, is inzicht geen extraatje, maar een voorwaarde voor vertrouwen.
Onafhankelijke AI-toezichtteams
Goed toezicht op AI vereist meer dan een adviescommissie of ethisch panel. Er is behoefte aan echte inspectieteams met doorzettingsmacht: professionals die AI-systemen kunnen onderzoeken, audits kunnen afdwingen en indien nodig systemen stil kunnen leggen. Die modellen bestaan in andere sectoren allang. Denk aan de Nederlandse Voedsel- en Warenautoriteit of de Inspectie Gezondheidszorg.
Voor AI ontbreekt zo’n autoriteit nog. De overheid zou een onafhankelijke toezichthouder kunnen oprichten met multidisciplinaire teams: van juristen en ethici tot datawetenschappers en gedragspsychologen. Die krijgen toegang tot overheidsdata én private systemen als die publieke invloed hebben. Ze kunnen meldplicht opleggen bij incidenten, patronen signaleren, en waar nodig ingrijpen. Waarom dat nodig is? Omdat veel AI-toepassingen zó complex zijn dat zelfs ontwikkelaars ze nauwelijks begrijpen. Als niemand controleert, groeit het risico op misbruik, discriminatie en onveiligheid tot het moment dat de schade onomkeerbaar is.
Een nationaal kennisinstituut voor AI
Als we AI willen gebruiken in het publieke belang, hebben we een publieke kennisbasis nodig. Een onafhankelijk instituut, vergelijkbaar met het RIVM, dat onderzoek doet naar de maatschappelijke impact van AI, dat systemen beoordeelt en burgers en beleidsmakers objectief informeert. Zoiets bestaat nog niet, maar zou kunnen voortbouwen op bestaande partijen als TNO of het Rathenau Instituut. Het instituut zou best practices verzamelen, modellen toetsen op transparantie, risico’s in kaart brengen en wetenschappers, journalisten en overheden voorzien van actuele kennis.
Cruciaal: het moet echt onafhankelijk opereren. Dus zonder commerciële of politieke sturing. Waarom dit dringend is? Omdat we nu vooral afhankelijk zijn van kennis die bij techbedrijven zelf zit. Maar wie de technologie ontwikkelt, moet niet ook degene zijn die bepaalt of het goed gaat. Publieke technologie vraagt om publieke toetsing en dat begint bij publieke kennis.
Verplichte AI-educatie vanaf schoolniveau
Om je staande te houden in een wereld waarin AI keuzes beïnvloedt, gedrag stuurt en zelfs bepaalt wat je ziet, moet je begrijpen hoe het werkt. Daarom zou AI-educatie een structureel onderdeel moeten worden van het onderwijs – al vanaf de basisschool. Niet alleen technisch, maar ook ethisch en maatschappelijk: wat doet AI met je wereldbeeld, met privacy, met je rechten?
Finland is op dit vlak voorloper, met brede AI-lessen voor jongeren én volwassenen. In Nederland zijn er pilots en enthousiaste initiatieven, maar het ontbreekt aan samenhang en structurele ondersteuning. Het ministerie van OCW zou in samenwerking met de Nederlandse AI Coalitie een nationaal curriculum kunnen opstellen, inclusief leermiddelen, training voor docenten en betrokkenheid van het bedrijfsleven.
Want als we willen dat burgers later kritisch, weerbaar en vrij blijven in een wereld vol slimme systemen, moeten we ze die vaardigheden al jong aanleren. Digitale geletterdheid is niet optioneel, het is het nieuwe burgerschap.
De echte AI-vraag: wie stuurt wie?
Als we nu niets doen, groeit AI buiten ons om. Dan bouwen we systemen die mensen beoordelen, selecteren en sturen zonder dat we begrijpen hoe of waarom. De toeslagenaffaire zou dan geen pijnlijk incident meer zijn, maar het begin van een patroon waarin technologie menselijke schade veroorzaakt zonder dat iemand nog verantwoordelijk is. Niet uit kwade wil, maar uit gemak, onwetendheid en een gebrek aan regie.
Wat als we het nu eens anders proberen te doen? Dat we technologie beschouwen als een publiek vraagstuk, niet als een marktproduct. Dat we ethiek niet aan de achterkant toevoegen, maar vanaf de eerste regel code integreren. En dat we toezicht durven organiseren, recht durven beschermen, en jongeren leren hoe ze zichzelf kunnen wapenen tegen manipulatie door slimme systemen. Dan is AI geen bedreiging, maar een bondgenoot in het bouwen van een menswaardige samenleving.
De toekomst van AI is geen technisch verhaal. Het is een democratisch verhaal. Een rechtvaardigheidsvraag. Die ligt in mijn optiek niet in de handen van machines, maar in die van ons.