mastercourse SEO en GEO

5 vragen die elke bestuurder nu moet stellen om AI-kwetsbaarheden op te sporen

5 vragen die elke bestuurder nu moet stellen om AI-kwetsbaarheden op te sporen

Bijna elke bestuurder heeft inmiddels een mening over AI. Over welke tools het team mag gebruiken, over de kansen voor efficiency, over de risico’s van hallucinaties. Wat veel bestuurders deze week missen, is dat er intussen iets fundamenteler is veranderd. Anthropic kondigde op 7 april Project Glasswing aan: een consortium van twaalf bedrijven dat exclusief toegang krijgt tot Claude Mythos, een AI-model dat Anthropic zelf te krachtig vindt om breed vrij te geven.

De deelnemers: Amazon Web Services, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorgan Chase, Linux Foundation, Microsoft, NVIDIA, Palo Alto Networks en Anthropic zelf. Plus ruim veertig ongenoemde organisaties. Geen expliciet Europees bedrijf in de bekendgemaakte lijst. Geen toezichthouder. Eén Amerikaanse bank aan tafel, geen Europese.

Hun opdracht is niet klein. Claude Mythos vond in de testfase al een 27 jaar oude kwetsbaarheid in OpenBSD (de software waarop firewalls en routers draaien), een 16 jaar oude kwetsbaarheid in FFmpeg die eerder vijf miljoen automatische scans had overleefd, en meerdere lekken in de Linux-kernel die privilege-escalatie mogelijk maakten.

Het consortium gaat de komende maanden op jacht naar kwetsbaarheden in vrijwel elke laag van de digitale infrastructuur waarop onze organisaties draaien. Verwacht dus een stortvloed aan software-updates in de komende maanden.

En dáár begint voor leiders het echte verhaal. Niet in de techniek, maar in de governance.

Waarom dit geen tech-nieuws is, maar een governance-vraagstuk

Technologie is een multiplier. Het versterkt wat er al is, inclusief alle machtsstructuren die we nooit echt hebben aangepakt. Het gaat hier niet om de vraag of het goed is dat deze kwetsbaarheden gevonden worden (dat is het). Het gaat om de vraag wie bepaalt welke volgorde dat gebeurt, welke software als eerste veilig wordt gemaakt, en wie er buiten de kring staat.

Twaalf bedrijven, vrijwel allemaal Amerikaans, hebben deze week meer invloed op de veiligheid van jouw digitale infrastructuur dan jouw CIO, jouw toezichthouder of de Europese Commissie. De EU AI Act en NIS2 lopen jaren achter op wat hier in een paar weken wordt beslist.

Intentieverklaringen over “verantwoordelijke AI” zijn niet hetzelfde als governance die ook werkt als het erop aankomt. Er is een groot verschil tussen de belofte van governance en de infrastructuur waarin verantwoordelijkheid daadwerkelijk is belegd. Dat is precies de plek waar veel organisaties nu kwetsbaar zijn. Niet omdat ze geen AI-beleid hebben (dat hebben ze meestal wel), maar omdat dat beleid zelden ingaat op externe afhankelijkheden, geopolitieke verschuivingen en de vraag wie aan de controleknop zit.

Vijf vragen die elke bestuurder, CHRO en compliance-verantwoordelijke nu zou moeten stellen.

1. Welke externe AI-afhankelijkheden hebben we al, en kennen we ze?

De meeste organisaties weten welke SaaS-oplossingen ze gebruiken. Veel minder organisaties hebben in kaart welke van die oplossingen AI-componenten bevatten, van welke leverancier die componenten komen en welke data er onderliggend wordt verwerkt. Dit is een basisvraag van je digitale soevereiniteit en een harde voorwaarde voor elke verdere governance-stap. Begin met een inventarisatie die verder gaat dan de AI-tools die jullie zelf aanschaften.

2. Wie beslist bij ons over AI-leverancierswijzigingen, en op basis waarvan?

Als één van jullie softwareleveranciers morgen zijn onderliggende AI-model wisselt (bijvoorbeeld omdat een nieuw consortium voorrang krijgt op updates), wie merkt dat? Wie beslist of dat acceptabel is? Deze beslissing ligt in veel organisaties impliciet bij IT-operations, terwijl het een bestuurlijk vraagstuk is. Leg expliciet vast wie welke beslissing mag nemen en op welke criteria. Dat is de vertrouwensarchitectuur van je organisatie.

3. Hoe compliant zijn we werkelijk, los van wat er op papier staat?

Veel organisaties hebben een AI-ethiekdocument, een policy, een statement. Wat er zelden in staat: wie verantwoordelijk is als het misgaat, welke escalatiepaden er zijn, welke audit-momenten er belegd zijn en wat je doet als een externe leverancier de spelregels eenzijdig wijzigt. Als je jouw beleid naast NIS2 en de EU AI Act legt, waar zit dan de kloof? En wie werkt er nu al aan om die kloof te dichten?

4. Wat is onze positie als een oplossing ook een risico is?

Glasswing maakt iets zichtbaar dat eigenlijk altijd al gold: de partij die AI-kwetsbaarheden vindt, is vaak ook de partij die AI-modellen bouwt. Oplossing en risico komen uit dezelfde koker. Voor bestuurders betekent dat je jouw risicomanagement niet meer kunt laten leunen op één leverancier of één consortium.

Spreiding, onafhankelijke audits en open-source-alternatieven zijn niet langer idealisme. Ze zijn pragmatische risicobeperking.

5. Wat verwachten we van onze mensen, en wat gaan we investeren om dat mogelijk te maken?

Elke van bovenstaande vragen vraagt om mensen die AI begrijpen, governance begrijpen én de verbinding tussen die twee kunnen leggen. Die mensen zijn schaars. Dat is precies waar de meeste organisaties te weinig in investeren, omdat ze het zien als “kosten” in plaats van als “infrastructuur”. Zaaiend leiderschap vraagt om investeren voordat de opbrengst zichtbaar is, en nu is precies zo’n moment.

Van reactief naar sturend

Project Glasswing is niet iets dat je over je heen laat komen. Het is een signaal dat het landschap verandert: technologie krijgt geopolitieke dimensies, toezicht loopt achter, en de partijen die nu aan tafel zitten bepalen de volgorde waarin alle anderen moeten volgen. Leiders die dit begrijpen, beginnen deze week met de vijf vragen hierboven. Niet omdat er een nieuwe AI-tool is om te evalueren. Omdat de infrastructuur onder hun organisatie verschuift.

Welke van deze vijf vragen staat bij jou deze week als eerste op de agenda?