AI-wearables op de werkvloer: geniale hulp of stil privacylek?
Er was een tijd dat iedereen het zag wanneer iets werd opgenomen. Iemand pakte zijn telefoon, richtte de camera en drukte op record. Dat moment tussen intentie en opname was zichtbaar voor iedereen in de ruimte/omgeving. Maar die duidelijkheid verdwijnt nu razendsnel. Tijd om hier heel goed naar te kijken als organisatie! In deze blog duik ik er op in.
De nieuwe generatie AI apparaten zit niet meer in onze broekzak en hand, maar op ons lichaam. Brillen, pins, ringen en armbanden kunnen gesprekken opnemen, analyseren en samenvatten zonder dat iemand dat direct doorheeft.
Voor organisaties verandert daar in mijn optiek iets fundamenteels mee: gesprekken die vroeger tijdelijk waren, kunnen nu automatisch worden vastgelegd, opgeslagen en door AI-systemen worden geanalyseerd. Mega handig, maar ook een groot risico. Vooral omdat veel bedrijven nog nauwelijks na hebben gedacht over wat dit betekent.
Het nieuwe datalek waar bedrijven nog geen beleid voor hebben
De markt voor AI-wearables groeit mega snel. Wereldwijd gebruiken inmiddels honderden miljoenen mensen een wearable, van smartwatches tot slimme brillen. Alleen al van de slimme Ray-Ban Meta-brillen zijn inmiddels miljoenen exemplaren verkocht. Deze brillen hebben camera’s, meerdere microfoons en een AI-assistent. Je kunt er scherpe foto’s en video’s mee maken, maar ook vragen stellen aan AI, bellen of gesprekken opnemen. Omdat ze eruitzien als gewone brillen, valt het nauwelijks op wanneer ze actief zijn.
Je ziet hier ook echt een grote switch van de korte metaverse hype, waarin alle tech bedrijven in alle haast VR-apparaten gingen ontwikkelen die je als gebruiker helemaal van de ‘gewone’ wereld afzonderen, naar meer AR-apparaten waarmee je gewoon kan blijven zien en rondlopen. Google werkt aan slimme brillen rond zijn nieuwe Android XR-platform en het Gemini-AI-model. Tijdens demonstraties heeft het bedrijf al laten zien hoe zulke brillen live vertalingen, navigatie en visuele AI-assistentie kunnen bieden.
Samsung ontwikkelt hardware voor datzelfde platform en werkt aan een eerste generatie AI-brillen die de komende jaren op de markt kan verschijnen. Apple heeft nog geen AI-bril aangekondigd, maar volgens meerdere analisten werkt het bedrijf intern aan een bredere strategie rond zogenoemde “ambient AI apparaten”. Daarbij gaat het waarschijnlijk niet om één product, maar om een ecosysteem van apparaten, zoals AirPods met extra sensoren, een AI-gestuurde home hub en uiteindelijk ook slimme brillen.
Tweede categorie: kleine AI-apparaten
Naast brillen ontstaat er ook een tweede categorie gadgets: kleine AI-apparaten die je als pin of clip op je kleding draagt en die gesprekken automatisch kunnen omzetten in transcripties en samenvattingen. Ook verschijnen er ringen en armbanden die spraakmemo’s opslaan of biometrische data combineren met AI-analyse.
De rode draad die je hier heel duidelijk door heen kan trekken: microfoons, sensoren en AI die continu context verzamelen. Experts spreken inmiddels over ambient computing: een wereld waarin technologie niet meer in apparaten zit, maar in onze omgeving. Menselijke ervaringen worden zo de grondstof voor data.

Surveillance secretary
De aantrekkingskracht van deze technologie is mega groot. Zelf gebruik ik bijvoorbeeld een AI-notulist tijdens gesprekken. Niet omdat ik lui wil zijn, maar juist omdat ik beter wil luisteren. Het scheelt enorm veel tijd in verslaglegging en zorgt ervoor dat je tijdens een gesprek meer aandacht hebt voor de inhoud. Een gesprek kan direct worden omgezet in notulen, actiepunten en taken… en ik kan het gelijk vertalen voor mijn niet-Nederlands sprekende werknemers.
Maar je kan er ook naar kijken, zoals Harvard-onderzoeker Shoshana Zuboff het ooit formuleerde in een van mijn favoriete boeken (affliate) “Surveillance capitalism claims human experience as free raw material for translation into behavioral data.”
Ik zie de apparaten steeds vaker verschijnen op vergadertafels en bij professionals. Consultants gebruiken ze tijdens klantgesprekken, managers tijdens interne meetings en ondernemers tijdens interviews of brainstormsessies. En ik geef niemand ook ongelijk; minder typen, minder schermen, meer focus op het gesprek, het goed opslaan van alles wat gezegd is… stuk voor stuk ongekend handige features van deze apparaten.
De opname is pas het begin
De grootste uitdaging zit hem in mijn optiek niet in het apparaat zelf, maar in wat er daarna gebeurt. Veel organisaties realiseren zich niet dat opnames vaak automatisch via externe AI-diensten worden verwerkt. Transcripties, samenvattingen en analyses worden gegenereerd in cloudsystemen van leveranciers. Dat betekent dat gesprekken buiten de organisatie kunnen worden verwerkt. Daarmee raken we in mijn optiek direct aan vertrouwelijkheid.
Een brainstorm, strategisch overleg of klantgesprek kan ongemerkt terechtkomen op servers van een externe AI-provider. Zelfs wanneer het doel alleen een samenvatting was. Daarnaast speelt er een tweede probleem: onzichtbaarheid. Waar een smartphone duidelijk zichtbaar is, lijken wearables op gewone accessoires. Een slimme bril oogt als een normale bril, een AI-pin als een klein sieraad. Daardoor weten mensen in een ruimte vaak niet meer of een gesprek wordt opgenomen. Opname lampjes worden weggemoffeld of zelfs onzichtbaar gemaakt.
In mijn optiek raakt dat aan iets fundamenteels binnen organisaties: vertrouwen. Werknemers en klanten moeten vrij kunnen spreken zonder zich voortdurend af te vragen of een gesprek wordt vastgelegd. Bovendien verzamelen veel wearables niet alleen audio, maar ook andere signalen zoals locatie, beweging en biometrische data. AI-systemen kunnen daar patronen uit afleiden die gevoeliger zijn dan de oorspronkelijke data. Daardoor verschuift het risico van “een opname maken” naar “gedrag analyseren”.
Gelukkig is de wet concreter dan veel organisaties denken
Als ik hierover in gesprek ga met leiders, dan krijg ik vaak te horen dat men vindt “dat de wetgeving rond dit onderwerp nog vaag is”. Maar in werkelijkheid bestaan er echt al duidelijke kaders. Onder de AVG gelden beelden en audio “van herkenbare personen” als persoonsgegevens. Zodra een organisatie gesprekken opneemt, analyseert of opslaat, is er sprake van gegevensverwerking. Dat betekent dat er een duidelijke grondslag moet zijn, dat het doel helder moet zijn en dat er niet meer data mag worden verzameld dan noodzakelijk.
Worden gezondheidsgegevens of biometrische gegevens verwerkt, dan gelden er nog strengere regels omdat deze onder bijzondere persoonsgegevens vallen. Ook het strafrecht bevat hieromheen duidelijke grenzen. Het opnemen van gesprekken waar je zelf geen deelnemer aan bent, kan zelfs strafbaar zijn. Voor verborgen camera-opnames in niet-openbare ruimtes gelden eveneens specifieke bepalingen, hebben we gezien bij verschillende Airbnb schandalen waar verborgen camera’s waren opgehangen in bijvoorbeeld de douche en slaapkamer door de verhuurder.
Voor werkgevers komt daar nog een extra laag bij. Organisaties mogen werknemers niet zomaar controleren of monitoren. Wanneer technologie kan worden gebruikt om gedrag of prestaties van werknemers te volgen, speelt bovendien de ondernemingsraad een rol.
Daarnaast komt er steeds meer regelgeving rond AI zelf. De Europese AI-verordening (of AI Act) introduceert strengere eisen voor systemen met grote maatschappelijke impact. Voor organisaties betekent dat experimenteren met AI-toepassingen niet langer vrijblijvend is: elke toepassing moet aantoonbaar compliant zijn, met inzicht in risico’s, gebruikte data, besluitvorming en menselijk toezicht.
Ga vandaag werken aan een privacy push
Een van de hoofdoorzaken waarom zoveel AI pilots falen volgens het beruchte MIT onderzoek? Het missen van governance rondom het gebruik van de technnologie. Veel organisaties willen snel aan de slag en zien governance eerder als onnodig papierwerk wat alleen maar vertraagt. Terwijl het in mijn optiek essentieel is om te zorgen voor een gezonde, volwassen integratie. Zo zie ik het vraagstuk rondom de AI gadgets ook; een vraagstuk rondom governance, wat je in mijn optiek prima kan ondervangen.
- Breng in kaart welke AI-wearables en transcriptietools binnen de organisatie worden gebruikt, inclusief tools die medewerkers zelf meenemen omdat ze handig zijn.
- Bepaal welke ruimtes en situaties extra gevoelig zijn, zoals boardrooms, HR-gesprekken, juridische besprekingen, medische settings of R&D-overleggen.
- Leg vast (en bespreek met alle collega’s) wanneer opnames zijn toegestaan, wanneer expliciete melding verplicht is en hoe transcripties worden opgeslagen. Behandel AI-wearables simpelweg als opnameapparatuur.
- Nieuwe technologie die mogelijk grote impact heeft op privacy of vertrouwelijkheid vereist vaak een zogenaamd Data Protection Impact Assessment.
- Veel medewerkers realiseren zich vaak niet wat er technisch gebeurt wanneer een AI-tool een gesprek automatisch samenvat. Uitleg hierover is in mijn optiek daarom ook echt heel belangrijk.
- Beoordeel je leveranciers kritisch. Waar wordt data opgeslagen, wie heeft toegang, worden opnames gebruikt voor modeltraining en hoe lang blijven gegevens bewaard?
AI-wearables verdwijnen de komende jaren niet meer van de werkvloer. Net zoals smartphones ooit vanzelfsprekend werden, zullen slimme brillen, pins en andere draagbare AI-apparaten langzaam onderdeel worden van hoe we werken en communiceren.
Zoals technologiehistoricus Melvin Kranzberg ooit zo mooi schreef: “Technology is neither good nor bad; nor is it neutral.” Organisaties moeten in mijn optiek niet alleen nadenken over nieuwe tools, maar ook over nieuwe etiquette. Wanneer mag een gesprek worden vastgelegd? Wanneer niet? En hoe transparant zijn we daarover? De technologie wordt steeds kleiner en slimmer. De verantwoordelijkheid om er verstandig mee om te gaan wordt daarmee alleen maar groter.