Tech

Hoe we ons kunnen weren tegen deepfakes

0

‘Schijn bedriegt.’ Dat geldt tegenwoordig meer dan ooit. Met de opkomst van deepfake-technologie is wantrouwen tegenover informatie, zowel online als via andere kanalen, meer dan terecht. Maar we staan niet machteloos. Dit zijn de belangrijkste oplossingen.

Wat doen we tegen deepfakes?

Deepfakes’ zijn teksten, beelden, video’s en audio-bewerkingen die door kunstmatig intelligente software zijn gecreëerd. Deze software kan steeds meer, bijvoorbeeld met video’s, het klonen van stemmen of nepnieuws-teksten. Hoe kunnen consumenten, overheid en journalistiek zich daartegen wapenen? Hoe herken je deepfake? Wat doe je ertegen?

En hoe voorkom je dat je om de tuin geleid wordt door een gekloonde stem? Hoe voorkom je dat je eigen stem gekloond wordt? Hoe voorkom je dat er een deepfake pornovideo opduikt waarin jij de hoofdrolspeler bent? Het zal moeilijk zijn om frauduleuze deepfakes tegen te houden. Net zoals we in 2019 last blijven houden van phishing en spam, zullen ook deepfakes een plaag blijven. Het blijft een kat en muisspel tussen makers en bestrijders. Maar er is hoop.

Deepfakes stem klonen.

Controlled capture

Er zijn manieren waarop we ons kunnen verweren tegen nepnieuws, chantage, identiteitsfraude en reputatieschade via deepfake. Gelukkig maar. Eén manier is het met een app vastleggen van gebeurtenissen, inclusief locatie en tijd. Dat is de zogenaamde controlled capture. De app is uitgerust met gps en legt handelingen, gebeurtenissen, tijd en plaats vast. Het is het medicijn tegen een nepvideo of nep-audiobestand die jou iets laat doen of zeggen wat je niet gedaan hebt. Je kunt bewijzen wat je werkelijk deed en waar je werkelijk was op dat tijdstip.

Een extra beveiliging vormt de versleuteling van cruciale informatie met blockchain-technologie. Die technologie slaat de informatie op een wereldwijd computernetwerk op, zodat de gegevens onwrikbaar vastliggen. Een extra zekerheid levert de combinatie met een watermerk in afbeeldingen of video’s. Dit is bijvoorbeeld superhandig voor journalisten om nieuwsgebeurtenissen mee vast te leggen. Zo kunnen ze onomstotelijk bewijzen dat iets heeft plaatsgevonden. Bewijslast wordt weer bewijslast en misdadigers kunnen het excuus ‘dat was ik niet, dat is deepfake’ niet meer gebruiken.

Life logging

Deze controlledcapture-technologie gaat ook ingezet worden door middel van ‘life logging’, waarbij software het dagelijkse leven nauwgezet registreert. Je kunt je voorstellen dat belangrijke politici, beroemdheden, journalisten en zakenlieden daarmee in de toekomst intensief hun dagelijkse leven vastleggen en zich zo beschermen tegen deepfake-chantage of nepnieuws als het om hun aanwezigheid en handelen gaat. Deze doelgroep (gevoelig voor chantage en bang voor reputatieschade door deepfake) zal dus zijn éigen Big Brother zijn.

Een belangrijke voetnoot: het is op de lange termijn denkbaar dat de overheid dergelijke databases wil inzien, aan de hand van een gerechtelijk bevel. Of dat de databases gehackt worden en hun hele privé-leven op straat komt te liggen. En hoe weet de cliënt zeker dat de commerciële bedrijven die dit soort diensten aanbieden, uiteindelijk niet de gegevens gaan verkopen aan adverteerders of andere data-handelaars? Dat is de steeds weer terugkerende keerzijde van registratie: niemand weet hoe gegevens later kunnen worden gebruikt.

big brother volgt je wandelgangen.

Deepfake tegen deepfake

Kunstmatig intelligente systemen kunnen ook worden ingeschakeld als deepfake-medicijn. Dit kan door te bepalen of iets deepfake is of te herkennen dat iets door andere kunstmatig intelligente systemen is vervaardigd. Je zet dan deepfake-technologie in tegen deepfakes.

Een goed voorbeeld daarvan is het Grover-programma. Het is een systeem dat geloofwaardige teksten kan produceren. Op de website wordt de software gepositioneerd als ‘het medicijn tegen kunstmatig intelligent gecreëerd nepnieuws’. Grover kan met kunstmatige intelligentie gegenereerd nepnieuws detecteren omdat het systeem zelf nepnieuws kan maken. Het is dus tegelijkertijd ziekteverwekker en medicijn. Het kent zijn eigen manier van werken, gedachtesprongen en voorspellingen en kan daarom goed detecteren.

Grover is een systeem dat niet alleen nepnieuws kan detecteren dat het zelf heeft gegenereerd, maar ook het nepnieuws van andere systemen. Onderzoek laat zien dat het Grover-systeem in 92% van de gevallen slaagt in het herkennen van met kunstmatige intelligentie vervaardigd nepnieuws.

Ik kan me voorstellen dat zoiets een standaard onderdeel van je browser of je smartphone wordt, een techniek die zowel video, teksten als audio analyseert.

Regelgeving

Bij het tegengaan van deepfake-informatie moeten de pijlen misschien gericht worden op de distributiekanalen. In de Amerikaanse politiek gaan er bijvoorbeeld stemmen op om grote socialmedia-bedrijven (zoals Facebook, Twitter en YouTube) te verplichten tot een actieve rol. Als deze bedrijven in staat zijn haatdragende content te verwijderen, kunnen ze dan ook niet deepfakes buiten hun platformen houden? Als het nodig is moet de gebruiker maar even wachten voordat het verstuurde materiaal op de platformen verschijnt. Dat geeft de bedrijven voldoende tijd om de informatie te scannen de verspreiding van deepfake-informatie in de kiem te smoren. Dergelijke bedrijven hebben voldoende kennis in huis om (kunstmatig intelligente) software te ontwikkelen die die taak aankan, mag je hopen.

Kunnen we deepfake-informatie niet gewoon verbieden?

De Cyberspace Administration of China (CAC) heeft nieuwe wetten ingevoerd ten aanzien van “nepnieuws” dat is gemaakt met deepfake technologieën. Het is in China vanaf januari 2020 verboden om dit soort content te maken of te verspreiden.

Het eerste wetsvoorstel in Amerika gericht op deepfakes (de Malicious Deep Fake Prohibition Act) werd in december 2018 ingediend. De Deepfakes Accountability Act volgde in juni 2019. In verschillende staten – waaronder Virginia , Californië, New York en Texas – is ook deepfake-wetgeving ingevoerd. Het is aannemelijk dat er in de Verenigde Staten meer regelgeving op komst is, waarschijnlijk in de vorm van socialemedia-regulering. In de Verenigde Staten wordt enorme haast gemaakt met deze wetgeving, waarschijnlijk met het oog op de presidentsverkiezingen van 2020.

In Nederland is er op dit moment nog geen officiële specifieke wetgeving voor deepfake-video’s. Wel staat deze ontwikkeling in politiek Den Haag op de kaart, blijkt uit een recente kamerbrief.

Oppassen met wetgeving

Deepfake-technologie helemaal verbieden lijkt overigens onmogelijk, omdat de technologie er domweg is. Maar je kunt je ook afvragen of het wenselijk is. Met een eventueel verbod zou je het kind met het badwater weggooien. Want laten we wel wezen, de generatieve AI-technologie (waarvan de deepfake-technologie slechts een onderdeel is) kan óók veel aangename en nuttige toepassingen opleveren. Denk aan ‘deepfake’- technologie die het mogelijk maakt om overleden of fictieve filmsterren en popartiesten te laten ‘optreden’ in geheel nieuwe producties, die misschien beter zijn dan ooit tevoren.

De vraag is of er dus echt deepfake-wetgeving moet komen. Er zijn al wetten die gaan over smaad, laster, reputatieschade, haatverspreiding, identiteitsfraude, copyright en auteursrecht enzovoort. Die kunnen we uitbreiden en actualiseren. En niet onbelangrijk: autoritaire regimes kunnen onder de paraplu van ‘deepfake-bestrijding’ ook veel informatie van het internet verwijderen die hen niet bevalt en zo de wetgeving misbruiken voor censuur.

Aardbei echt en nep naast elkaar.

Educatie

Goede educatie en mediawijsheid zullen ook een medicijn zijn tegen deepfakes. Doordat deepfakes steeds bekender worden, wordt het grote publiek zich hopelijk ook bewuster van de mogelijke risico’s. Ik wil daar graag aan bijdragen. Zo heb ik zelf een inbreng geleverd aan de Nationale AI-cursus als deepfake-deskundige en blog ik regelmatig erover om de bekendheid te vergroten. Deepfake is namelijk een redelijk moeilijk te grijpen fenomeen. Want als je computer besmet wordt met een computervirus, dan weet je: ik moet antivirussoftware updaten of installeren. Bij deepfake-software is dat anders. De slechte intentie is vaak veel moeilijker te zien. Deze technologie is dus veel sluwer, veel gewiekster. Het gaat vaak om beïnvloeding, manipulatie of indirecte reputatiebeschadiging. Het moment van: ‘nu moet ik scherp opletten’, is bij deepfakes soms veel minder helder.

Verdedigingslinies

Tot slot, een sector die ernstig bedreigd lijkt door deepfake-technologie, is misschien tegelijk onze belangrijkste bescherming tegen al het kwaad dat die technologie kan aanrichten. Een belangrijke verdedigingslinie tegen deepfake-nieuws zijn namelijk de traditionele media. De journalistiek, van oudsher argwanend, is namelijk nu al bij uitstek toegerust om met onderzoek en hoor en wederhoor de waarheid te achterhalen. Worden deze principes hooggehouden, dan is de eerste slag al gewonnen.

Als we goede anti-deepfaketechnologie ontwikkelen, dan slaan we ook een tweede slag. Worden we als publiek met z’n allen alert op deepfake uitingen? Dan is ook de derde slag voor ons. Er is dus hoop. En werk aan de winkel!

Wil je meer weten? Ik schreef een uitgebreid rapport over deepfake-technologie.