Inspiratie

Deep fakes: hoe AI nepnieuws nóg gevaarlijker maakt

0

“De techniek is niet het probleem, het is de mens met zwak voor nieuwtjes”, schreef Trouw in maart 2018 over nepnieuws. Maar klopt dat nog wel? Uit het specifieke onderzoek dat de krant aanhaalde, bleek dat nepnieuws eerder geretweet werd door mensen dan door bots. In die context is dat dus misschien correct. Maar de techniek staat niet stil en deep learning, algoritmen en artificial intelligence maken deep fakes mogelijk: fake news on steroids. De vraag is maar of gezond boerenverstand nog gewicht in de schaal legt bij een confrontatie met deep fakes.

Het is een cliché, maar wel waar: nepnieuws bestaat al heel lang. Je kent vast het voorbeeld van het radio-hoorspel War of the Worlds (1938), dat in ‘nieuwsberichten’ verslag deed van een buitenaardse invasie – en massahysterie veroorzaakte. En we zijn ook bekend met gemanipuleerde beelden, al is het maar omdat influencers op Instagram zich royaal bedienen van Photoshop.

De reden dat nepnieuws nu in een versnelling is terechtgekomen, is deep fakes. Deze term is afkomstig van een Reddit-username die ‘deep learning’ en ‘fake’ combineert. Deze Reddit-gebruiker plaatste gezichten van celebrities op pornovideo’s.

Voorheen was het behoorlijk ingewikkeld om een video zodanig te manipuleren dat je echt wat anders ziet. Je kunt een video natuurlijk in scène zetten, of een andere context meegeven door begeleidende tekst. Maar een willekeurig iemand laten doen en zeggen wat jij wil, zonder dat ze dat ooit hebben gedaan, dat was een stuk ingewikkelder. Een video van 20 seconden bestaat uit grofweg 500 beelden: het kost niet alleen veel tijd, maar ook veel expertise om die allemaal te bewerken. Generative deep neural networks (pdf) zijn echter in staat om video’s te ontwikkelen uit ‘trainingsdata’. Hier komt nauwelijks handmatig werk aan te pas.

Hoe maak je een deep fake?

Allereerst heb je een neuraal netwerk nodig: software die communiceert en nieuwe dingen leert op een manier die lijkt op hoe hersenen werken. Je geeft deze software beelden van persoon 1 en persoon 2. Het netwerk leert met de input allereerst om de gezichten van beide personen te reconstrueren, op basis van hun gezichtskenmerken. Zo creëert de software een beeld dat niet echt van die persoon is gemaakt, maar dat die persoon wel onmiskenbaar zou kunnen zijn. Vervolgens kun je de software het gezicht van persoon 1 laten reconstrueren met als input beeldmateriaal van persoon 2. Zo laat je persoon 1 dingen zeggen die hij nooit gezegd heeft, en gezichtsuitdrukkingen maken die hij nooit gehad heeft (in deze context).

Zo is de bekende BuzzFeed-video waarin Obama Trump ‘a total and complete dipshit’ noemt gemaakt en de video waarin George Bush junior gekke bekken trekt. En zo combineren trollen dus ook pornovideo’s met het gezicht van een Hollywoodster.

Accepteer cookies

Dit lijkt misschien heel veel werk, maar je hebt genoeg aan 30 seconden van een pratend persoon om het systeem te trainen. En die persoon kun je vervolgens alles laten zeggen wat je wil. In het geval van Obama was het nog grappig, je kunt je voorstellen dat de Hollywoodster in dit geval niet blij is. En in het geval van een oorlogsverklaring op video kan het zelfs gevaarlijk zijn. Niet voor niets financiert de Amerikaanse krijgsmacht onderzoek naar deep fakes, aldus deze aflevering van VPRO Tegenlicht.

Toegankelijke technologie

Het maken van een deep fake kost op dit moment nog veel moeite. Maar hoe toegankelijker de technologie wordt, hoe sneller er kwalitatieve vervalsingen komen – op een niveau dat we echt nog niet eerder hebben gezien. En denk niet dat dit niet zo’n vaart loopt: deep fakes worden steeds realistischer. AI-wetenschapper Theo Gevers aan de Universiteit van Amsterdam vertelt in diezelfde aflevering van Tegenlicht dat het slechts acht maanden duurde om van een heel pixelige video naar een geloofwaardige video te gaan: “Een enorme vooruitgang in het genereren van realistisch lijkende video’s.”

Tel daarbij op dat smartphones steeds betere camera’s krijgen – er zijn iPhones met dieptecamera’s – en je snapt dat niet alleen artificial intelligence het makkelijker maakt om nepvideo’s te maken, maar ook de randvoorwaarden steeds ‘beter’ worden.

We herkennen nepvideo’s minder goed

Behalve dat het makkelijker wordt om zulke video’s te maken en ze er steeds geloofwaardiger uitzien, is er nog een hobbel op de weg: onze eigen hersenen. Nepnieuws in tekst is al moeilijk te herkennen (8 op de 10 jongeren ziet het verschil niet tussen nepnieuws en echt nieuws), maar we herkennen nepvideo nog veel slechter. Beeldmateriaal was tot dusver ‘onomstotelijk bewijs’, maar “Onze hersenen herkennen nepvideo niet als zodanig”, aldus Sam Gregory van Witness (een organisatie die video en technologie gebruikt om mensenrechten te beschermen) tegen VPRO Tegenlicht.

Bovendien lijkt het erop dat mensen een video niet als nep herkennen, ook niet als de kwaliteit slecht is. De Belgische politieke partij Socialistische Partij Anders (sp.a)  maakte een video waarin Donald Trump België adviseerde om uit het klimaatakkoord te stappen. Bekijk zelf de video eens: zou jij denken dat het echt is? Kennelijk dachten veel mensen dat wel, want het leverde boze reacties op Facebook op – wat heeft Trump te maken met beleid in België? (Overigens staan er ook boze reacties van Belgen die het een slechte actie vinden van de partij.)

Wat moeten we straks nog geloven?

We worden voor de gek gehouden op manieren die we tot dusver niet voor mogelijk hadden gehouden. Maar het grootste gevaar ligt hem misschien wel in het feit dat de samenleving daardoor minder vertrouwen kan krijgen in nieuws en media.

Voor de meesten komt het toch weer neer op het wel of niet vertrouwen van specialisten. En dan zijn de vooruitzichten somber. Brede lagen van de bevolking leven nu al in een schemerzone van de realiteit: alles in de media wat niet overeenkomt met hun vooroordelen wordt gebrandmerkt als msm (mainstream­media), en is daarmee afgedaan als gemanipuleerd of gelogen. – VPRO Tegenlicht

Mensen zullen op den duur niet meer vertrouwen op wat ze zien en horen, doordat ze constant in aanraking komen met nepnieuws. Dit wordt reality apathy genoemd. Wat als alles nep en ongeloofwaardig kan zijn? In zo’n samenleving kan iemand die kwaad wil je gemakkelijk overtuigen dat echte beelden nep zijn en je meenemen in een alternatieve werkelijkheid. Of iemand die betrapt is op een misdaad kan bewijsmateriaal gemakkelijk afdoen als nepnieuws.

Hoe herken je een deep fake?

Er is een kat-en-muisspel gaande tussen onderzoekers van deep fakes en de makers ervan. De technologie gaat snel, maar onderzoekers zijn ook snel. Maar zij delen hun bevindingen met de buitenwereld, om mensen te helpen deep fakes te herkennen. De makers weten daardoor precies wat ze moeten verbeteren – en hun vooruitgang delen ze natuurlijk niet.

Hoe herken je nu zelf een deep fake? Dit lijstje is na een tijd ongetwijfeld achterhaald, maar doe er vooral je voordeel mee.

  • Let op schaduwen: komt het schaduwpatroon op het gezicht van de spreker overeen met de rest van het beeld?
  • Zijn de mond, lippen en tanden scherp? Zo niet, dan kan dat wijzen op manipulatie.
  • Let ook op de bewegingen van handen en de expressies van het gezicht. Komen ze overeen met wat er gezegd wordt? Overigens kan dit in een deep fake wel worden gemanipuleerd, maar dat kost op het moment nog meer trainingsmateriaal en computerkracht.
  • Zijn er pixelige onderdelen van het beeld? Dit wordt pixel distortion genoemd.
  • Knippert de persoon met zijn ogen? Het neurale netwerk wordt vaak gevoed met beelden van mensen die hun ogen open hebben. Daardoor weet een systeem niet altijd dat ogen ook dicht kunnen. Ook erg weinig knipperen kan een aanwijzing zijn voor een deep fake (pdf).
  • Hoe zijn de andere, kleinere bewegingen van de persoon? Zie je de persoon ademhalen? Bewegen zijn ogen?
  • Hoe is de diepte in het gezicht? Bij de Trump-video van sp.a zie je dat dit niet klopt zodra Trump naar rechts of links kijkt.

Voordat ik in dit onderwerp dook, dacht ik wellicht iets naïef dat het hele ‘deep fake-gebeuren’ nogal futuristisch klonk. Maar daar ben ik wel van teruggekomen: het gebeurt nu al en de techniek ontwikkelt zich razendsnel. Je kunt je ogen niet zomaar meer geloven. Wat zijn jouw gedachten over deep fakes?