Innovatie

De 4 ruiters van de infocalyps: Trump, QAnon, digitprop en deepfakes

0

Wie keek woensdag niet met open mond naar de berichtgeving uit de VS? Ik volgde het in elk geval op de voet – verbijsterd, maar niet verbaasd. De ontploffing van emoties was het sluitstuk van het jarenlang zaaien van verdeeldheid. Trump, complottheorieën als QAnon, maar ook digitalisering en technologie zorgden voor een ongekende versnelling van de neergang. Moeten we bang zijn voor de ondergang? Of kunnen we het gevaar nog afwenden? Ik denk van wel. Maar dat zal niet vanzelf gaan.

De bestorming van het Capitool ‘has been a long time coming’

Ver zal ik er niet naast zitten als ik inschat dat er afgelopen woensdag miljoenen mensen aan tv, liveblogs of Twitter gekluisterd zaten. Ik keek als gezegd verbijsterd, maar niet verbaasd toe. Tuurlijk, dat het zó uit de hand zou lopen bracht me van mijn stuk. Maar de bestorming van het Capitool op zich has been a long time coming.

Het was, zo hoorde je ook veel commentatoren zeggen, het sluitstuk van een ontwikkeling die 4 jaar geleden is ingezet. Of misschien al wel veel langer geleden, het begon met de politieke polarisatie rond onderwerpen als gelijke burgerrechten en abortus.

In elk geval ben ik al een tijd gefascineerd door de schaduwkanten van technologie en dan vooral in combinatie met bredere maatschappelijke ontwikkelingen. In dit artikel probeer ik de gebeurtenissen van woensdag in dat brede perspectief te plaatsen, en te laten zien welke invloed technologie op maatschappelijke ontwikkelingen heeft. Wat je leest is een bewerking van een deel van een hoofdstuk uit het boek ‘Social Service Design. Innoveren op het snijvlak van maatschappelijke vraagstukken en publieke dienstverlening’, waaraan ik hard werk op het moment. Het komt in mei uit bij Van Duuren Management.

De donkere kanten van digitalisering, data en algoritmes

Om even in het digitale domein te beginnen: steeds meer mensen zijn bezorgd over de donkere kanten van data en kunstmatige intelligentie (AI). Onder hen verrassend prominente figuren uit de wetenschap en techwereld.

Onder meer in de Netflix-documentaire The Social Dilemma zie je dat voormalige hoge piefen van bedrijven als Twitter, Facebook/Instagram en Google tot inkeer komen. Zij zijn bezorgd over de ontwikkelingen die ze zelf in gang hebben gezet. Een van de bekendste critici is Tristan Harris, voormalig ethicus bij Google. Hij pleit voor een alternatief businessmodel en scherpere kernwaarden bij techbedrijven. Doel: help mensen om hun tijd goed te besteden, in plaats van er meer van te eisen. Harris beweert dat alle menselijke geesten kunnen worden gekaapt en dat de keuzes die ze maken niet zo vrij zijn als ze denken dat ze zijn.

Nota bene Tesla-oprichter en techboegbeeld Elon Musk waarschuwt vooral voor de duistere kanten van kunstmatige intelligentie (AI). Hij noemt dat “a fundamental risk to the existance of human civilization”, en is bang dat AI een oorlog begint. Dat zou dan gebeuren door fake news te verspreiden, e-mailaccounts te vervalsen, informatie te manipuleren en door mensen “alles te laten zeggen wat de machine wil”.

De Terminator zal voorlopig niet voor je deur staan

Musk lijkt het scenario waarin de machines de wereld overnemen heel reëel te vinden, en pleit ervoor dat zowel nationale overheden als internationale bestuursorganen als de Verenigde Naties de ontwikkeling van AI reguleren.

Ik moet zeggen: bang dat de Terminator binnenkort voor mijn deur staat ben ik vooralsnog niet.

Toch staan de seinen op meerdere terreinen wel op oranje. Los van de technologische ontwikkelingen, liggen daaraan ook grotere maatschappelijke fenomenen ten grondslag. Digitalisering, algoritmen en AI zijn vooral faciliterende en versnellende factoren.

De seinen staan op meerdere terreinen op oranje. Dat wordt veroorzaakt door maatschappelijke fenomenen, gefaciliteerd en versneld door technologie.

We lijken te zijn aanbeland in de ‘infocalyps’

De grootste dreiging vind ik de ‘infocalyps’. Een samenleving waarin desinformatie (bewust gemaakt en verspreid om mensen te misleiden) en misinformatie (slechte informatie die goedbedoeld wordt verspreid) voortwoekeren, polarisatie hand over hand toeneemt en bevolkingsgroepen uit elkaar drijven. Digitalisering en AI zijn daarbij faciliterende en versnellende factoren.

Volgens desinformatie-expert Nina Schick zijn we hard naar die infocalyps op weg, omdat we de afgelopen jaren zagen we hoe ontwrichtend desinformatie werkt. We zagen haar gelijk bewezen.

Sterker nog, het lijkt erop dat we al in die infocalyps zijn aanbeland.

Trump en het uiteenvallen van de VS: ‘watching a train wreck in slow motion’

Met zijn gebruikelijke swagger grapte Obama ooit: “The Donald is not really a facts guy.” (De quote start op 19:32!) Vanaf zijn inauguratie bleek inderdaad dat Donald Trump – hoe zeg ik dat netjes – niet in zijn eerste leugen was gestikt. Die soepele omgang met de werkelijkheid culmineerde na de presidentsverkiezingen van 2020 in een bijna tragisch volharden in de (onbewezen) claim van grootschalige verkiezingsfraude.

Zelfs toen hij woensdag de betogers opriep om het Capitool te verlaten, deed hij dat in een ‘sandwich’ van #StopTheSteal-retoriek. Je broek zakt ervan af. (Ik zou hier nu dolgraag dat filmpje embedden, maar Twitter en andere social kanalen hebben het verwijderd, vanwege een ‘risico op geweld’.)

Trump tegen Capitoolbestormers: “Ik voel jullie pijn, want we zijn bedrogen, want het is niet waar dat ik verloor, maar je moet naar huis, maar je hebt gelijk, en het is ook erg, en huiliehuilieboehoe, maar ga naar maar naar huis, ik hou van jullie, good job.” Je broek zakt ervan af.

Trumps gedrag maakt hem voor mij vooral een in-sneue, lachwekkend slechte verliezer. Zijn aanhangers deelden mijn beeld niet. Half december 2020 was 82% van de Republikeinse kiezers ervan overtuigd dat de officiële uitslag niet klopt. Ook de resultaten van de laatste slag die leidt tot de totale overwinning voor de Democraten, de verkiezingen van 2 Democratische senatoren in Georgia (al sinds mensenheugenis een Republikeins bolwerk), worden ongetwijfeld te vuur en te zwaard betwist.

Donald Trump

Daaruit blijkt hoezeer Trump er tijdens zijn ambtsperiode, waarin hij geen kans onbenut liet om media en instituties aan te vallen, in is geslaagd “zijn achterban los te weken van de samenleving”, zoals Bas Blokker het treffend verwoordde. Trumps aanhangers zien in de herhaalde claims simpelweg een bewijs van strijdlust. En al kreeg hij in ruim 60 rechtszaken het lid op de neus, zelfs van het Hooggerechtshof dat hij in zijn zak dacht te hebben – er ontstond geen sprankje twijfel. Men zag eerder bevestigd dat ‘liberal’ politici, instituten en media samenspannen om hem (en in mindere mate de Republikeinen) buitenspel te zetten.

Zo bouwde de spanning in het kruitvat langzaam op, totdat het ontplofte. Ja, we zagen het allemaal aankomen. Maar zoals dat gaat als je ‘in slowmotion naar een treinongeluk zit te kijken’ – zoals diezelfde Amerikanen het zo mooi zeggen – uiteindelijk overvalt de eruptie je dan toch.

Twee dagen later lijkt het er overigens op dat de grond Trump te heet onder de voeten wordt. Zelfs Republikeinen roepen op tot een afzetting met behulp van het 25e amendement, waarbij de president ‘ongeschikt’ wordt verklaard en Mike Pence zijn taken overneemt. In dat scenario zou Trumps nederlaag compleet zijn, en zou hij zelfs de laatste twee weken van zijn presidentschap niet mogen afmaken.

Waarschijnlijk om dat te voorkomen, en maakte hij vannacht (NL-tijd) een plotselinge ommezwaai. In een toespraak bleek dat hij pijn van de bestormers ineens niet meer voelt, dat hij niet vond dat ze voor de vrijheid vochten en dat ze bestraft moeten worden. Hij benadrukt dat hij alleen maar de ‘integriteit van de verkiezingswetten’ heeft willen verdedigen, dat hij nog altijd pleit voor het heroverwegen van die wet, maar dat hij nu zal zorgen voor een ordelijke en nette machtsoverdracht. (Yeah, right.)

Accepteer cookies

Bij complottheorieën als QAnon zijn aanhangers helden van het volk

Bas Heijne stelt dat het aanwakkeren van die chaos, het verspreiden van ‘verborgen’ waarheden en complotten, in het digitale tijdperk bewust wordt gebruikt om de gevestigde orde te ondermijnen.

Zone flooding (geïnspireerd op Steve Bannons apocriefe uitspraak dat de media de echte oppositie zijn, en dat “flooding the zone with shit” de beste manier is om hen te verslaan) moet emoties aanjagen en tegenstanders uitschakelen – niet het bieden van houvast, maar het kweken van wantrouwen is het doel.

‘Zone flooding’: zoveel mogelijk ‘shit’ verspreiden. Daarbij is het kweken van wantrouwen het doel.

Toch gelooft Heijne niet dat desinformatie de enige oorzaak is van het gevoel dat de overheid, de media, de wetenschap en de ‘elite’ de kluit belazeren en manipuleren. Hij vermoedt dat het andersom is: mensen die gevoelig zijn voor complotverhalen zijn hun vertrouwen in overheid en instituties allang kwijt.

Complotverhalen als QAnon – aanhangers daarvan geloven dat er op grote schaal kinderen worden misbruikt door ‘de elite’ – bevestigen hun achterdocht en gevoel van miskenning. Ze bespelen de emotie, en geven een gevoel van eigenwaarde terug. Immers, stelt Heijne, als de ‘officiële’ waarheid een leugen is, en de gevestigde orde is de vijand, dan is degene die die leugen ontmaskert een revolutionair – het is “een moderne klassenstrijd”.

Zo bekeken wordt de aantrekkingskracht van complotverhalen begrijpelijker: als we een klassenstrijd uitvechten, dan is de complotdenker een held van het volk.

Dat sommige mensen die heldenrol wel heel letterlijk nemen, bleek woensdag maar weer. De verwijzingen naar de Amerikaanse revolutie uit 1776 waren niet van de lucht.

Als feiten de aanname ontkrachten, zijn er andere feiten nodig

Michael Persson beschrijft aan de hand van het voorbeeld van een in woede ontstoken huisvader uit North Carolina heel mooi hoe complotdenkers redeneren. Deze QAnon-aanhanger geloofde dat de kelder van een pizzeria in Washington de plaats delict was.

Overtuigd geraakt door ‘overweldigend bewijs’ karde hij 600 furieuze kilometers naar die stad. Met een semi-automatisch assault rifle stormde hij de pizzeria binnen. Een afgesloten kelderdeur hield hem niet tegen; met een welgemikt salvo knalde hij het slot kapot. En keek recht in de stoppenkast. De pizzeria had geen kelder. De reactie van onze held: “De informatie was niet waterdicht.”

Overweldigend bewijs voor sinistere praktijken in de kelder van een pizzeria: Clintons campagneleider maakte er afspraken! ‘Cheese pizza’ begint met dezelfde letters als ‘child pornography’! Symbolen op het logo komen ook op duivelse prenten voor!

Andere aanhangers van de theorie hebben inmiddels nieuwe (vergezochte) bewijzen gevonden. De pizzeria is opnieuw mikpunt van bedreigingen.

Persson constateert droog hoe een wetenschapper zou redeneren: ik heb een aanname gedaan, de feiten laten iets anders zien, aanname klopt niet, hypothese gefalsifieerd. En vervolgens hoe een complotdenker redeneert: ik geloof het een, de ­feiten tonen het ander, de hypothese klopt nog steeds, alleen moet ik er ­andere feiten bij zoeken.

QAnon

Politiek strijdtoneel verplaatst zich naar de digitale krochten en kanalen

Rare jongens, die Amerikanen. Maar ook in ons eigen land, waar populistische politici als Geert Wilders en Thierry Baudet regelmatig de rechtsstaat, media of universiteiten aanvallen, hoor je de echo van dat soort aanvallen steeds harder in het discours. Net zoals je de volharding in het eigen gelijk ook hier steeds duidelijker ziet.

We kunnen het steeds moeilijker eens worden over hoe we de wereld zien, en voeren over talloze thema’s gespleten discussies. Er lijkt nul ruimte voor nuance; kies je geen partij, dan word je keihard ‘gecanceld’.

Dergelijke polarisatie vindt wereldwijd voor een heel groot deel online plaats. Daarom verplaatst het politieke strijdtoneel zich óók steeds meer van de raadszaal (en achterkamer) naar (de krochten van) het digitale domein.

Social media, concludeert communicatiewetenschapper Michael Hameleers, bieden (populistische) politici een platform om desinformatie strategisch in te zetten om politieke tegenstanders aan te vallen. Dit kan uiteindelijk de polarisatie en verdeeldheid in de samenleving vergroten, en het politieke wantrouwen en cynisme onder de bevolking doen toenemen.

Infoshoppende toetsenbordgladiatoren kiezen hun eigen bronnen én waarheden

Toch is de verspreiding van onjuiste informatie niet primair het probleem, vult Hameleers aan in een interview naar aanleiding van zijn onderzoek. Hij is banger voor de consequenties van de aanval op de betrouwbaarheid van bewezen kennis, feiten en waarheden: dat mensen zelf een versie van ‘de’ waarheid kiezen, die aansluit bij hun bestaande overtuigingen.

Voor- en tegenstanders vinden een onderbouwing voor hun standpunten online. Daarbij neemt confirmation bias (de neiging vooral waarde te hechten aan informatie die je ideeën, overtuigingen of hypotheses bevestigt) epidemische vormen aan. De main stream media (MSM) zijn nauwelijks te vertrouwen, dus een beetje ‘woke’ toetsenbordgladiator speurt liever alternatieve blogs en websites af. Net zoals veel mensen hun waarheid vinden via influencers, die vaak wel “uren onderzoek hebben gedaan”.

Hameleers bezorgdheid om ‘infoshoppende’ waarheidszoekers lijkt terecht.

Digitprop en deepfakes beïnvloeden onze perceptie van de waarheid

Natuurlijk heeft Rutger Bregman gelijk: de meeste mensen deugen. Ze verspreiden meningen en de onderbouwing daarvan te goeder trouw en willen niet bewust misleiden. Helaas werken ze onbewust wel mee aan wat ik ‘digitprop’ noem: het proces van zone flooding door het verspreiden van des- en misinformatie.

(Een zijstap: mijn term digitprop komt van ‘digitale propaganda’. Maar de term ‘propaganda’ dekt de lading niet helemaal, dus zoek ik bewust de associatie met het communistische begrip ‘agitprop’, wat staat voor “agitatie en propaganda” en waarbij de propaganda ideeën overbrengt en de agitatie de emoties opstookt.)

Schort het dan aan ons vermogen om informatie op waarde te schatten? Niet per se. Toch moeten we ons beoordelingsvermogen versterken. Want digitprop wordt steeds gevaarlijker met de opkomst van deepfakes, waarschuwt ook Nina Schick. Ze definieert deepfakes als afbeeldingen, stukken tekst, audio- of videofragmenten die zijn aangepast of zelfs helemaal gemaakt door kunstmatige intelligentie, en die bewust worden ingezet om desinformatie te verspreiden (dat laatste onderscheidt deepfakes van de onschuldiger variant: synthetische media).

Deepfake

Een psychologische verdedigingsmuur om ons beoordelingsvermogen te verstevigen

Natuurlijk is niet elke door een computer gefabriceerde tekst, afbeelding of video met slechte bedoelingen gemaakt. En ja, er zijn enorme positieve mogelijkheden. Net als 3D-printen zullen die bovendien steeds bereikbaarder worden. Dat is een kans én een bedreiging: als we allemaal consumenten én producenten worden van door AI gegenereerde media, spelen we ook een grote(re) rol bij de verspreiding van mis- en desinformatie.

We moeten ons ertegen wapenen, stelt Schick. Mensen moeten begrijpen wat deepfakes zijn. Want als we niet meer (kunnen) geloven wat we zien, tast dat ook de geloofwaardigheid van authentieke media aan. En als alles kan worden vervalst, kan ook alle belastende informatie worden ontkend. Schick pleit voor een “psychologische verdedigingsmuur”. Inderdaad: een beter beoordelingsvermogen.

Daarbij hebben wetenschap, organisaties die desinformatie in kaart brengen en journalistiek een belangrijke taak. José van Dijck, universiteitshoogleraar digitale samenleving en mediacultuur aan de Universiteit Utrecht, onderschrijft die rol voor de journalistiek. Ze noemt nieuwsmedia ‘afweersystemen’, en haalt cognitief psycholoog Stephan Lewandowsky (University of Bristol) aan. Die betoogt dat nieuwsmedia de “morele plicht [moeten] voelen om aanvallen op institutionele integriteit te pareren door steeds weer geduldig uit te leggen hoe ze werken.”

Ook al leidt het steeds opnieuw ontkrachten van foutieve informatie er wrang genoeg toe dat die beter in ons geheugen blijft hangen dan de juiste.

Doorklikcatastrofe en de fabeltjesfuik: sinistere beïnvloedingsmechanismen

Verdedigingsmechanismen en goede bedoelingen ten spijt, des- en misinformatie verspreidt zich razendsnel. Technologie speelt daarbij een grote rol. Het algoritme van veel websites en social media #heeftmaarééntaak: ons laten doorklikken, steeds opnieuw.

Stuart Russel (universiteit van Californië) noemt dat de click through catastrophe: het mechanisme dat ervoor zorgt dat je binnen tien klikken verslaafd kunt raken. Algoritmes, zegt Russel, laten geen content zien die je leuk vindt, maar proberen je te veranderen in een voorspelbare klikker — dat lukt ook, bijvoorbeeld doordat ze gaandeweg onbewust je voorkeuren aanpassen.

In zijn programma Zondag met Lubach doopte Arjen Lubach min of meer hetzelfde sinistere mechanisme ‘de fabeltjesfuik’: op basis van je zoekgedrag dragen algoritmes constant vergelijkbare content aan, waardoor je al heel snel geen afwijkende ideeën meer tegenkomt. Zo zijn ze ontworpen door bedrijven die daar commerciële belangen bij hebben.

Zijn algoritmes een bedreiging voor onze vrije wil?

Wie aan het klikken slaat, verdwijnt zo in een mum van tijd down the rabbit hole en duikt veel later pas weer op. Verontrust óf verlicht — afhankelijk van je perspectief. Je wordt beïnvloed en stelt je onbewust open, waardoor ideeën, fake news en complottheorieën razendsnel diep doordringen in je bewustzijn. Zo bezien lijken algoritmes een bedreiging voor onze vrije wil. Toch is dat een al dan niet beoogd bijeffect van platte, commerciële motieven.

Wie aan het klikken slaat, verdwijnt zo in een mum van tijd ‘down the rabbit hole’ en duikt veel later pas weer op. Verontrust óf verlicht — afhankelijk van je perspectief.

‘Al dan niet beoogd’, want: dergelijke theorieën zijn gestoeld op anekdotisch bewijs, zegt een team van onderzoekers van verschillende universiteiten. Op een platform als YouTube, met zijn mer à boire aan content, is in theorie over elk denkbaar onderwerp iets te vinden. Met pakweg twee miljard (!) gebruikers, kun je er elk type kijkgedrag waarnemen. Enkele voorbeelden zijn dan niet per se een signaal dat er iets verkeerds aan de hand is.

Dus bestudeerden de onderzoekers het kijkgedrag van bijna 310.000 Amerikanen en onderzochten ze bijna 10 miljoen unieke video’s van zo’n 2,3 miljoen kanalen, die tezamen pakweg 22,4 miljoen pageviews hadden. (Overigens was dat slechts data van laptops en pc’s; mobiele data werden niet eens meegenomen.)

In die enorme bak data vonden ze voor de theorie dat algoritmes mensen laten radicaliseren onvoldoende bewijs. Ook voor het idee dat het algoritme steeds extremere content aanbeveelt, ontbrak overtuigende onderbouwing.

Of zit de dreiging in ons eigen gedrag?

Het lijkt er meer op dat radicaliserende kijkers actief op zoek gaan naar content, dan dat het algoritme van YouTube zo’n belangrijke rol heeft in hun radicalisering. YouTube is, suggereren de onderzoekers [PDF-versie van het artikel!], “onderdeel van een groter ecosysteem voor het verspreiden, ontdekken en consumeren van politieke content.” Meerdere wegen leiden mensen naar content: zoekmachines, andere websites en (inderdaad) eerder bekeken video’s.

Dat suggereert dat de bedreiging eigenlijk eerder zit in menselijk gedrag. Voor die stelling is meer bewijs. Negatieve berichtgeving gaat immers vaak over ethische vraagstukken en privacy-grensoverschrijdend gedrag.

Hoewel er echt wel wat ‘not to love is’, moeten we dus niet vergeten dat vrijwel elke technologische ontwikkeling door mensenhanden en mensenverstanden in gang is gezet. En dat het venijn zit in hoe organisaties met data en algoritmes omgaan. Zij zijn de drijvende kracht achter onwenselijke situaties, door al dan niet bewust onhandig of soms ronduit onethisch te handelen.

Bewustwording bij organisaties en professionals kan leiden tot kentering

Zijn deze ontwikkelingen zorgwekkend? Op veel punten wel. Is het onomkeerbaar? Misschien niet. Wordt omkering makkelijk? Dat zeker niet. Een kentering vraagt een systeemverandering, een flinke opgave gezien de economische belangen die ermee gemoeid zijn.

Een kentering vraagt bovendien een brede maatschappelijke bewustwording van de (psychologische en gedrags)mechanismen onder deze ontwikkelingen.

Dat besef moet eerst en vooral tussen de oren komen bij (mensen in) organisaties die een omslag in gang (kunnen) zetten. Bij jou, dus, als (publieke) professional in het domein van (digitale) marketing, dienstverlening en innovatie.

In een eerder artikel hier op Frankwatching schreef ik al wat daar wat mij betreft voor nodig is: een lerende organisatie en het aan- en afleren van verschillende vaardigheden op verschillende niveaus in die organisatie.

Maar ook klanten, consumenten en burgers moeten anders leren kijken

Tegelijkertijd moeten klanten, consumenten en burgers anders naar data leren kijken. Als algoritmes beslissingen over ons nemen, moeten burgers kunnen denken als zo’n algoritme. Daarmee houden we controle over onze plek in zo’n wereld. Als we mensen laten zien hoe onze eigen manier van denken doorklinkt in AI, helpt dat bovendien om vooroordelen te bestrijden. Kinderen kunnen dat al (spelenderwijs) leren op de basisschool.

Dat betoogt Sennay Ghebreab, universitair hoofddocent Sociaal-Intelligente AI aan de Universiteit van Amsterdam en wetenschappelijk directeur van het Civic AI Lab van het Innovation Center for Artificial Intelligence (ICAI).

Ten tweede is privacy nu voor steeds meer mensen een zorg. Ze geven hun data niet zomaar weg. Terecht, getuige de vele voorbeelden waarbij er misbruik van privégegevens wordt gemaakt. Maar met Ghebreab hoop ik dat mensen op enig moment “voorbij privacy leren denken”. Data biedt namelijk mensen namelijk ook kansen.

Inzicht in (de waarde van) en grip op hun eigen gegevens helpt hen een meer gelijkwaardige relatie met de overheid aan te gaan, zoals een van mijn opdrachtgevers het onlangs verwoordde. Als jij de overheid weerwoord kan geven met – of op z’n minst op basis van – je eigen data, ben je minder afhankelijk.

Publieke professionals moeten bewustwording en ‘agency’ bevorderen

Bij het bevorderen van dat bewustzijn en het bieden van handvatten, hebben publieke professionals in general een verantwoordelijkheid. Je zou het bovendien kunnen zien als een taai maatschappelijk vraagstuk waar je als social service designer je tanden in kan zetten.

Maar zeker in (social service design-)activiteiten waarbij data een rol spelen, moet bewustwording en ‘agency’ (het vermogen van individuen om onafhankelijk te handelen en hun eigen vrije keuzes te maken) bij stakeholders en burgers een pijler in je aanpak zijn.

De 4 ruiters van de infocalyps verslaan we samen

Als we ons best doen, kunnen we samen zorgen voor een kentering, en de 4 ruiters van de infocalyps alsnog verslaan. In de Bijbel komen de 4 ruiters in volgorde het toneel op, de antichrist als Overwinnaar het eerst. Na hem volgen Oorlog, Honger en uiteindelijk de Dood.

Nu wil ik niet zo ver gaan om te zeggen dat Trump de antichrist is, QAnon leidt tot oorlog, desinformatie tot honger en deepfakes tot de dood. Maar indachtig alle ontwikkelingen in dit artikel, en in het bijzonder Musks waarschuwing voor AI, kunnen we het ook niet helemaal uitsluiten.

Dus moeten we gewoon keihard aan de slag. Werken aan die ‘psychologische verdedigingsmuur’ van boeren, burgers en buitenlui. Alle organisaties in Nederland proberen te doordringen van de kansen én schaduwkanten van digitalisering, data en AI.

En boven alles: altijd, altijd, altijd blijven knokken tegen fake news, leugens, mis- en desinformatie. Al komt het van de president zelf. Dan hoeven we inderdaad niet bang te zijn dat de Terminator binnenkort voor de deur staat.