Innovatie

Desinformatie herkennen? Gebruik het Drog-model

0

Als het gaat om desinformatie hanteren we een standaarddefinitie en een standaardmodel om ermee om te gaan. Maar je kunt het ook anders aanpakken. In dit artikel lichten we onze alternatieve definitie toe en leggen we uit hoe je het Drog-model kunt toepassen om te bepalen wanneer informatie verdacht is.

Achtergrond

Dit is de laatste blog van een serie van vier over desinformatie, in een omgeving in Discord kun je meepraten.. In de vorige blogs hebben we beschreven wat desinformatie is, hoe desinformatie bestreden wordt en waarom dit standaardmodel niet voldoet. In dit blog zullen we ons alternatief voor de standaarddefinitie en het standaardmodel presenteren.

Onze definitie van desinformatie

Informatie is desinformatie als de verspreiding van deze informatie massaal en gecoördineerd is en de informatie lijkt op desinformatie.

Uitleg

Omdat het lastig vast te stellen is wie de personen of organisaties zijn die desinformatie creëren, presenteren en verspreiden, hoe zij opereren en met welk doel, laat onze definitie zich niet uit over hen. Bijkomend voordeel is dat desinformatie volgens onze definitie door vriend en vijand kan worden verspreid. Het gaat niet om ‘wie’ maar om ‘wat’ en ‘hoe’. In dit opzicht lijkt desinformatie volgens ons op spam.

Daar waar het standaardmodel het ‘hoe’ buiten beschouwing laat, is de manier waarop desinformatie verspreid wordt essentieel. Vanwege de eis van massaliteit en coördinatie is het duidelijk dat het gaat om grotere operaties die met voorbedachten rade worden uitgevoerd. Desinformatie is nooit per ongeluk. Een eenling en zelfs een eenling met massaal bereik kan bijvoorbeeld geen desinformatie de wereld in sturen, zonder gebruik te maken van anderen – en dan gaat het niet meer om een eenling – of van technische hulpmiddelen zoals bots. Vanwege de eis van massaliteit en coördinatie blijft de vrijheid van meningsuiting zoveel mogelijk buiten schot.

En dan de olifant in de definitie: de eis dat informatie moet lijken op desinformatie om desinformatie te zijn. Deze eis legt de bewijslast dat informatie geen desinformatie is bij de verantwoordelijken voor de informatie. Massaal en gecoördineerd verspreide verdachte informatie is desinformatie totdat het tegendeel bewezen is. De grote vraag is nu natuurlijk wanneer informatie verdacht is. Om dat te bepalen gebruiken we ons Drog-model.

Het Drog-model

MissieEr worden A/B-achtige testen ontworpen om te bepalen welke type informatie het grootste effect heeft om een voor buitenstaanders onbekend doel te bereiken
EmissieZwermen van trollen in de vorm van mensen en/ of bots zetten de informatie gecoördineerd  uit in bulk
TransmissieBetaalde groepen opiniemakers versterken de uitgezette informatie gecoordineerd en in bulk; willekeurige ontvangers versterken de informatie hooguit in bulk
RemissieNaar winst-maximalisatie strevende media versterken de uitgezette media in bulk
InmissieDe informatie komt terecht bij mensen voor wie de informatie aansluit op hun intuitieve betekenispatronen, en bij mensen die gemotiveerd worden door groepsloyaliteit of die denken voordeel met de informatie te kunnen behalen
(C)ommissieHet gevolg is grotere affectieve polarisatie op grond van reeds bestaande sociale breuklijnen

3 criteria voor verdachte informatie

Het eerste criterium voor verdachte informatie is dat er meerdere versies van deze informatie bestaan. Alsof er met behulp van A/B-achtige tests wordt uitgetest welke versie de meeste impact kan hebben voor welke doelgroep. Hoewel we niet weten om welke impact het gaat, kunnen we wel alert zijn op het herkennen van informatie die gepersonaliseerd lijkt.

Het tweede criterium is massaliteit en coördinatie in de verspreiding. Die vindt plaats op meerdere niveaus: door ons onbekende mensen en/ of bots. Bijvoorbeeld door trollen in een farm. En door zichtbare en bekende opiniemakers zoals politici, influencers en publicisten die allen op hetzelfde moment eenzelfde perspectief op eenzelfde thema onder de aandacht proberen te brengen. De massaliteit wordt vervolgens vergroot door willekeurige ontvangers en door naar winstmaximalisatie strevende media die boven op sensationeel of extreem nieuws springen.

Het derde criterium is dat de informatie zich richt op een zwakke plek in onze democratie. De informatie sluit aan op reeds bestaande sociale breuklijnen door de overtuigingen te versterken van mensen die bezwaar maken tegen een element of het geheel van de bestaande sociale orde.

Voordelen van ons perspectief

De labeling van desinformatie volgens onze definitie en het Drog-model kan volledig automatisch plaatsvinden. Kunstmatige intelligentie kan getraind worden informatie te vinden die massaal en gecoördineerd verspreid wordt, waarvan gepersonaliseerde varianten bestaan en die betrekking hebben op bestaande sociale breuklijnen.

De automatische labeling scheelt een enorme hoeveelheid werk. Daar waar nu factcheckers veel tijd en middelen moeten inzetten om te bepalen of informatie fout of misleidend is, wordt desinformatie nu automatisch uit de informatiestroom gevist. Dit is des te belangrijker, omdat de verwachting voor de nabije toekomst is dat de meerderheid van alle informatie synthetisch zal zijn: informatie die niet (alleen) voortkomt uit gebeurtenissen in de werkelijkheid.

Het tegendeel bewijzen

Door de verantwoordelijkheid voor het verwijderen van het label ‘desinformatie’ bij de verantwoordelijken van de informatie te leggen, is het aan hen om arbeid te verrichten en met overtuigende redenen te komen waarom hun informatie geen desinformatie is. Deze redenen die gevraagd worden, bevinden zich niet op het niveau van feiten (klopt het) maar op het niveau van methoden: met behulp van welk processen is de informatie vanuit welke bronnen tot stand gekomen.

Natuurlijk dient de uitleg van de verantwoordelijken wel gecontroleerd te worden. In plaats van factchecken dient nu gecheckt te worden of de methodologie van de verantwoordelijken om tot hun informatie te komen juist is. Gedacht kan worden aan het toepassen van OSINT – open source intelligence zoals bijvoorbeeld organisaties als Bellingcat deze hanteren: “een onafhankelijk internationaal collectief van onderzoekers en burgerjournalisten die gebruikmaken van open source- en sociale media-onderzoek om een verscheidenheid aan onderwerpen te onderzoeken – van Mexicaanse drugsbaronnen en misdaden tegen de menselijkheid tot het volgen van het gebruik van chemische wapens en conflicten wereldwijd”.

Geen emotionele, maar technische discussies

Ons voorstel zorgt er tevens voor dat desinformatie geen speelbal meer is van groepen die elkaar de schuld geven van het verspreiden van leugens en het hebben van kwade bedoelingen. Door desinformatie automatisch te labelen en tegenbewijs te vragen op het niveau van gebruikte methodologie worden desinformatie-discussies technisch, zoals het geval is bij spam, en niet emotioneel of gestuurd door groepsloyaliteiten, zoals nu het geval is.

Mediawijsheid = zelf informatie checken

De aandacht die verschuift van feiten naar methodologie – in de woorden van Philipp Schmid & Cornelia Betsch van ‘topic rebuttal’ naar ‘technique rebuttal’ – heeft ook een gevolg voor mediawijsheid. In plaats van jongeren vertellen welke feiten waar zijn en welke niet en hen te leren zichzelf minimaal te beschermen, dient mediawijsheid jongeren nu te leren OSINT te gebruiken. Dit maakt van hen actievere burgers die informatie van alle partijen zelf actief kunnen checken. En het geeft hen wetenschapswijsheid, iets waaraan het nu veel jongeren ontbreekt. Dit zou een enorme stap voorwaarts zijn in vergelijking met de huidige situatie waarin jongeren alleen leren minder manipuleerbaar te zijn, minder schadelijk te zijn voor anderen en als vanzelfsprekend sommige bronnen te accepteren als in de regel betrouwbaar.

Waarom wantrouwen het uitgangspunt wordt

Het nadeel van ons model is het niet uitgaat van vertrouwen, maar van wantrouwen. Mensen zullen veel uitingen tegen gaan komen met een etiket ‘desinformatie’, omdat het gaat om desinformatie of omdat de verantwoordelijke voor de informatie niet kan of niet wil aantonen dat de methodologie klopt die gebruikt is om tot deze informatie te komen. Het wantrouwen gaat natuurlijk alleen gelden voor massaal en gecoördineerd verspreide informatie. Over andere typen informatie laten ons model en onze definitie zich niet uit.

Wij menen dat het goed is te beginnen met wantrouwen als informatie die ons bereikt massaal en gecoördineerd verspreid is. Iemand doet grote moeite om ons deze informatie voor te schotelen. Dan is het terecht om te vragen of deze informatie wel klopt. Het gaat daarbij niet om de intenties of het doel van de verantwoordelijken. Het gaat er slechts om zeker te kunnen weten dat er tijdens de afleiding van bron tot uiting geen fouten of misleidingen hebben plaatsgevonden.

Dit betekent ook dat we alle massaal en gecoördineerd verspreide informatie van onze eigen overheid a priori als desinformatie dienen te beschouwen, totdat de overheid heeft aangetoond dat de gebruikte methoden om tot deze informatie te komen juist zijn. Dit betekent dat de overheid zich niet langer kan verschuilen achter geheime procedures of ondoorzichtige kunstmatige intelligentie. Of liever, de overheid kan zich daarachter verschuilen, maar dan blijft het etiket ‘desinformatie’ plakken aan de verstrekte informatie. Dit lijkt een gepast antwoord op de recente reeks van schandalen die veroorzaakt werden door de Nederlandse overheid.

Hoe bepaal je prioriteiten bij het beoordelen van informatie?

Er blijft nog een kwestie over. Zelfs als de etikettering van desinformatie automatisch geschiedt, gaat het om zulke enorme hoeveelheden informatie die geanalyseerd dienen te worden dat er een criterium nodig is om prioriteiten te kunnen bepalen welke informatie als eerste te beoordelen. Dit criterium is volgens ons: indien er mensenrechten geschonden dreigen te worden of indien er kans bestaat op grote schade – schade aan mens, milieu of democratie – dan heeft de beoordeling van informatie voorrang.

We zijn benieuwd hoe jij hierover denkt, laat het weten in de comments.