Innovatie

De keerzijde van ChatGPT en andere AI-tools

0

ChatGPT hier, ChatGPT daar… Je wordt gebombardeerd met nieuws over en tips voor de revolutionaire chatbot. Maar er zijn ook zorgen en kritiek. Het is tijd om daar op Frankwatching aandacht aan te besteden. In dit artikel zet ik een aantal risico’s en problemen op een rij.

Wat is waar?

Veel mensen zijn onder de indruk van ChatGPT. Het is net alsof je een conversatie hebt met een echt mens. De tool werkt zo vloeiend en mensen zijn er zo enthousiast over, dat het nu al als een paradigma shift wordt beschouwd. Net zo baanbrekend als de komst van het internet. Maar is dat zo?

ChatGPT brengt zijn antwoorden vol overtuiging, maar zit er regelmatig flink naast. De tool werkt op basis van tekstvoorspellingsalgoritme GPT-3 en is getraind met enorme hoeveelheden data. Maar de antwoorden zijn op basis van context gemaakt. Analyst Ben Thompson van Stratechery stelt dat ChatGPT niet als een computer (rekenmachine) werkt, maar ‘probabilistisch’: “ChatGPT heeft geen interne registratie van goed en fout, maar een statistisch model over welke stukjes taal samengaan in verschillende contexten.” Je kunt de chatbot er bijvoorbeeld zelfs van overtuigen dat 5 + 5 niet 10 is, maar 15.

En het is niet alleen ChatGPT dat de mist in gaat. Mediabedrijf CNET liet al een tijdje een AI-tool complete artikelen schrijven. Maar nu blijkt dat die artikelen vol met fouten zitten.

Fouten in teksten corrigeren op papier.

En hoe zit het met de gebruikte data?

Ook is het de vraag op welke data AI-tools worden getraind en wat er van die data wordt gemodereerd of verwijderd. Zo kwam Time met het verhaal dat Kenyanen voor een habbekrats helpen met het moderen van ChatGPT. Ze zorgen ervoor dat de chatbot geen gewelddadige, seksistische of racistische opmerkingen maakt. Ook door AI gegenereerde afbeeldingen zijn erg subjectief: zo zien ze er wel erg Europees uit of zijn ze seksistisch. Welke invloed heeft een bedrijf op wat je via een AI-tool te zien krijgt? En hoe weet je of je in de toekomst kunt vertrouwen dat een AI-tool objectief is in wat het genereert? Dat lijkt me praktisch onmogelijk, juist omdat het op data wordt getraind die door mensen is gemaakt.

Dit geeft dus wel te denken over de betrouwbaarheid en objectiviteit van content die ChatGPT en andere AI-tools je bieden. Je zult toch moeten checken of alles klopt en de tool geen kwaadaardige dingen doet of zegt.

Rechtszaken

Een AI-tool als ChatGPT is een ‘black box’, je ziet niet waar het antwoord dat je krijgt op wordt gebaseerd. Je krijgt ook geen bronvermelding. Maar wat we wel weten, is dat het getraind wordt door enorme hoeveelheden data. En waar komen deze gegevens vandaan? Een deel van de tools wordt getraind op basis van data waar een licentie op zit, zoals van afbeeldingendatabase Shutterstock. Sommige bedrijven beschikken over eigen datasets om AI mee te trainen. En een ander deel van de AI-tools wordt getraind door het web te crawlen, zoals zoekmachines ook doen.

Maar dan is de vraag: van wie is die data waar AI op wordt getraind? Mogen ze zomaar alles van het internet halen, gebruiken en vervormen? Daar zijn nu rechtszaken voor aan de gang. Zo zijn er kunstenaars die vinden dat tools als Stability AI en Midjourney hun kunst illegaal gebruiken om hun stijlen te kopiëren voor AI-visuals. Het grote Getty Images stelt ook dat haar database zonder toestemming is gebruikt voor het trainen van AI. Daarnaast is er een rechtszaak tegen het scrapen van programmeercodes op GitHub, op basis waarvan AI getraind is om zelf code te schrijven. De programmeurs vinden dat OpenAI geen geld mag verdienen aan opensource-code, dat gratis en openbaar beschikbaar is gesteld.

De grote zorg van kunstenaars, schrijvers, programmeurs en andere makers is dat deze AI-systemen worden getraind op basis van auteursrechtelijk werk zonder toestemming, zonder erkenning en compensatie. Het is volgens hen plagiaat onder een mooi sausje.

Uitdagingen voor het onderwijs

Als je zelf met een tool als ChatGPT hebt gespeeld, zie je de mogelijkheden. En ik kan me voorstellen dat menig leerling en student dat ook wel heeft gezien. En dat gaat gevolgen hebben voor het onderwijs. ‘The College Essay Is Dead’, schrijft Stephen Marche daarom op The Atlantic. Want wat is de oefening van het schrijven van een essay of opstel nog waard, als je het op een overtuigende manier door een tool kunt laten doen?

ChatGPT kan niet denken, redeneren of programmeren, het kan alleen (heel goed) inschatten welke tekst het beste past bij jouw vraag. – Esther van der Stappen

Esther van der Stappen (Avans-lector Digitale Didactiek) stelt dat AI-tools zoals ChatGPT een gevaar vormen voor ons intellect. Het menselijke schrijfproces biedt namelijk leerkansen: je leert je ideeën onder woorden te brengen, te argumenteren, te evalueren en verbeteren. Met een AI-tool creëer je met een druk op de knop (oké, wel met een goede prompt) teksten zonder dat die tool beoordeelt of ze inhoudelijk correct zijn.

Leerlingen en leraren (en wat mij betreft: iedereen) moet weten hoe generatieve AI werken, je moet kunnen herkennen of AI wordt gebruikt en je moet de mogelijkheden en beperkingen kennen. Het vraagt om “algoritmische geletterdheid”. Je moet AI als hulpmiddel kunnen gebruiken, maar ook weten wanneer je er géén gebruik van wil maken.

Tip: doe (gratis en voor niets) kennis op van AI bij De Nationale AI-cursus.

Ben Thompson van Stratechery komt met een interessante mogelijke oplossing voor het onderwijs: “In plaats van zinloos te eisen dat leerlingen zelf essays schrijven, dringen docenten aan op AI. Het punt is echter: het systeem zal vaak verkeerde antwoorden geven. De echte vaardigheid in de huiswerkopdracht zal liggen in het controleren van de antwoorden die het systeem oplevert.” Leerlingen moeten leren hoe je een controleur en redacteur kunt zijn, in plaats van iemand die feitjes opdreunt.

Misinformatie: flood the zone with shit

Via een tweet deelt Nina Schick (expert in generatieve AI) dat in 2025 zo’n 90% van alle digitale content door AI zal worden gecreëerd. Generatieve AI maken het nóg makkelijker om content te produceren met zo’n overload dat we het niet meer kunnen bijhouden en controleren. Ik moest daarbij denken aan de beruchte quote van Steve Bannon: “Flood the zone with shit”.

Stack Overflow (een Q&A-website over een breed scala aan programmeeronderwerpen) kreeg er al mee te maken en bant gebruikers die AI inzetten voor hun antwoorden. Door de vele reacties op de site die overtuigend leken maar toch inhoudelijk incorrect waren, konden de moderators het niet meer aan en werd de algemene kwaliteit van de community omlaag getrokken.

Je kunt je voorstellen wat er kan gebeuren als bots op social media gebruik kunnen maken van de contentcreatiekracht van AI. Casey Newton van Platformer onderschrijft mijn vrees voor de inzet van deze tools voor beïnvloeding, intimidatie, spam en andere schadelijke zaken. “Platforms hebben in het verleden moeite gehad om te bepalen welke van hun gebruikers echt zijn en welke bots. Als bots deze tools kunnen gebruiken, is het potentieel voor schade reëel.”

Hoe gaan we om met de content-overload?

Ben Thompson stelt op Stratechery dat we de overvloed niet moeten bevechten (dat is toch een verloren strijd), maar omarmen. En net als de leerlingen op school moeten we zelf leren controleren en cureren. Dus niet er zomaar vanuit gaan dat wat je leest correct is, maar eerst factchecken.

Inmiddels komen er ook tools online die je helpen bij het beoordelen of content door AI is gemaakt. Zo vind je op SearchEngineJournal een lijstje met geteste tools.

Gezien de ervaringen van de afgelopen jaren ben ik er niet gerust op dat we nu wel spontaan met z’n allen leren hoe we echt van nep kunnen onderscheiden. Maar het uitgangspunt van internet wordt dus: alles is nep, tot het tegendeel is bewezen.

De roep om wetgeving neemt ook toe. Zo stellen analisten Sander Duivestein (die eerder al op Marketingfacts opriep tot een verbod) en Thijs Pepping in NRC dat het gebruik van ChatGPT aan banden moet worden gelegd, om misbruik tegen te gaan.

Makkelijk content maken is niet altijd beter

Dan wil ik dit artikel nog afsluiten met een wellicht ‘zachter klinkend’ nadeel, maar wat mij – en ja, ik ben bevooroordeeld als schrijver – toch echt een belangrijk punt: jezelf ontwikkelen en groei doormaken. Het gebruik van een AI-tool om voor jou content te maken, is aanlokkelijk. Het kan veel tijd schelen! Maar is het ook beter? Daar twijfel ik over. Jarno Duursma beschrijft het treffend in zijn nieuwsbrief:

Door te schrijven kun je zelf je binnenwereld vergroten, zelf nieuwe verbanden leggen en zelf betekenis creëren bij hetgeen je maakt. Door te schrijven, te denken, te voelen, te wikken en wegen en maak je een connectie tussen je innerlijke wereld en de buitenwereld. Dat zorgt voor persoonlijke groei. Komt dit nu onder druk te staan?

Dit artikel heb ik dan ook geschreven zónder de hulp van ChatGPT. 😉 En op basis van kennis van andere mensen die hier al veel over weten en hebben geschreven (zie de links in dit artikel). Ik vind generatieve AI interessant én leuk om mee te experimenteren en het kan behoorlijk handig zijn. Maar we moeten ook de mogelijke gevaren in het oog houden en oplossingen vinden voor de ethische vraagstukken. Ik ben benieuwd wat jouw gedachten bij deze ontwikkelingen zijn.

[Aanvulling 14 februari 2023] Privacy-issues

Ik wil graag nog een dreiging toevoegen, na het lezen van dit sterke artikel van Uri Gal (professor Business Information Systems, University of Syndey): ChatGPT is a data privacy nightmare. If you’ve ever posted online, you ought to be concerned. Je moet niet vergeten dat OpenAI gigantisch veel gebruikersdata verzamelt. Het is nog de vraag of het voldoet aan de Europese AVG/GDPR-regels en het recht om vergeten te worden. Volgens het privacybeleid van het bedrijf verzamelen ze je IP-adres, het browsertype en de browserinstellingen, en gegevens over je interacties met het platform. Dit is inclusief de inhoud en functies die je gebruikt en de acties die je onderneemt.

OpenAI verzamelt ook informatie over je browse-activiteiten. Het bedrijf verklaart dat het je persoonlijke informatie kan delen met niet nader genoemde derden, zonder je te informeren. Pas dus op met het delen van vertrouwelijke gegevens van jezelf en je bedrijf of organisatie. En houd in het achterhoofd dat dit een commercieel bedrijf is dat geld verdient met onze gegevens.