Tech

De ontwikkelingen binnen AI: fascinerend én controversieel

0

Kunstmatige intelligentie (AI) en big data kennen steeds meer toepassingen. Ze krijgen ook een steeds grotere invloed op ons dagelijks leven. Dat levert gemengde gevoelens op. Sommige toepassingen zijn al zo ingeburgerd dat we hier verder niet bij nadenken. Denk aan Google Maps die je op de plaats van bestemming brengt, persoonlijke Netflix-aanbevelingen of de gender swap op Snapchat. Bij andere toepassingen hebben we meer bedenkingen. Omdat we vaak niet meer weten wat de waarheid is en wat fake. Of omdat we het ervaren als een bedreiging van onze privacy.

Gemak versus privacy

Data en AI kunnen zorgen voor gemak en betere beslissingen. We krijgen Netflix-aanbevelingen op basis van onze interesses. Artsen kunnen betere beslissingen nemen. Er is betere criminaliteitsbestrijding. En er zijn zorgrobots die eenzame ouderen gezelschap houden. Maar we hebben ook te maken met de andere kant, met de ethische vraagstukken. Zo krijgen we een nieuwsselectie op basis van algoritmes. Verkiezingen of nieuws worden gemanipuleerd. Onze data worden steeds vaker gebruikt door organisaties (en onze data wordt ook vaker gehackt). En data wordt verkeerd geïnterpreteerd.

Artificial intelligence en data stonden daarom ook centraal op Emerce Eday. De slogan dit jaar luidde dan ook: Where innovation, digital and great minds converge. Het evenement in de Kromhouthallen werd dit jaar afgetrapt met een spetterende lichtshow en hoofdredacteur Gijs Vroom achter de draaitafel.

Empathie neemt af en technologie draagt daaraan bij.

Meer focus op de emotie van kunstmatige intelligentie

Pamela Pavliscak van het Pratt Institute begon vervolgens met haar keynote ‘Is technology killing empathy?’. Volgens haar blijkt uit verschillende onderzoeken dat de empathie afneemt en dat technologie daaraan bijdraagt. Zo zitten we in onze eigen informatiebubbel en we zijn druk met het delen van selfies op social media.

Dat levert ethische vraagstukken op. Zo liet Pamela een voorbeeld zien van iemand die een selfie maakt naast de doodskist op een begrafenis. Maar technologen proberen dit empathieprobleem op te lossen door meer te focussen op de emotionele aspecten in AI, VR en chatbots. Een voorbeeld daarvan is de vriendin in een fles van Gatebox:

Accepteer cookies

Maar die emotionele menselijke aspecten zijn nog vrij lastig. Dit is veel meer dan slechts een stap in het ontwerpproces. Het is een hele uitdaging om menselijke emoties te herkennen. Zo zijn er veel verschillende vormen van een lach, en er gaat vaak veel meer schuil achter zo’n lach. We laten niet al onze emoties zien, maar bovendien mist de technologie ook vaak de volgende dingen:

  • Context
  • Herinnering
  • Ervaring
  • Sociale normen
  • Cultuur

Synthetische realiteiten worden steeds verfijnder

Dat het steeds lastiger wordt om te weten wat echt is en wat niet, bleek ook uit de presentatie van Andy Polaine van Fjord. We kunnen allang de realiteit manipuleren sinds de komst van Photoshop. Een van de eerste voorbeelden is de cover van National Geographic. Een foto van de piramides werd gemanipuleerd, omdat dit er mooier uitzag.

Maar de techniek wordt steeds verfijnder. Hierdoor weten we vaak niet meer wat echt en wat nep is. Zo kennen we allemaal de video van Nancy Pelosi die gemanipuleerd werd door Trump-aanhangers, waardoor het leek of ze dronken was. Een avatar als Hatsune Miku is zelfs uitgegroeid tot een waar popidool. Ze trekt volle zalen als hologram, stond in het voorprogramma van Lady Gaga en treedt zelfs op in talkshows. En dan heb je nog avatar Lil Miquela die levensecht lijkt. Op Instagram heeft ze al meer dan 1,5 miljoen volgers.

Je hebt nu ook de mogelijkheid om via generated.photos levensechte gezichten te downloaden en zelf mensen te creëren. Modemerken hebben geen modellen meer nodig, maar kunnen gewoon hun eigen perfecte synthetische modellen creëren met AI. Dit kan met een app als datagrid.

Technologische ontwikkelingen zorgen voor nieuwe verdienmodellen

De technologische ontwikkelingen zorgen ook weer voor nieuwe mogelijkheden en nieuwe verdienmodellen als je meebeweegt met die ontwikkelingen. Zo vertelde Chris Wiggins (datawetenschapper van de New York Times) dat ze aan de hand van data precies het gedrag van hun abonnees kunnen voorspellen. Ze kunnen voorspellen welke artikelen beter gelezen worden door zakenmensen, wie er eerder op een groene of blauwe knop klikt en wanneer mensen hun abonnement dreigen op te zeggen. Ze kunnen zelfs voorspellen welke emoties een artikel oplevert. De New York Times biedt adverteerders nu ook de mogelijkheid om reclameruimte te kopen bij artikelen die een bepaalde emotie oproepen. Ze verkopen 18 verschillende emoties.

Deze data worden steeds belangrijker voor organisaties. Dat bleek ook uit de talk van Jan Lammers van de Dutch Grand Prix en Jeroen van Glabbeek (directeur van CM.com). Er waren ruim een miljoen belangstellenden voor kaartjes van de race van volgend jaar. Slechts 300.000 kaartjes zijn toegewezen. Omdat de kaartverkoop voor meer dan 60% verliep via de app, heeft Dutch GP nu de beschikking over een enorme database van racefans die ze nu uiteraard ook commercieel in kunnen zetten.

We geven zelf meer informatie prijs dan we denken

Een verrassende sessie was die van het Smartphone Orchestra waar het publiek zelf de hoofdrol in speelde. Door vragen te beantwoorden op je smartphone over jezelf en andere deelnemers – terwijl je iedere keer een andere positie innam op een grote mat – wilden ze met dit experiment vooral laten zien wat er gebeurt als je nietsvermoedend je persoonlijke gegevens invoert bij Facebook of andere online diensten. We mopperen weleens op Facebook, maar voeren we zelf niet al die data in? En wie heeft ooit de voorwaarden van Facebook helemaal gelezen? Wat zou er gebeuren als Mark Zuckerberg uit wraak morgen al onze gegevens op straat gooit?

We laten meer sporen achter en geven meer van onszelf bloot op internet dan we vermoeden. Dit bleek ook uit de presentatie van Henk van Ess. Hij liet zien hoe je met crowdsourcing de voortvluchtige crimineel Shahin Gheiybe in Iran op kunt sporen. Zo konden tipgevers van Bellingcat aan de stand van de bloemen op de achtergrond van Instagram-video’s bepalen in welke maand de opnamen gemaakt zijn. Mensen staan er volgens Henk ook nauwelijks bij stil dat kleine brokjes informatie samen een totaal plaatje kunnen vormen.

Gemak versus ethiek

Door AI gegenereerde realiteiten vertroebelen de ‘waarheid’. De technieken worden steeds verfijnder. Fascinerend, maar ook controversieel. Zolang we het gemak ervaren, vinden we het prettig dat we met Google Maps op onze bestemming komen, onze woonkamer virtueel in kunnen richten of virtueel kleding kunnen passen. Maar het brengt ook een aantal ethische vraagstukken met zich mee. Want hoe kunnen we echt nog van gemanipuleerd onderscheiden? Wat gebeurt er met onze data? En wat als deze verkeerd geïnterpreteerd worden?