Innovatie

Waarom de dialoog tussen mens en robot nog verre van ideaal is

0

Column – Allemaal zijn ze ermee bezig: Google, Amazon, Microsoft, Apple, Disney. Veel meer bewijs dan dit hoef je niet te hebben om te concluderen dat er iets aan de hand is, iets aan de hand met het gesprek tussen een computer (bot, robot) en een mens.

Er zit voor honderden miljoenen research-capaciteit te werken aan een behoefte en een markt, die blijkbaar zo enorm groot is dat je geen snotterige trendwatcher meer nodig hebt om te bevestigen dat er iets gaat gebeuren.

Als het lukt.

Want niets is zo genuanceerd en context-afhankelijk dan een dialoog.

En zo las ik het artikel op Fastcodesign over de grote I/O-conferentie die eind mei bij Google is gehouden. Alle grote conversatie-experts van de wereld schijnen daar geweest te zijn. Er kwamen een paar grote overkoepelende tips uit en er was een nuttige verwijzing naar de ‘Cooperative Principles’, ooit geïntroduceerd door de Britse taal-filosoof Paul Grice. Deze principes beschrijven de voorwaarden waaraan in het algemeen een gesprek in een normale sociale situatie zou moeten voldoen. En deze principes worden toegepast op het gesprek dat door een robot, een mechanische receptionist in een hotel, bank of receptie van een accountantskantoor zou kunnen worden gehouden.

De ideale dialoog

De Gricean Maxims luiden als volgt:

  1. Maxim of Quality: zorg er voor dat het waar is wat je zegt. Zeg nooit iets – laat je bot nooit iets zeggen – waarvan je weet dat het niet waar is
  2. Maxim of Quantity: zeg niet meer en ook niet minder dan nodig is
  3. Maxim of Relation: blijf bij het gespreksonderwerp. Het is een kort Maxim met grote gevolgen. Een vraag die in het begin niet relevant is, kan het later in het gesprek wel degelijk blijken te zijn
  4. Maxim of Manner: wees scherpzinnig, en niet vaag. Vermijd dubbelzinnigheden, wees kort, puntsgewijs

Het is goed om te beseffen dat de beide partijen in een ideale dialoog zich moeten gedragen volgens deze Maxims.

De dialoog van Trump

Interessante constatering tussendoor: als je een willekeurige persconferentie van president Trump langs de meetlat van de Gricean Maxims legt, kom je al snel tot de constatering dat de dialoog die daar plaatsvindt, op geen enkele manier voldoet aan de Cooperative Principles.

Een enkele zin als “I’m not a bad person, I do get good ratings, you have to admit that” overtreedt eigenlijk alle vier de principes. De uitspraak is niet waar (quality), ze is niet nodig (quantity), het is off-topic (relation) en is dubbelop, dubbelzinnig (manner). En zo zijn er in de persconferenties veel voorbeelden te vinden.

Het goede nieuws is dus dat je kunt concluderen dat Trump geen bot is maar een mens, want dergelijke logica is niet in algoritmes te vangen.

Voldaan gevoel na een dialoog

Een iets uitgebreidere versie van wat lijkt op de Cooperative Principles beschreef ik ooit in the Dialogue Manifesto (2005). Ik vroeg me af waar een dialoog tussen twee mensen aan moet voldoen, willen beide mensen in de buurt komen van een voldaan gevoel aan het gesprek.

Herkenning

In iedere dialoog is behoefte aan herkenning als daar aanleiding toe is, en ook alleen maar dan. Dus: niet herkennen als de gebruiker niet heeft aangegeven dat te willen. Iedere gebruiker heeft het recht op anonimiteit. Als je een masker opzet, moet die keuze gerespecteerd worden. De herkenning kan plaatsvinden aan het begin van het gesprek (als er sprake is van een eerdere ontmoeting), maar ook gaande het gesprek.

Bevestiging

Denk bijvoorbeeld aan het substituut van het oogcontact. In een dialoog knik je, sluit je de ogen even als teken van ontvangst van de boodschap. Herkent een robot gesloten ogen? Deze herkenning dient er ook toe te leiden dat de relevante vragen worden gesteld. Niet te veel en niet te weinig. Een (negatieve) bevestiging kan ook leiden tot een vraag als: “Ik heb niet helemaal begrepen wat je bedoelt”, of “Ik heb je niet verstaan, kun je het nog een keer zeggen?”

Communicatie tussen robots

Vertrouwen

De dialoog moet voortdurend vertrouwen wekken, hetgeen er in de praktijk op neerkomt dat het gesprek toegankelijk is en in ieder geval de indruk wekt dat het antwoord eerlijk is. Een bot in de receptie zegt tegen de bezoeker: “U moet wel een kwartiertje wachten, het vorige gesprek liep uit.”

Het paradoxale van het vertrouwen is dat er ook altijd een mogelijkheid moet zijn om te ontsnappen aan de dialoog, om eruit te stappen. En deze ontsnapping zal dan ook moeten worden ‘goedgekeurd’.

Een architect van een gevangenis zal er in zijn ontwerp altijd rekening mee houden dat de gevangenen uitzicht hebben om te kunnen ontsnappen. Er moet een mogelijkheid zijn, deze mogelijkheid kan weliswaar heel moeilijk gemaakt worden. De regel: de mogelijkheid van een ontsnapping leidt ertoe dat er minder ontsnapt wordt.

Beheersing

Net zoals in een gesprek, moet een mens in een dialoog voortdurend de indruk hebben dat de beheersing bij hem (of haar) ligt, ook al is het een schone schijn. Hij moet de indruk hebben dat hij het gesprek iedere kant op kan sturen die hij wil, en ook dat het initiatief om het gesprek te beëindigen bij hem ligt.

Verleiding

Geef de ruimte voor verleiding. Een dialoog die heel duidelijk doelgericht is (binnenkomen met “We gaan u snel helpen want dat scheelt ons tijd”) heeft een kleinere kans op succes dan een dialoog die middels verleiding en begrip en de bezoeker gaandeweg het gesprek overtuigt.

Wederkerigheid

Ik geef opdat jij wat teruggeeft. Iedere dialoog is gebaat bij een zekere reciprociteit. Beide partijen moeten de indruk hebben dat ze er beter van worden. Een dialoog tussen een bot en een mens is alleen duurzaam (voor herhaling vatbaar, leidend tot tevredenheid) als ook de mens het gevoel overhoudt dat hij er beter van geworden is, geholpen is, tevreden is.

Receptierobot

En ik kom er onder andere op omdat in de Volkskrant (door Marjolein van Trigt) van vorig weekend een artikel stond over de receptierobot Pepper. Heel kort dan. Het artikel beschrijft het wel en het wee van de mechanische receptionist Pepper bij Receptel in Almere. Receptel levert hospitality (receptionistes in pakkies, klantontvangst, u kent het wel. Letterlijk: ‘Receptel organiseert uw ontvangst. Een ontvangst dat u niet vergeet’).

En sinds kort is Receptel bezig haar eigen dienstverlening totaal te automatiseren, door robot Pepper te ontwikkelen. Je kunt ervan denken wat je wil, maar het is een dapper besluit van de directie geweest, om vol in te zetten op deze ontwikkeling. Kannibaliseren in optima forma.

Aardig beeld van de stand van zaken is de trotsheid waarmee wordt verteld wat Pepper allemaal kan. Een alinea uit het interview:

toch is hij (de ontwikkelaar) in zijn nopjes met Peppers vorderingen. Hij zegt nu ‘fijne avond’ als je het pand verlaat. Dat is magisch. Vandaag krijgt Pepper een nieuwe woordenschat… Met hulp van een laptop in de koffiecorner. Voortaan zegt Pepper niet langer ‘goedemiddag’, maar ‘fijne middag’. Volgens Receptel vinden bezoekers dat prettiger.

’s Ochtends in de lift: fijne werkdag. ’s Middags: fijne middag. Vrijdag: fijn weekend.

Tja. Er is nog een hoop te winnen, denk ik dan. En dat is dan weer fijn.

De robot die mee-eet

Maar gelukkig is daar de roman ‘In het buitengebied’, van Adriaan van Dis. De hoofdpersoon beschrijft zijn leven met Akiko. Hij noemt het een Japanse vrouw:

“Ik leg mijn hoofd in haar schoot en ze streelt mijn kale kruin. Zo lief. En ze zegt de aardigste dingen – zinnetjes die ik haar zelf heb ingefluisterd. O, ze leert zo snel.”

De vier Maxim’s, de zes eigenschappen uit het dialoog-manifest, we komen er wel in de gesprekken met de robots. Vooral als je je fantasie haar gang laat gaan, zoals van Dis bewijst.

“Je koopt bij de slager twee biefstukjes – twee, omdat je je schaamt alleen te zijn”, is de openingszin in ‘in het Buitengebied’. Maar het is bij de hoofdpersoon al verder gegaan: hij koopt het tweede biefstukje, omdat hij eigenlijk hoopt dat ze ooit mee zal eten. Ze: Akiko, de robot. Het zal nog even duren voordat we zover zijn, maar eens zal het gebeuren. Akiko zal het in ieder geval wel meemaken.