Facebooks perfecte maar gestopte assistent ‘M’: lessen over chatbots

Facebook is gestopt met de persoonlijke assistent ‘M’. Het experiment dat kunstmatige intelligentie en menselijke ondersteuning combineerde, was lastig uit te rollen naar een groter aantal gebruikers. Wat leert het experiment over de mogelijkheden en beperkingen van bots?

Vergeet Amazons Alexa en Apples Siri, Facebooks ‘M’ is verreweg de slimste dienst die er is. Zo opende MIT Technology Review een klein jaar geleden nog een artikel over virtuele assistenten. ‘Facebooks perfecte, maar onmogelijke chatbot’. Of de tienduizend proefgebruikers nu een tafel wilden reserveren in een restaurant of meerdere offertes wilden zien van loodgietersbedrijven, assistent ‘M’ – opererende in een venster van chatapp Messenger – leverde het. Het was zelfs zo attent om gebruikers op Valentijnsdag te wijzen en aan te bieden iemand een bloemetje te sturen.

De perfecte combinatie

De truc? Net als veel andere chatbots en assistenten gebruikte Facebook kunstmatige intelligentie om een groot deel van de vragen te beantwoorden. Maar waar veel van die diensten in praktijk nogal tegenvallen door de frequente ‘sorry, ik begrijp niet wat je bedoelt’, hoefde Facebook nooit een nee te verkopen. In zo’n situatie schakelde het systeem – onzichtbaar – over op contact met een mens. En met name dat wordt als gouden greep gezien. Uit die mens-tot-mensgesprekken trok het computersysteem weer zijn lessen. En werd dus slimmer. Gebruikers krijgen hierdoor vertrouwen in een innovatie en gebruiken de dienst dan vaker.

Hoe compleet de dienst ook klinkt, Facebook besloot enkele weken terug toch te stoppen met ‘M’. Enkele (geautomatiseerde) componenten ervan gaan weliswaar verder als als onderdeel van andere services, het team van menselijke assistenten krijgt een andere bezigheid.

Het experiment was vooral bedoeld om te zien of mens en machine een perfecte combinatie vormden. Nu is gebleken dat daar nogal wat haken en ogen aan zitten. Op basis van ingewijden schrijft Wired dat Facebook nooit meer heeft kunnen automatiseren dan dertig procent van de berichten. Of dat inderdaad het geval is, heeft Facebook niet bevestigd. Wel gaf de projectleider een jaar terug al aan dat de uitdaging groter was dan hij dacht. Het lerend vermogen en de toename van de automatisering vielen hem tegen. ‘Het herinnert ons eraan hoe ver kunstmatige intelligentie al is gekomen – en welke weg het nog heeft te gaan’, vat MIT samen.

Lessen geleerd

Is het experiment daarmee mislukt? Facebook zelf denkt van niet. En uit opmerkingen van Wired zijn ook een aantal belangrijke lessen te trekken voor bouwers van bots en andere innovaties. Het grootste probleem blijkt bijvoorbeeld de grenzeloosheid te zijn. Werkelijk alles kon er worden gevraagd aan de assistent. Juist door Alexa’s relatieve focus op winkelen – logisch met Amazon als eigenaar – zou de dienst succesvoller worden.

Wat Facebook ook heeft gemerkt is dat op iedere volbrachte taak een nog veel moeilijker vraagstuk volgt. Dat leidt ertoe dat een – op het oog – volautomatische ‘M’ geconfronteerd wordt met vragen die veel verder gaan dan machine learning op dit moment aankan. De algoritmes zijn gewoon nog niet zo ver om met alle nuances in taal goed om te gaan, concludeert Wired. Facebook zegt alle welkome lessen te gebruiken voor onderzoek en nieuwe projecten.

Hoge verwachtingen

Chatbot-kenner Daan Gönning snapt heel goed dat Facebook dit experiment is aangegaan. Zelf werkte hij bij meerdere bedrijven aan de ontwikkeling van bots en bouwde altijd de optie in voor een ‘human takeover’. Een mens moet in zijn ogen altijd het gesprek kunnen overnemen en bijsturen. De reden is simpel, zegt hij: “Chatbots kunnen nog niet zonder mensen”. De techniek heeft nog niet alle antwoorden en de gesprekken lopen ook lang niet zo vloeiend als tussen twee mensen. “Gebruikers zijn ongeduldig en beëindigen een gesprek als de ervaring niet direct goed is. Een backup is dus handig.”

Op dit moment is de achterliggende kunstmatige intelligentie simpelweg nog niet goed genoeg, denkt Gönning. Of beter gezegd: het kan nog niet voldoen aan de hoge verwachtingen die gebruikers hebben. Daarom is het dus slim om gebruikers door een gesprek te leiden met knoppen, zoals verreweg de meeste bots die nu het daglicht zien zijn ingericht. Er is dan tijdens een gesprek weliswaar weinig ruimte voor eigen initiatief, automatisering is wel op schaal in te voeren. “Is dat het eindpunt? Nee, dat verwacht ik niet. Dit is een tussenfase om consumenten te laten wennen. Op die manier kunnen we op kleine onderdelen meer kunstmatige intelligentie toevoegen en de techniek uit de hypefase halen.”

Dat bedrijven als Facebook tegen de grenzen oplopen en het experiment stoppen, is in Gönnings ogen geen tegenvaller. Het brengt zelfs wat realisme in de markt. “Het is hard nodig om op kleine schaal te experimenteren. Ze hebben in dit geval iets over de technologie geleerd, maar interessanter nog zijn de lessen die je trekt over gebruikers. Die zijn dus inderdaad zo ongeduldig en veeleisend dat de techniek het nog niet kan bijbenen. Dat ik ‘nog’ zeg is bewust: want het is slechts een kwestie van tijd voor dit is opgelost.”

Daan Gönning spreekt 22 maart op The Social Conference. Tijdens ‘Herken de bot‘ gaat hij in op de toekomst van customer service en de rol en kenmerken van chatbots. Kaarten voor The Social Conference zijn hier verkrijgbaar

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond.

terug