-

Hyperautomation: houd controle (5/5)

Hyperautomation biedt veel potentie voor het efficiënter maken van processen, maar het is cruciaal om altijd controle te houden. Toezicht en governance, verantwoordelijkheid, privacy en transparentie: dat zijn de sleutelprincipes om grip te houden.

Het motorblok waarop hyperautomation draait wordt gevormd door data en AI. Het toevoegen van deze slimme motor brengt uitdagingen die een duidelijk plan vereisen op het gebied van strategie, rol- en procesveranderingen en de inzet van bepaalde technologieën. Wat kan voor een organisatie de meerwaarde van hyperautomation zijn? En welke governance-methoden kunnen worden toegepast op end-to-end-automatisering? Om te voorkomen dat processen voor organisaties onnavolgbaar worden, en negatieve gevolgen niet kunnen worden uitgelegd, gaan we in dit artikel een aantal stappen langs. Er is in ieder geval geen shortcut naar een geautomatiseerde organisatie gedreven door AI.

Begin klein, maar denk groot

Met de inzet van hyperautomation wordt zichtbaar hoe organisaties hun bestaande processen kunnen stroomlijnen, verbeteren en anders inrichten. Zo konden gemeenten door de inzet van RPA-automatisering, Tozo-aanvragen driemaal zo snel afhandelen (pdf) dan bij handmatige verwerking (een Tozo is een tijdelijke financiële overbruggingsregeling voor zelfstandig ondernemers, waarmee gedupeerde ondernemers hun inkomen tijdens de Coronacrisis kunnen aanvullen). De combinatie van data-analyse en AI biedt nieuwe inzichten uit ongestructureerde data die kunnen bijdragen aan kosten- en tijdsbesparingen, het genereren van inkomsten, of risicobeheer.

Dit vraagt echter ook om voldoende zicht in knelpunten in organisatie-specifieke processen, evenals om de goede kwaliteit van de ‘motor’ waar de AI-gerelateerde toepassingen op berusten. Zo dienen de onderliggende data correct, consistent, voldoende divers, volledig en actueel te zijn om als representatieve trainingsdata te kunnen werken. Er moet worden nagedacht over de invloed op de autonomie van end-to-end-automatisering en het proces van gezamenlijke besluitvorming, over de gevolgen voor privacy en aansprakelijkheid, en transparantie over hoe beslissingen tot stand zijn gekomen. Hyperautomation vraagt om maatwerk dat aansluit bij de visie en strategie van iedere specifieke organisatie.

Vier gebieden om de black box in te kaderen

In 1999 kwam de film The Matrix uit. De film draait om een plot waarin de mensheid onbewust gevangen zit in een gesimuleerde realiteit, de Matrix, gecreëerd door intelligente machines. Hoewel de film een extreem scenario van een wereld met AI schetst, wijst het ook op een donker thema: het verliezen van controle over een slim proces, wat leidt tot een ongewenste en onnavolgbare uitkomst.

Adequate afdekking van negatieve gevolgen en het houden van controle op de uitkomst van een proces kunnen worden bereikt door heldere kaders voor de inzet van hyperautomation en AI op te stellen. Hieronder worden vier gebieden uitgelicht: menselijk toezicht en governance, verantwoordelijkheid, privacy en transparantie. Deze gebieden worden ook genoemd in het rapport “Ethics Guidelines for Trustworthy AI”, geschreven door een expertgroep opgezet door de Europese Commissie (2019).

1. Menselijk toezicht en governance

Bij het gebruik van hyperautomation moeten gebruikers autonome beslissingen kunnen nemen ten aanzien van AI en data-analyse, zeker bij processen waar juridische gevolgen aan kunnen zitten. Dit kan door verschillende governance-modellen: human-in-the-loop, human-on-the-loop of human-in-command.

De human-in-the-loop-methode voegt menselijke interventie toe aan elk besluitcyclus van het systeem. De human-on-the-loop-methode voegt menselijke interventie toe gedurende de ontwerpcyclus van het systeem en het monitoren van de werking van het systeem. Bij de laatste methode, human-in-command, wordt de algehele activiteit van het AI-systeem overzien (inclusief bredere economische, maatschappelijke, juridische en ethische gevolgen), en is er het vermogen om te kiezen wanneer en hoe het systeem in iedere specifieke situatie wordt gebruikt.

Het kiezen van het geschikte governance-model is afhankelijk van de toepassing en het proces, als ook het potentiële risico dat het met zich meebrengt. Dit is een keuze waar een organisatie zelf verantwoordelijk voor is.

2. Verantwoordelijkheid

Naast het kiezen van het geschikte governance-model zijn organisaties ook verantwoordelijk voor de gevolgen van het AI-systeem. Een organisatie kan hiervoor verschillende onderdelen inbouwen: de mogelijkheid om de algoritmen, gegevens en ontwerpprocessen te controleren; de mogelijkheid om verslag te doen van handelingen of beslissingen die bijdragen aan een bepaald resultaat van het systeem; en de mogelijkheid om in hoger beroep te gaan om besluiten aan te vechten. Daarnaast kan een organisatie overwegen een proces zonder een vorm van AI voort te zetten wanneer er geen ethisch acceptabele beslissingen genomen kunnen worden door het systeem zelf.

3. Privacy

Privacy en gegevensbescherming moeten gegarandeerd worden door de AI-systemen om te voorkomen dat persoonsgegevens gebruikt worden om onwettig of onrechtvaardig te discrimineren. Daarnaast is het cruciaal voor de prestaties van de AI-systemen dat de kwaliteit van de gebruikte data in orde is en dat toegang tot persoonlijke data gereguleerd is met gegevensprotocollen.

4. Transparantie

Door de brondata en processen waaruit een beslissing voortkomen zo goed mogelijk te documenteren en traceren, wordt de transparantie vergroot. Hierdoor is verklaarbaarheid mogelijk.

What’s next?

Het is cruciaal dat organisaties scherp blijven op hoe een hyperautomationtransformatie bijdraagt aan de verbetering of optimalisatie van processen. Zo brengt automatisering niet alleen kansen, maar ook uitdagingen met zich mee. Hoe kunt u uw medewerkers digitaal klaarstomen om met de inzet van Algorithmic Process Automation of Document Processing te kunnen werken? En hoe behoudt u menselijk toezicht en controle op processen die zijn aangedreven door AI-systemen? Functietitels zoals AI-specialist, Ethics en Compliance Officer, AI-auditor en AI-accountants kunnen bij deze transformatie nieuwe functies in de organisatie gaan bekleden.

Door heldere kaders voor de inzet van hyperautomation op te stellen, kan je organisatie zich voorbereiden op een adequate afdekking van de mogelijke negatieve gevolgen. Zo zorg je voor een systemen en processen die niet alleen integer zijn, maar dat ook blijven. Alleen op die manier is er écht toekomst voor hyperautomation.

Dit is deel 5 uit een serie van 5.

  • Deel 1 is een introductie tot hyperautomation
    De kracht van de inzet van Artificial Intelligence zit in het verwerkbaar maken van ongestructureerde data, zoals beelden.
  • Deel 2 gaat in op Document Understanding and Processing
    De kracht van de inzet van Artificial Intelligence zit in het verwerkbaar maken van ongestructureerde data, zoals beelden.
  • Deel 3 gaat in op Conversational AI
    Wil je je klant direct betrekken in het automatiseren van jouw interne processen? Dan kun je het contact met die klant ook automatiseren door bijvoorbeeld de inzet van Conversational AI.
  • Deel 4 gaat in op Algorithmic Process Automation
    Hier gaat het over het verbeterd voorspellen van de toekomstige vraag naar producten door de inzet van Algorithmic Process Automation en de samenwerking met RPA.

Over de auteurs: Esmee Stouten is Senior Consultant Enterprise Data & Analytics bij Capgemini Invent  en Marije Merckens is Senior Consultant Enterprise Data & Analytics bij Capgemini Invent

Op de hoogte blijven van het laatste nieuws binnen je vakgebied? Volg Emerce dan ook op social: LinkedInTwitter en Facebook.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond