-

Het is tijd om te investeren in verantwoorde AI

Artificial intelligence (AI) stelt steeds meer organisaties in staat om hun data optimaal te benutten en bedrijfsprocessen te automatiseren. Tegelijkertijd ligt het gebruik van AI steeds vaker onder een vergrootglas. Daarom wordt het voor organisaties alsmaar belangrijker om aan te tonen dat zij op een verantwoorde manier met kunstmatige intelligentie omgaan. Beslissingen die met behulp van AI worden genomen, moeten betrouwbaar, eerlijk en vooral transparant zijn. Want de mondige burger van nu eist – en heeft – recht op uitleg. 

Kunstmatige intelligentie is inmiddels volop aanwezig in het dagelijks leven. En niet alleen in de vorm van algoritmes die berekenen welke serie jij op Netflix wilt kijken. Steeds vaker wordt AI bijvoorbeeld ook gebruikt om te bepalen of iemand in aanmerking komt voor een lening of welk creditcardlimiet iemand krijgt. 

Het potentieel van AI is voor veel mensen en organisaties duidelijk, maar daarmee groeit ook de roep om regulering. Google CEO Sundar Pichai sprak zich hier al eerder over uit. De Europese Unie lijkt erop gebrand om nieuwe regel- en wetgeving in te stellen en begin dit jaar kwam het World Economic Forum met acht regels op de proppen voor bedrijven die ethiek in hun AI willen integreren. 

Voor bedrijven is het daarom zaak nu te handelen en niet achter de ontwikkelingen aan te lopen.  

Voorkom dat je vragen krijgt die je niet kunt beantwoorden

Een van de grootste problemen met kunstmatige intelligentie is het zogeheten ‘black box decision making’. Simpel gezegd komt dit erop neer dat de input in een systeem (bijvoorbeeld financiële data) leidt tot een output (bijvoorbeeld een aanbeveling of iemand of een bedrijf kredietwaardig is), maar waarbij er geen enkel inzicht is in hoe deze beslissing precies tot stand kwam. Waarom AI bepaalde keuzes heeft gemaakt, blijft een mysterie en betrokkenen moeten maar aannemen dat de beslissing juist is, zonder dat dit op een of andere manier valt te valideren.

Dit leidt natuurlijk tot ondoorzichtige situaties die je als organisatie wilt voorkomen. 

Als het gaat om AI-voorspellingen binnen bedrijfsprocessen wil je als beleidsbepaler binnen een organisatie niet alleen weten wat je moet doen, maar ook waarom je dat moet doen. Als het gaat om diensten of beslissingen met betrekking tot klanten moet je kunnen uitleggen waarom een AI-systeem een voor de klant negatieve beslissing heeft genomen en dan volstaat het niet om te zeggen dat ‘de computer dat nu eenmaal heeft berekend’. Daarnaast loop je bij ondoorzichtige besluitvorming ook het risico dat je AI-systeem zonder dat jij het weet discrimineert, wat negatieve pr of zelfs een rechtszaak kan opleveren. 

Wanneer het fout gaat

Dat het goed fout kan gaan, blijkt wel uit de volgende voorbeelden.

In februari besloot de rechtbank in Den Haag dat het overheidsprogramma Systeem Risico Indicatie (SyRI) van tafel moest. SyRI, een initiatief van het ministerie van Sociale Zaken, is een algoritme dat allerlei persoonlijke gegevens aan elkaar koppelt en op die manier mensen identificeert die waarschijnlijk fraude plegen. De rechtbank besloot echter dat het programma onvoldoende inzichtelijk en controleerbaar was, onder meer door een gebrek aan transparantie over hoe gegevens werden verwerkt en geanalyseerd. Daarmee bestond ook het risico dat discriminerende effecten zouden optreden. Eerder uitte het Europees Hof voor de Rechten van de Mens al kritiek op SyRI. 

Een paar maanden eerder bevond techgigant Apple zich in het oog van een mediastorm toen bleek dat het AI-systeem achter de nieuwe creditcard van het bedrijf mannen een stuk kredietwaardiger achtte dan vrouwen. Zelfs medeoprichter Steve Wozniak liet via Twitter weten dat hij tienmaal zoveel krediet had gekregen als zijn vrouw, ook al deelde het echtpaar alle bankrekeningen en bezittingen.  

Ook in andere gevallen is het belangrijk om te weten hoe een AI-systeem tot een besluit kwam. Stel: kunstmatige intelligentie wordt gebruikt om te bepalen wanneer de wielen van een trein vervangen dienen te worden, zonder dat het duidelijk is waarom ze op dat moment versleten zijn. Het gevolg is dat je alleen aan symptoombestrijding doet en achter de feiten aanloopt, iets wat steeds weer tijd en geld kost. 

Verschillende oplossingen

Voorkomen is beter dan genezen en dus doen bedrijven en organisaties er verstandig aan om nu actie te ondernemen. Er zijn oplossingen waarmee AI-systemen inzichtelijk en transparant worden, bijvoorbeeld door middel van het implementeren van een responsible AI framework in nieuwe of bestaande AI-toepassingen. Dit framework gaat uit van vier elementen: Fairness, Accountability, Confidentiality en Transparancy en deze methodiek stelt bedrijven in staat om oneerlijkheid op te sporen en door middel van transparantie vertrouwen op te bouwen. 

Welke oplossing er ook het beste past bij je organisatie, het is sowieso tijd om de black boxes te openen. 

Over de auteur: Marijn Kroes is data science consultant bij VIQTOR DAVIS.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond