AI in de praktijk: Deeploy maakt AI uitlegbaar
De ontwikkelingen in AI gaan snel en het potentieel is enorm. Maar hoe wordt AI precies toegepast in de praktijk? Start-up Deeploy past zelf geen AI toe, maar zorgt voor correcte toepassing door bedrijven en overheden. Want zoals bij alles geldt ook bij AI: als je niet meer kunt uitleggen wat je doet gaan er uiteindelijk dingen mis.
Zoals al naar voren kwam in het vorige interview in deze serie gaan ontwikkelingen in AI razendsnel, inclusief de komst van Quantum Computing en nieuwe generatie algoritmes. Dus is het zaak om meer aandacht te gaan schenken aan het verklaarbaar en inzichtelijk maken – het uitleggen – van hoe AI-modellen werken en tot hun beslissingen komen.
Bastiaan van de Rakt, een change maker in het AI-landschap en medeoprichter van Deeploy, is een echte techneut. Hij is opgegroeid met technologie, eerst als jonge student aan de TU Delft en vervolgens meer dan 20 jaar als consultant voor of als CEO/CTO van bedrijven met een focus op machine learning en datawetenschap. Bastiaan is gaan ondernemen om echt het verschil te kunnen maken en hij staat aan de wieg van verschillende bedrijven, waarvan Deeploy en Enjins de laatste in rij zijn.
Deeploy maakt AI-modellen uitlegbaar en reproduceerbaar. Wat bedoel je daar precies mee?
“In de afgelopen 20 jaar heb ik in de wereld van toepassingen van AI grofweg twee dingen gezien. Eén: het is voor veel mensen die modellen maken lastig om deze modellen ook echt in productie te krijgen. Daarmee bedoel ik dat de beslissing die een AI-model maakt ook daadwerkelijk geautomatiseerd wordt doorgevoerd. Dus een model dat ‘draait’ achter een website of een voorraadsysteem of een hardware-apparaat (edge AI). Dit operationaliseren van machine learning wordt MLOps genoemd. Hoewel de modellen zelf vaak gemaakt worden door data scientists komen bij deze stap ook andere skills kijken (ML engineering) die dichter tegen software engineering aanzitten.
Twee: als een model dan eenmaal draait, wordt er weinig onderhoud gedaan en niet of nauwelijks geëvalueerd of de uitkomsten of de werking van het model wel blijven doen wat het moet doen. We gaan er vaak vanuit dat het model werkt en blijft werken. Met steeds ingewikkeldere modellen weet zelfs de maker steeds minder goed hoe het model überhaupt werkt (dit noemen we Explainability in AI, kortweg XAI).”
En hoe kom je hier (op tijd) achter als bedrijf?
“Bovenstaande zaken komen pas aan het licht wanneer er over beslissingen uitleg wordt gevraagd, bijvoorbeeld: ‘Beste bank of zorginstelling: zou je me kunnen sturen hoe jullie twee jaar geleden tot de beslissing zijn gekomen van dat ik een lening niet kreeg?’
Om antwoord op dit soort vragen te kunnen geven, moet je eigenlijk drie zaken voor elkaar hebben.
Een: informatie over het model; het goede versienummer, bijbehorende data, maker van het model, etc.
Twee: dus beslissingen die het model in het verleden gemaakt heeft kunnen reproduceren.
Drie: uitleg van variabelen in het model: dus, welke variabelen hebben tot die uitkomst geleid voor die bewuste beslissingen? En: de waarde van die beslissingen kunnen uitleggen aan de eindgebruiker.”
Deze drie dingen neemt Deeploy dus voor je uit handen. Wat levert dit concreet aan jullie klanten?
“Deeploy maakt Machine Learning (ML)-implementaties inzichtelijk door verklaarbare AI een centrale plaats te geven in ML-operaties (oftewel MLOps). Hiermee geven wij mensen de controle om te begrijpen wat modellen doen en om geautomatiseerde beslissingen te (kunnen) corrigeren. Zonder producten als Deeploy is het vrijwel onmogelijk voor bedrijven en overheden om overzicht, inzicht en controle te houden op hun AI-modellen. Het is dus explainable AI by design.”
Wat moet ik me daar precies bij voorstellen, als ik een bedrijf of overheid ben?
“We hebben een platform waarop elke datawetenschapper erg eenvoudig (via een makkelijke user interface) zijn AI-model in productie kan brengen en houden, op zo’n manier dat alles uitlegbaar en reproduceerbaar is en blijft. Uitlegbare modellen geven inzicht in hoe het model werkt en hoe dit model tot een bepaalde uitkomst komt. ‘Reproduceerbaar’ houdt in dat goed werkende modellen opnieuw gebruikt worden, zonder fouten of aanpassingen die niet gewenst zijn.”
Je ziet in Europa – in navolging van de GDPR – ook steeds meer regelgeving ontstaat omtrent de toepassing van AI. Wat zijn jouw verwachtingen hieromtrent?
“Er is een discussie over hoe ver die regelgeving zal gaan en welk orgaan dit gaat controleren. Regelgeving zal daarbij altijd componenten van bepaalde mate van uitlegbaarheid en reproduceerbaarheid hebben. De komende jaren zal uitwijzen hoe dit er precies gaat zien. Als Deeploy zorgen we dat we hier voorop lopen en helpen we daarmee onze klanten om (zo ver als mogelijk) voorbereid te zijn op deze ontwikkelingen.”
Kun je elk model dan altijd helemaal uitleggen?
“Nee, soms is de explainer moeilijker te maken dan het model. Maar je hoeft niet altijd alles uit te leggen. Ook een deeluitleg creëert al meer transparantie die noodzakelijk is voor adoptie en vertrouwen in het model en geeft burgers de mogelijkheid om in bezwaar of discussie te gaan met de organisatie die een AI-model gebruikt voor een beslissing over die burger.
De mate van uitleg is afhankelijk van waar je het model voor gebruikt. Het moet in verhouding staan. Logisch is dat bij een productaanbeveling bij bijvoorbeeld een kledingwebsite het minder belangrijk is om tot twee cijfers achter de komma uit te leggen hoe dat werkt versus een AI-beslismodel dat de radioloog ondersteunt over de operatie aan je heup.”
Jullie zijn al actief op de markt, op welke manier werk je met organisaties?
“We hebben verschillende soorten partnerships. We werken samen met de grote platform-vendors (Mircosoft Azure, AWS, GCP etcetera) als toevoeging op hun tech stack, maar ook met AI/ML-consultancybedrijven voor de implementatie van onze software. Soms doen we dit als partner en soms in opdracht. Je kunt Deeploy 14 dagen gratis gebruiken direct via de website, maar ook via de AWS- of Azure-marketplace.”
Voor welke sectoren is dit interessant?
“Voor vrijwel alle sectoren, maar we richten ons eerst op fintech, mobility, gezondheidszorg en publieke dienstverlening. Sectoren waar AI al een grote rol speelt en uitlegbaarheid van modellen cruciaal is voor adoptie door organisaties en consument.”
Welke middelen zijn belangrijk voor het bouwen van jullie platform
“Personeel: software-engineers met een interesse in AI en consultants in AI die graag AI meer uitlegbaar willen maken zijn voor ons de belangrijkste resources. Maar ook (open source) tools: start-ups zijn voor ons interessante klanten omdat ze echte goede testers zijn van onze nieuwste functionaliteiten. Onze filosofie is een best-of-breed-omgeving, dus we integreren met andere ML-tools of open source-standaarden zodat we onderdeel zijn van het ecosysteem.”
Deeploy heeft net een eerste investeringsronde van €1.000.000 afgerond: wat kunnen we verwachten van jullie in de toekomst?
“We richten ons grotendeels op bedrijven met veel modellen in productie in Europa, maar zullen ook een core-versie beschikbaar gaan stellen voor alle AI-ontwikkelaars. Daarbij willen we in de AI community een voorloper zijn in het ontwikkelen en uitbouwen van explainer libraries (zoals SHAP, LIME, Anchor etcetera), maar ook custom explainers bouwen wanneer noodzakelijk.”
Heb je nog een laatste AI quote voor de lezer?
“Responsible AI starts with Explainable AI.”
Over de auteur: Femmie Geradts is directeur bij Startup Village. Iedere twee weken belicht ze een start-up die AI toepast in de praktijk.
Op de hoogte blijven van het laatste nieuws binnen je vakgebied? Volg Emerce dan ook op social: LinkedIn, Twitter en Facebook.
Plaats een reactie
Uw e-mailadres wordt niet op de site getoond