Deel dit artikel
-

AI: kansen en kanttekeningen

Kunstmatige intelligentie is overal, zo lijkt het. Het neemt ons steeds meer taken uit handen, waarmee de invloed op het leven en de maatschappij groeit. En dus, stellen steeds meer critici, is het de hoogste tijd om ons niet alleen over commerciële kansen te buigen, maar ook over ethische vraagstukken. Hoe blijft AI een positieve bijdrage leveren?

Twintigduizend regels bruikbare kopij in één seconde. Of een Renault Twizy die zichzelf in twintig minuten leert hoe hij over een weggetje moet rijden – zonder tussenkomst van mensen. De versnelling binnen kunstmatige intelligentie haalt regelmatig (digitale) headlines. En ook de toenemende commerciële toepassing ervan popt op allerlei plekken op. Waarbij systemen voornamelijk data-analyse en patroonherkenning uitvoeren, zoals het interpreteren van afbeeldingen en tekst, het vinden van patronen in cijfers en het uitvoeren van intelligente zoekopdrachten. Zodat bijvoorbeeld artsen ondersteund worden bij diagnoses en retailers bij het voorspellen van toekomstig klantgedrag. Maar ook hypotheekaanvragen en justitiële kwesties worden er inmiddels door ondersteund. Werkzaamheden die de systemen veelal sneller en accurater uitvoeren dan mensen. Wat de suggestie wekt dat zij ook denken als mensen. Datawetenschappers benadrukken echter dat we momenteel nog te maken hebben met een eerste variant van AI, systemen die relatief simpele taken uitvoeren. Waarbij de kracht vooral is dat ze grote datasets kunnen behapstukken. Er is echter geen sprake van omgevingsbewustzijn of dat er om ontbrekende of incomplete data heen gewerkt kan worden. Anders is dat bij het tweede type, ook wel aangeduid als ‘Artificial general intelligence’. Een vorm van AI die geavanceerde cognitieve handelingen kan uitvoeren, zo breed en gevarieerd als de mens. Hoewel lastig precies te voorspellen is wanneer dit haalbaar is, wordt 2030 al wel genoemd.

Overvragen
Maar wat is nu het probleem? Om bij de headlines te blijven, denk aan Microsofts chatbot die getraind was om op mensen te reageren en zich na korte tijd racistisch uitliet. Of verschillende systemen die blanke mannen veel beter herkennen dan donkere vrouwen. Ze wijzen op een van de bottlenecks, de vooroordelen die ingebakken zitten door het gebruik van bestaande data, doorgaans aangeduid als bias. Waarbij de vooringenomenheid soms nog wordt verergerd. Want wanneer beeldbanken vrouwen associëren met huishoudelijke taken en mannen met sport, herhaalt beeldherkenningssoftware deze vooroordelen niet alleen, maar versterkt ze ook, blijkt uit onderzoek door de universiteit van Virginia.

Het zijn incidenten op beperkte schaal en daardoor niet zo schokkend, maar opgeteld kunnen ze een flinke impact hebben. Zeker nu steeds meer bedrijven AI opnemen in hun apps en diensten. Zoals marktonderzoeker CB Insights reeds signaleerde, valt de term AI al een tijd veel vaker dan voorheen in earning calls. Ook bij bedrijven die er op het eerste gezicht helemaal geen link mee hebben.

Gelinkt hieraan zijn er ook zorgen rondom gezichtsherkenning. Facebook riep enige jaren geleden al kritiek over zich af door mensen automatisch te willen taggen in foto’s – met suggestie van tags als comprimis. Tegenwoordig heeft de discussie zich verplaatst naar digitale surveillance. Een markt waarin China vooroploopt. Start-ups als SenseTime en Megvii ontwikkelen er platformen voor en werken onder andere in opdracht van lokale overheden en politie. Hoewel relatief jong, zijn dat zeker geen kleine jongens meer: kort geleden werden zij al op respectievelijk 4,5 en ruim 2 miljard dollar gewaardeerd.

Surveillance vraagt echter te veel van hedendaagse algoritmen, stelt Brian Brackeen, CEO van gezichtsherkenningssoftwaremaker Kairos. Algoritmen die nog niet perfect zijn, eenzijdige trainingsgegevens en slecht ontworpen toepassingen verhogen de kans op twijfelachtige resultaten aanzienlijk.

Een onderwerp dat ook in Europa de nodige aandacht krijgt, met name rondom tests door de Britse politie in Londen en Zuid-Wales. Die criminelen wil signaleren door hun gezicht via (beveiligings)camera’s te matchen met een fotodatabase. Tijdens proeven bij verschillende publieksevenementen werd negen van de tien keer de verkeerde persoon uitgekozen, stelt privacywaakhond Big Brother Watch in een recent verschenen rapport.

Proactief
Net zo reëel zijn echter zorgen over killer robots, betoogt een honderdtal prominenten op het gebied van robotica en kunstmatige intelligentie – waaronder Elon Musk en Mustafa Suleyman (medeoprichter van Googles DeepMind). Zij kaartten gezamenlijk het risico van superintelligente, autonoom werkende wapens aan. In een open brief aan de Verenigde Naties verklaarden de ondertekenaars dat wanneer zij eenmaal zijn ontwikkeld, dergelijke wapens conflicten op een grotere schaal dan ooit tevoren mogelijk zullen maken. Op een grotere snelheid dan mensen kunnen bevatten.

Zorgen over zaken van verschillende ordergrootten dus. Maar met een duidelijke gemene deler: de tijd om AI in goede banen te leiden, verstrijkt snel. Mede door de groeiende markt en toepassing, ontwikkelt de technologie zich door. Om een idee te geven: dit jaar wordt wereldwijd zo’n negentien miljard dollar uitgegeven aan cognitieve systemen, becijfert IDC. Een ruime verdubbeling ten opzichte van 2017. En de 2,3 miljoen nieuwe banen die in 2020 volgens Gartner zullen zijn ontstaan, grijpen in op vele levens.

Al met al reden tot actie, meent de Britse regering, die eerder dit jaar een rapport publiceerde met daarin kernprincipes om richting te geven aan ethisch gebruik van AI. En dat heeft invloed op de online industrie. Want behalve over inzet voor het algemeen belang, diversiteit binnen datasets en het voorkomen dat systemen zelfstandig mensen kwaad kunnen doen, wordt er gesproken over het inperken van macht over data. Om te voorkomen dat grote bedrijven die de beschikking hebben over enorme hoeveelheden gegevens een te grote greep op consumenten krijgen, stellen de auteurs. Aan de overheid de taak om het gebruik en de potentiële monopolisering van big data door grote technologiebedrijven proactief te beoordelen.

Hoewel dit niet gelijk een schokgolf teweeg zal brengen, kan dit wel meer voorspelbaarheid en vertrouwen brengen. Twee voorwaarden die regelmatig genoemd worden voor het benutten van de potentie van AI. Want die zorgen voor investering in en gebruik van de technologie.

Een terugkerend onderwerp daarbij is ook aansprakelijkheid. Recent weer op de voorgrond gebracht door incidenten met (semi-)autonoom rijden bij Tesla en Uber. Want wie is er nu verantwoordelijk en aansprakelijk wanneer een systeem schade toebrengt aan mens of omgeving? Of wanneer mensen worden benadeeld door oordelen van eerdergenoemde gezichtsherkenningstechnologie? Daarbij klinken steeds vaker geluiden om de vrijheid van de markt in te kaderen. Ook vanuit de techsector zelf. Brad Smith, president en chief legal officer van Microsoft, verzocht de Amerikaanse overheid onlangs bijvoorbeeld om de inzet van de identificatietechnologie sterker te reguleren. Specifieker gesteld: te zorgen voor menselijk toezicht bij gebruik ervan. Om te voorkomen dat mensen de dupe worden van technologie die nog niet voldoende ontwikkeld is. “We moeten erkennen dat veel van deze kwesties nieuw zijn en niemand heeft alle antwoorden. We moeten nog werk verzetten om alle vragen te identificeren. Kortom, we hebben allemaal veel te leren”, stelde hij in een statement afgelopen juli, de tijd waarin Microsoft en andere partijen onder vuur lagen door mogelijke samenwerking met migratiediensten.

Verder praten
Mede door eerder genoemde flaters neemt de maatschappelijke druk om problemen aan te pakken toe. En herpakken bedrijven zich om (toekomstige) business niet aan hun neus voorbij te laten gaan. Om te beginnen door de bias uit systemen te halen. IBM kondigde bijvoorbeeld een nieuwe dataset aan om gezichtsherkenning te trainen meer huidskleuren te zien. Microsoft deed een vergelijkbare ingreep en stelt dat zijn algoritmen nu twintigmaal zo goed vrouwen en mensen met een donkere huidskleur kunnen herkennen. Accenture op zijn beurt lanceerde een toepassing die relaties in datasets kan vinden tussen leeftijd, ras, geslacht of andere demografische data. Door deze correlaties te identificeren, kunnen datawetenschappers de systemen bijstellen om representatievere resultaten te behalen.

En wat betreft die killer robots? Tijdens een wapentop van de Verenigde Naties in Genève deze zomer werd tot in de nacht vergaderd over het reguleren ervan (lees: verbieden, zoals Europa inmiddels voorstaat). Tot een verdrag kwam het niet. Wel de intentie om volgend jaar verder te praten. De teleurstelling bij voorstanders van een verbod – die er al zo’n vijf jaar voor strijden – was merkbaar. Desondanks zien zij een lichtpuntje: het momentum groeit. Net als bij ethisch omgaan met AI in het algemeen.

Tegenaanval
Een team van technische onderzoekers van de Universiteit van Toronto heeft een algoritme ontwikkeld om gezichtsherkenningssystemen te verstoren. Met gebruik van deep learning-techniek ‘adversarial training’ werden twee kunstmatige-intelligentiealgoritmen tegenover elkaar geplaatst. Het eerste identificeert gezichten, de andere werkt aan het verstoren van de gezichtsherkenningstaak van de eerste. De twee vechten en leren constant van elkaar en zetten een doorlopende AI-wapenwedloop op. De ontwrichtende AI kan ‘aanvallen’ wat het neurale netwerk voor de gezichtsherkenning zoekt. Als de detectie-AI bijvoorbeeld naar de hoek van de ogen kijkt, past hij de hoek van de ogen aan, zodat deze minder opvallen. Dit veroorzaakt nauwelijks waarneembare storingen in de foto, maar voor de detector zijn ze belangrijk genoeg om het systeem voor de gek te houden.

Inburgeren
Nederlandse consumenten raken vertrouwd met artificial intelligence, blijkt uit onderzoek van Capgemini’s Digital Transformation Institute. Zo gaf 70 procent van de respondenten aan dat zij met AI te maken hebben gehad, waarvan 69 procent tevreden is over de interactie met de toepassing. Ook blijkt dat ruim de helft (55 procent) van de consumenten de voorkeur geeft aan interacties die mogelijk gemaakt worden door een combinatie van AI en mensen. Hierbij wil 64 procent dat AI meer menselijke trekken vertoont. Deze menselijke eigenschappen in kunstmatige intelligentie zorgen voor aanzienlijke voordelen. Zo is 39 procent van de Nederlandse consumenten hierdoor bereid meer uit te geven – tegenover 48 procent van consumenten wereldwijd. Bedrijven houden echter weinig rekening met de zorgen en voorkeuren van klanten wanneer zij AI-technologie toepassen in de klantervaring, stellen de onderzoekers. Zij richten zich namelijk vooral op traditionele waarden, zoals de implementatiekosten en de ROI.

Missie
Tussen alle berichtgeving over AI-toepassingen die mogelijk gevolgen hebben voor privacy en inclusie, valt ook de inzet van AI voor een maatschappelijke missie op. Zo lanceerde Google onlangs een nieuwe tool die online afbeeldingen van kindermisbruik kan identificeren die nog niet eerder zijn gecatalogiseerd. Deze maakt deel uit van de Content Safety API van het bedrijf, die beschikbaar is voor non-gouvernementele organisaties en andere instanties die aan dit probleem werken. Door het doorzoeken van afbeeldingen te automatiseren, versnelt de AI niet alleen het proces, maar vermindert het ook het aantal mensen dat eraan moet worden blootgesteld – een taak die een nogal psychologische belasting met zich meebrengt.

De Nederlandse politie zet de technologie inmiddels ook in om oude zaken op te lossen. Naar schatting zijn er zo’n vijftienhonderd cold cases, waaronder duizend onopgeloste moordzaken. Hiervoor is een systeem gebouwd dat de gedigitaliseerde dossiers kan lezen om automatisch de forensische sporen in beeld te brengen. Wat de onderzoektijd verkort van weken tot een dag. Een vervolgstap is het systeem te trainen om een gedetailleerd sporenbeeld uit zo’n dossier te halen om vervolgens een overzicht van alle cold cases te genereren, gerangschikt naar kansrijkheid.

* Dit artikel verscheen eerder in het oktobernummer van Emerce magazine (#167).

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond