-

AI: Dit kun je er (nog niet) mee

Bij Kunstmatige of Artificiële Intelligentie (AI) denkt men al gauw aan bekende filmiconen als HAL van 2001 – A space odyssey, Data van Star Trek: The Next Generation of replicants uit Bladerunner. De opkomst van AI doet menig SF-hart sneller kloppen, maar wat is de huidige staat van ontwikkeling van AI nu echt? Moeten we ons al zorgen gaan maken over de singularity? Of is het gewoon een door de media-gehypete data-analyse tool?

Tijdens de World Summit AI die onlangs door Inspired Minds georganiseerd werd in Amsterdam kwamen alle spelers en facetten rondom AI samen. Sprekers van onder meer Google, Facebook, Microsoft, IBM en Amazon gaven een mooi kijkje in de keuken van bedrijven die AI groot maken.

Al snel bleek dat de SF-benadering van AI, waarbij de computer elke willekeurige intellectuele taak van mensen kan uitvoeren, Artificial General Intelligence (AGI) wordt genoemd en dat deze vorm van intelligentie nog relatief ver in de toekomst ligt. Geen mooie filmscenario’s voorlopig. Maar wat dan wel?

AI​ ​en​ ​Machine​ ​Learning

Er moet onderscheid gemaakt worden tussen AI en machine learning. Machine learning is de methode waarop AI dingen ‘leert’ op basis van de geleverde data en het model dat is meegegeven om deze data te interpreteren. AI is veel breder dan machine learning. AI is het gehele brein, machine learning is een methode waarmee
dat brein leert. Deep learning, het buzzword van het moment, is een van vele methodes van machine learning, waarbij er meerdere hiërarchische lagen zijn van verwerking om kenmerken van de dataset te leren. De uitkomst van een laag vormt dan de input voor de volgende laag. Deep learning wordt gebruikt bij kunstmatige neurale netwerken, waarvan de werking enigszins lijkt op de manier waarop biologische hersenen werken, sterk vereenvoudigd natuurlijk, en wordt gebruikt voor beeldherkenning, spraakherkenning en het spelen van spelletjes.

Een meer nuttige classificatie in machine learning is het verschil tussen gecontroleerd en ongecontroleerd leren. Bij gecontroleerd leren wordt het algoritme een model of structuur meegegeven waarop de data geïnterpreteerd kan worden. Bij ongecontroleerd leren gebeurt dat niet, het algoritme moet zelf een structuur zien te vinden in de geleverde testdata.

Een aansprekend voorbeeld van ongecontroleerd leren is het experiment van Google Deepmind waarin AI een computerspel leerde spelen met alleen de pixels op het scherm als input zonder verdere uitleg of programmering van de regels. Na enkele uren speelt de computer het spel als de beste met bijbehorende menselijke
tactieken. Machine learning, in al zijn vormen, bestaat al een tijd maar de toename in beschikbare data en rekenkracht van computers heeft deze ontwikkeling in een stroomversnelling gebracht.

Heel plat gezegd is de huidige AI vooral de optelsom van veel data en veel rekenkracht. Echter blijkt men momenteel weinig controle te hebben over wat er in het learning proces gebeurt. Het proces is een black box, zoals Gary F. Marcus (Professor of Psychology and Neural Science bij NYU) in zijn presentatie op de World Summit uitlegde.

Onderstaande strip van XKCD vat dit goed samen:

Oftewel: er is nog geen precieze controle over de werking van AI met behulp van machine learning. Wanneer de conclusies van de AI niet correct zijn, zit er niks anders op dan de algoritmes aan te passen en opnieuw te beginnen met het machine leren voor dat specifieke geval. Hierbij moet wel onderscheid gemaakt worden in onduidelijkheid in de conclusies van AI door een ondoorzichtig leerproces en onduidelijkheid over de waarheid van de conclusies. Zijn deze laatste wel objectief?

Beperkingen​ ​AI

AI is erg afhankelijk van de data die geïnterpreteerd moet worden. Crap in = crap out zullen we maar zeggen. AI baseert conclusies op data, dus als de data niet compleet of foutief is, dan kunnen de conclusies verre van perfect zijn. Mooi voorbeeld in deze is de Twitter AI-chatbot ‘Tay’ van Microsoft die binnen een dag een racistische holocaust-ontkenner was geworden op basis van tweets van trolls en ander internet-gespuis die gebruikt werden als bronmateriaal. De afhankelijkheid van de input data maakt AI een zeer gespecialiseerde methode.

AlphaGo, de AI die de wereldkampioen Go versloeg, is waarschijnlijk zeer slecht in een potje mens-erger-je-niet. AI is gevoelig voor fouten in deze afhankelijkheid. De AI van een Google bestuurderloze auto moet niet ineens een overstekende voetganger aanzien voor een duif omdat zijn of haar specifieke houding en kleding niet onderdeel was van de input testdata. Dit verklaart de noodzaak van grote hoeveelheden data als noodzakelijk component van nuttige AI, hoe meer de voorbeeld data, hoe kleiner de kans dat AI een specifieke situatie niet herkent.

AI​ ​en​ ​diversiteit

Hoewel AI kunstmatig is, is de creatie van AI mensenwerk. De afhankelijkheid van brondata en het opstellen van de gebruikte algoritmes kunnen beïnvloed zijn door menselijke feilbaarheid. Onbewuste vooroordelen in brondata of algoritmes kunnen bestaan. Bijvoorbeeld AI die helpt bij dader-profilering op basis van criminaliteitscijfers of rechtspraak kan bevooroordeeld zijn omdat deze historische cijfers niet objectief zijn.
Dit zou kunnen leiden tot AI racial-profiling bijvoorbeeld.

AI wordt momenteel vooral geprogrammeerd door westerse blanke mannelijke IT-nerds. In deze programmering kan hun zienswijze sluipen. Voor AGI adviseer Marcus dan ook om deze te ontwikkelen met een breed team van internationale specialisten uit allerlei disciplines. Niet alleen voor de snelheid van ontwikkeling maar ook om de representativiteit van menselijkheid en het menselijk denken beter te vertegenwoordigen.

AI​ ​en​ ​de​ ​glazen​ ​bol

AI is momenteel zeker een nuttige en verbazingwekkende tool voor het analyseren van grote hoeveelheid data en daar conclusies aan te verbinden. In de kern is het een voorspellingstechnologie. AI helpt te voorspellen wat de volgende stap is op basis van het analyseren van historische en huidige data. Erg nuttig voor bijvoorbeeld het bepalen van recommendations in een e-shop, het spelen van Go of het voorspellen van de benodigde volgende handeling bij het autorijden.

Maar het wordt pas echt boeiend bij voorspellingen op gevoelige gebieden zoals in de rechtspraak of bij diagnoses in ziekenhuizen. Gegeven de bovenstaande aspecten van AI wordt het steeds duidelijker dat de rol van de mens nog lang niet is uitgespeeld ten opzichte van AI. Mensen zullen steeds meer hun ‘morele kompas’ moeten ontwikkelen om de menselijkheid van AI processen bij te sturen.

Het menselijke denken of morele kompas kan op zijn beurt ook door AI bijgestuurd worden. AlphaGo deed tijdens het tweede potje Go een zet, Move 37, die een menselijke speler nooit zou doen, zo vreemd en onbegrijpelijk, maar deze leidde wel tot de overwinning.

AI is in staat is om veel meer referentiemateriaal, bijvoorbeeld gebaseerd op miljoenen potjes Go, maar ook duizenden uitspraken uit de jurisprudentie, te analyseren dan een mens kan en kan daarop een meer afgewogen conclusie bereiken. AI dient in dit geval juist als genormaliseerd meetpunt om het menselijke denken mee te ijken. Met andere woorden, het ‘denken’ van AI is zo anders, dat dit ook voor ons denken nieuwe perspectieven biedt.

De hulp van zo’n ‘ander brein’ voor het menselijk denken en doen is natuurlijk erg waardevol. Voor nu kan AI in een soort cybernetische symbiose taken van ons overnemen waar wij slecht in zijn en kunnen wij mensen ons richten op onze sterke punten. AI kan helpen bij procesmatige taken zodat wij ons kunnen richten op de inhoud. Heel praktisch kan AI ons helpen met spellen (Apple auto-correct) of vertalen (Google Translate) zodat mensen zich beter kunnen uiten onderling. Of AI kan ons helpen met het analyseren van tumoren of medische scans, zodat wij ons kunnen richten op het genezen.

Maar de voorbeelden van AI op de World Summit AI, doen sterk denken aan het gedrag van peuters. In hun onderling contact hoor je de verhaspelde zinnen en gedragingen van volwassen gesprekken. Er is een zeker niveau van herkenning, maar nét niet voldoende, wat tot verrassende (en soms aandoenlijke) resultaten leidt.

AI is momenteel vooral praktisch toepasbaar als data-analyse tool, maar wat het eigenlijk is, is een spiegel van de mens. Het succes van de ontwikkeling van AI, en in het bijzonder AGI, staat of valt bij de ontwikkeling van fijngevoeligheid voor het menselijke gedrag en denken en hun feilbaarheid. AI zal hier een nieuwe variant van zijn, en juist de afwijkingen maken AI interessant. Wij kunnen AI leren denken, maar AI zal vooral ons beter en anders leren denken.

Tips on people to follow & books to read:
● Gary F. Marcus – Professor of Psychology and Neural Science bij NYU – The Algabraic Mind
● Siraj Raval – YouTuber on all things AI
Andrew Ng – VP & Chief Scientist of Baidu, Adjunct Professor at Stanford University –
Demis Hassabis – Cofounder of Deepmind –
● Pedro Domingos – ‘The master algorithm’

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond