-

Dit zijn de manieren om veiligheid van AI-toepassingen te waarborgen

Veiligheid en artificial intelligence vormen tot dusver nog geen combinatie die op veel aandacht mag rekenen. Als het al over de betrouwbaarheid van AI-toepassingen gaat, komt vooral de donkere kant bovendrijven. Op deze manier maak je je AI-toepassingen wel veilig.

In een eerder blog ging ik in op de ‘Best-practices van AI-toepassingen in de reis- en hotelindustrie’. Daarop kwam naar aanleiding van het rapport ‘TCS Global Trend Study: Part II’ boven water dat men vooral de volgende maatregelen zou moeten nemen om kunstmatige intelligentie (AI) ook in toekomst duurzaam en consistent succesvol in te kunnen zetten:

  • Beveilig het systeem tegen hacken;
  • Ontwikkel een systeem dat goede, betrouwbare en veilige beslissingen neemt;
  • Zorg ervoor dat medewerkers de systemen begrijpen en willen gebruiken.
Dystopische discours op Google dominant en gebrek aan transparantie vanuit bedrijven

Opvallend is dat op zoekwoordcombinaties in Google zoals ‘artificial intelligence secure systems hacking’ vooral de schaduwzijde – het dystopische discours-  centraal wordt gesteld met titels als: ‘Hackers are on the brink of launching a wave of AI attacks’, ‘6 ways hackers will use machine learning to launch attacks’ en ‘How AI-Driven Systems Can Be Hacked’.

Concrete informatie over de drie maatregelen en hoe deze door bedrijven die gebruik maken van AI-toepassingen, gebruikt wordt, is nauwelijks op het web te vinden. Zelfs bij directe benadering van bedrijven wordt vaak benoemd, dat men bewust niet dit soort informatie beschikbaar stelt. Als reden wordt bijvoorbeeld aangegeven dat het om te complexe processen gaat.

Transparantie van AI-systemen schiet te kort

Volgens onderzoekers ontbreekt het hedendaagse AI-systemen vaak aan transparantie. AI-systemen vormen een black box. Ontwikkelaars kunnen er niet altijd achter komen hoe AI-systemen bepaalde beslissingen nemen. De voorspelling is dat dit probleem groter zal worden omdat AI-applicaties steeds complexer worden.

Cases om van te leren

Microsoft’s chatbot Tay is een goed voorbeeld hoe AI beïnvloed kan worden door negatief gedrag van buitenaf. Dat kan resulteren in het tegenovergestelde van wat de makers in gedachten hadden. Tay was een chatbot die live interacties op Twitter gebruikte om intelligenter te worden. Terwijl Tay uitmuntende conversatie-eigenschappen ontwikkelde, bleek hij eveneens racistische en vrouwenhatende trekjes aan te nemen. Ook het voorbeeld van Facebook met Alice en Bob heeft getoond dat men AI op een solidere wijze zou moeten benaderen. Nadat de systemen hun eigen taal hadden ontwikkeld, die de facebookmedewerkers niet meer begrepen, werd het experiment meteen gestopt.

Stappen om AI-systemen veiliger te maken

Welke maatregelen kunnen worden genomen om AI veiliger te maken? Een eerste stap zou zijn de black box te openen, door transparantie-grondwetten te introduceren, open-source codes beschikbaar te stellen en AI minder ondoorgrondelijk te makenAI Now, een non-profitorganisatie die voor algoritme-vrijheid pleit, werkt met een simpel principe: als het te maken heeft met services voor mensen, als de designers niet een beslissing van een algoritme kunnen verklaren, zou men de applicatie niet mogen gebruiken.

Als het om het ontwerpen van AI-applicaties gaat, is het belangrijk om zeer facetrijke en verschillende teams samen te stellen, tebeginnen bij ras, geslacht, cultuur en socio-economische achtergrond. Daarnaast wordt aanbevolen om verschillende experts uit verschillende vakrichtingen erbij te betrekken, zoals sociologen, ethici, psychologen en geesteswetenschappers. Op deze manier wordt het risico’s van bias verminderd, doordat men probeert een AI-toepassing zo genuanceerd mogelijk te designen.

3 manieren om AI veilig te implementeren

Naveen Joshi (2017) introduceert in een artikel drie manieren om AI veilig te implementeren binnen een bedrijf

1. Ontwikkel richtlijnen/draaiboek ter bewaking van de AI-veiligheid

Het is belangrijk dat een tool, fysiek of digitaal, op ethische wijze wordt ingezet. Bedrijven zouden hiermee aan de slag moeten om te laten zien dat zij AI-applicaties op een goede manier en voor goede doeleinden inzetten. Het wordt daarom aanbevolen om bedrijfsinterne richtlijnen voor het gebruik van AI-systemen op te stellen en de medewerkers binnen het bedrijf hierbij te betrekken.

2. Beheer de integriteit van datasets: betrek mens en techniek erbij

Om de integriteit van AI-systemen moeten bedrijven eerst zorgvuldig omgaan met de integriteit van de gegevens en modellen welke ten grondslag liggen aan AI-systemen. Organisaties moeten technieken en processen implementeren om risico’s als gevolg van anomalieën te beschermen, op te sporen, te corrigeren en te beperken. ForAllSecure, een start-up, gevestigd in Pittsburgh, heeft in deze context een veiligheids-bot ontwikkeld, die in staat is om bugs en veiligheidsbedreigingen in systemen op te sporen.

Om de veiligheid van systemen te kunnen garanderen, heeft MIT’s Computer Science and Artificial Intelligence Laboratory en de machine-learning startup PatternEx een kunstmatige intelligentieplatform ontwikkeld, AI2 genaamd. Ze claimen dat het cyberaanvallen aanzienlijk beter voorspelt dan bestaande systemen, door voortdurend input van menselijke experts te verwerken. Dit is een goed voorbeeld hoe de menselijke expertise goed ingezet kan worden om systemen te verbeteren.

3. Valideer en verifieer

Valideren en verifiëren is een maat voor de betrouwbaarheid en voorspelbaarheid van AI-systemen. Voor het bereiken van robuustheid en veiligheid moeten alle AI-systemen worden gecontroleerd, gevalideerd en getest voordat ze worden geïmplementeerd. AI-systemen maken gebruik van nauwkeurige procedurele logica, analyse, redeneringen en zingeving met unieke menselijke kwaliteiten zoals empathie, waardeoordeel en esthetiek. Als AI-systemen veilig worden geïmplementeerd, kunnen bedrijven waardevolle inzichten verkrijgen en beter geïnformeerde zakelijke beslissingen nemen.

Een van de beste manieren om bijvoorbeeld connected auto’s te beschermen tegen cyber-aanvallen, is om een beveiliging in te bouwen in het ontwerp van de voertuigen. Dit betekent bijvoorbeeld dat er geen conflicten, fouten of misconfiguraties in afzonderlijke componenten zijn. Volledig geassembleerde auto’s moeten strenger worden getest om te zorgen dat het eindproduct aanvallen af kan weren, met behulp van methoden zoals penetratietesten. Hierbij worden systemen doelbewust aangevallen om gebreken bloot te leggen. Dit zou op zijn beurt weer leiden tot betere tools en standaarden die iedereen in de industrie zou dwingen vanaf het begin rekening te houden met veiligheid.

Dit bericht is 13 keer gedeeld

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond