-

Meer aandacht in UX en design voor mensen met een beperking

Een groot deel van de gebruikers wordt vergeten bij de ontwikkeling van sites en apps. Lang niet altijd zijn die digitale producten geschikt voor mensen met een beperking.

Frank van der Hammen (TamTam) toonde onlangs in een artikel dat ontwerpen voor gebruikers met een visuele of motorische beperking zeker niet onmogelijk is. Het door hem genoemde WCAG instrument is ervoor om zo toegankelijk en drempelvrij mogelijk te ontwerpen. En hoewel het vaak als lange lijst van lastige regels wordt gezien, zijn er voldoende redenen om wel te ontwikkelen volgens de standaard: je bereikt 25 procent meer gebruikers, schrijft Van der Hammen. 

Ook de grote techbedrijven zetten zich in voor de toegankelijkheid, zo blijkt uit recente publicaties. Google wil informatie beschikbaar maken voor iedereen. Mensen met een beperking daarvan niet uitgezonderd. Op de onlangs gehouden I/O conferentie voor ontwikkelaars kondigde het bedrijf aan dat de aanstaande Android N volledig met spraak is te besturen. Dat werkt als volgt: is Voice Access geïnstalleerd dan is de stembesturing (nu nog in het Engels) te activeren met het commando ‘Okay Google, turn on voice access’. Eenmaal geactiveerd zijn alle onderdelen van de user interface met de stem te bedienen.

Het mooie van dit alles: iedere app die zich nu al houdt aan Googles richtlijnen voor toegankelijkheid is straks op die manier te bedienen. Het is het resultaat van jarenlang ‘preken.’ Iedere appontwikkelaar weet inmiddels dat functies moeten zijn voorzien van labels met een omschrijving. Voice Access vertaalt die zodat ze zijn aan te roepen door de gebruiker.

Video: Android Voice Access

Google is zeker niet het eerste bedrijf dat dergelijke oplossingen ontwikkelt. Microsoft publiceert al een aantal jaar apps met functies die wat willekeurig lijken gekozen. Tooltjes die je leeftijd raden, zo accuraat mogelijk een foto beschrijven of zelfs vertellen op welke hond je lijkt. Maar zo willekeurig is het allemaal niet, blijkt nu. Op de conferentie Build 2016 maakte Microsoft bekend dat het allemaal voorwerk is voor ‘Seeing AI’ een augmented reality project dat visuele informatie moet ‘vertalen’ voor slechtzienden. In onderstaande video meer over dit project.

De Android app BlindTool werd met hetzelfde doel gebouwd. Met de telefoon in de hand fotografeert iemand zijn omgeving, de app vertelt hardop wat er is te zien. Maar het probleem is dat al die apps te gefragmenteerd zijn, zegt Microsofts projectleider Anirudh Koul. De ene app is er om verkeersborden te ontcijferen, de andere voor het lezen van productinformatie op verpakkingen. Er moet één totaaloplossing komen. Dat zou ‘Seeing AI’ dus kunnen zijn.

Video: BlindTool demonstratie

Niet alleen de mensen met een beperking zijn trouwens gebaat bij deze inspanningen. Volgens Astrid Weber, UX onderzoeker bij Google, zijn er namelijk twee soorten ‘beperking’: de permanente – waar het in bovenstaande voorbeelden om draait – en de ‘situationeel beperkten’. Dat zijn mensen die tijdelijk hun arm in het gips hebben of gewoon tassen met boodschappen dragen en de telefoon niet kunnen besturen. Wat Weber maar wil zeggen: er komt een dag dat iedereen direct gebaat is bij Voice Access. Het automatisch aanvullen van zoekopdrachten en de gesproken zoekopdracht zijn immers ook ooit ontwikkeld voor mensen met een permanente beperking. Technieken waar inmiddels iedereen van profiteert. Voor objectherkenning en stembesturing geldt straks ongetwijfeld hetzelfde.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond