-

We zijn verzuild in algoritmes

Ik heb mijn vrienden al in geen weken gezien. Op Facebook in ieder geval niet. Iedere blik op mijn tijdlijn staat vol met dieren die herkenbare situaties visualiseren. Memes van pagina’s die ik bewust niet like. Filmrecensies en concertverslagen. Eén grote eenheidsworst vol inwisselbare berichten. Het ergste is nog dat dit monster er één is van eigen creatie.

Facebook baseert de posts die op mijn wall verschijnen namelijk op een zeer gecompliceerd en intelligent algoritme. Ooit heb ik een vriend getagd in dat filmpje van een hond die snel afgeleid is. Ooit heb ik gelezen wat tijdschrift Rolling Stone vindt van Donald Trump. Het gevolg? Mijn hele kennis van de verkiezingsstrijd in Amerika is gebaseerd op berichten van een liberaal muziekmagazine die al decennia niet relevant is. En natuurlijk dat ene filmpje van LuckyTV. Ik zie zoveel ‘hilarische’ dierenfilmpjes langskomen op mijn tijdlijn dat ik soms het gevoel heb YouTube in 2002 te bezoeken. Alsof ik ooit een goede recensie heb geschreven over een pizzeria op TripAdvisor, en dat ik nu zelfs bij de Chinees enkel een pizza babi bangang kan bestellen.

De filterbubbel

Ik ben beland in de zogenaamde filterbubbel. De filterbubbel is een term die in 2011 gepresenteerd werd door Eli Pariser in zijn boek, toepasselijk The Filter Bubble genaamd. Hij stelt dat we door ons online gedrag, en hoe gepersonaliseerde diensten en algoritmes op dat gedrag inspelen, onszelf afschermen van de buitenwereld en alleen zien wat wij interessant vinden. Dit heeft veel positieve effecten – ikzelf heb bijvoorbeeld nog nooit een reclame voor middelen tegen vrouwelijke kwaaltjes gezien op mijn tijdlijn. Maar het heeft ook negatieve gevolgen.

Pariser had het voornamelijk over de gepersonaliseerde zoekresultaten van Google. Maar met de toenames van persoonlijke algoritmes lijken zijn waarschuwingen meer van toepassingen dan ooit. Luister je teveel naar Spotify’s Discover Weekly? Grote kans dat je naar verloop van tijd nog maar naar één genre gaat luisteren. Klik je, net als ik, vaak door op links van Rolling Stone en Pitchfork? Na een paar maanden lijken er geen andere magazines meer te bestaan.

Verzuiling

We raken verzuild in onze algoritmes, en algoritmes verzuilen ons. We vertrouwen op deze algoritmes om ons de meest relevante informatie te geven, en worden lui. Wat we voorgeschoteld krijgen is gebaseerd op complexe berekeningen waarvan het systeem voor 90 procent zeker weet dat het binnen ons interessegebied ligt. Maar de verrassingen ontbreken. Neem Netflix als voorbeeld: op basis van ons kijkgedrag raadt het ons nieuwe, soortgelijke films aan. Films die op elkaar lijken.

Vroeger, in het tijdperk der videotheken, werden ook films aangeraden. Niet door algoritmes, maar door echte kenners die het leuk vonden je te verrassen, te prikkelen, je uit die comfortzone te trekken op basis van zowel mensen- als mediakennis. En daar ligt het grote nadeel van de filterbubbel: het verdwijnen van ‘serendipiteit.’ Niet die film met John Cusack (aanradertje trouwens), maar het volgende: “Serendipiteit is het vinden van iets onverwachts en bruikbaars terwijl je op zoek bent naar iets totaal anders.” (Wikipedia)

Serendipiteit leidt tot innovatie, diversiteit en creativiteit. Maar door de filterbubbel wordt de tijdlijn voorspelbaar, nooit verrassend. Algoritmes zijn erop gebouwd om altijd je eigen wereldbeeld te bevestigen, maar zullen deze nooit verstoren.

Met de grote toename van chatbots en andere vormen van kunstmatige intelligentie lijkt de filterbubbel alleen maar groter te gaan worden. Waar we nu passief de aan ons voorgeschotelde berichten en media consumeren, kunnen we over een paar jaar ook allemaal actief systemen vragen om advies. Systemen die erop gebouwd zijn om ons gegarandeerd een antwoord te geven waarmee we tevreden zijn. Gek op champignons? Grote kans dat een receptenbot je shiitake aangeraden krijgt, maar bloemkool waarschijnlijk niet. Ga je graag naar warme landen? Dan zal de ‘ideale vakantiebot’ je niet naar Groenland sturen.

Break down the wall?

Het is makkelijk blind te vertrouwen op deze persoonlijke algoritmes, die keer op keer onze wereldvisie bevestigen. Ondertussen wordt de filterbubbel groter en groter, en steeds moeilijker om aan te ontsnappen. Misschien kunnen we hier beter spreken over een muur dan een bubbel, waarin iedere bevestiging aan de algoritmes een nieuwe steen toevoegt. We voelen ons fijn en vertrouwd binnen deze muren, en stoppen onszelf zonder dat we het doorhebben in een hokje.

Nou vind ik een paar muren om me heen niet erg, helemaal niet als deze me van zoveel gemakken voorzien. Maar ik word me ook steeds meer bewust van de gevaren die deze muren met zich meebrengen. Daarom ga ik actief gaten slaan in de muur, om wat ramen toe te voegen. Door nieuwswebsites te bezoeken die niet in mijn feed langskomen. Door actief te blijven zoeken buiten mijn interessegebieden. Met een beetje geluk leren mijn algoritmes hiervan, en word ik weer verrast op mijn feeds. En met een beetje geluk zie ik dan ook mijn vrienden weer.

Deel dit bericht

4 Reacties

Gijs Vroom

Heel herkenbaar..

Robert

Goed artikel.

Henk

Dus moet je informatie ZELF ophalen, in plaats van alleen maar af te gaan op wat jou wordt aangeboden.

Ann

Een paar keer een bericht op Facebook gedeeld over vermiste kat, opeens lijkt er een hausse aan vermiste katten te zijn… is hier sprake van een kattenmepper? Of die kinderen die vermist worden… is er een kinderlokker? Nee het perspectief wordt door de logaritmes verschoven naar dat wat ik interessant lijk te vinden… Het is net als in het leven zelf, waar jij aandacht aan schenkt, dat groeit.
Helaas worden we in onze newsfeed wel erg voorgekleurd en voorgekauwd. Eigenlijk een onverwachte censuur van andere kleuren. Het maakt inderdaad een scheiding in interesses groter. Het bevestigd iemand ook in zijn extreme overtuigingen. Zo wordt je politieke voorkeur als maar gevoed en ben je niet meer objectief. Helaas wordt daarmee ook sentiment gevoed…

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond