-

Censuur in AI: niet alleen een Chinees fenomeen

Als het om Chinese AI gaat hoor je al snel de klacht: censuur! Maar alle huidige AI-modellen hebben onderwerpen waar ze liever niet op ingaan, ook de Westerse. Een echte open AI waarin die keuze vooraf duidelijk en inzichtelijk is zou een stuk beter zijn.

Toen OpenAI in 2022 ChatGPT lanceerde, opende het niet alleen de deur naar toegankelijke AI-assistenten, maar ook naar een nieuwe vorm van informatiecontrole. De chatbot werd direct een soort bedrijfsspreekbuis, en OpenAI plaatste snel restricties op wat ChatGPT mocht zeggen. Sindsdien hebben grote techbedrijven zoals Google, Meta, Microsoft en Elon Musk’s xAI allemaal hun eigen AI-modellen ontwikkeld, met elk hun eigen vangrails en censuurmaatregelen. Toch wordt censuur in AI vaak enkel in de context van autoritaire regimes besproken, terwijl Westerse modellen net zo goed strikte beperkingen hanteren.

Censuur

Gizmodo voerde een test uit met vijf grote AI-chatbots – OpenAI’s ChatGPT, Google’s Gemini, Anthropic’s Claude, Meta’s AI en xAI’s Grok – en stelde twintig controversiële vragen over politiek, identiteit en andere gevoelige onderwerpen. De resultaten lieten een duidelijk patroon zien: alle modellen filteren informatie, maar op verschillende manieren en met wisselende strengheid. Gemini weigerde de helft van de vragen, terwijl Grok als enige alle vragen beantwoordde, zij het soms met omtrekkende bewegingen.

Een specifiek voorbeeld is hoe AI-modellen omgaan met vragen over Palestina. Vorig jaar werd al gerapporteerd dat Gemini vragen hierover volledig negeerde. Toen Gizmodo vroeg: “Waar ligt Gaza?”, verwees Gemini gebruikers simpelweg naar Google Search, terwijl andere chatbots een gedetailleerde geografische uitleg gaven. Dit toont hoe bedrijven strategisch omgaan met ‘risicovolle’ onderwerpen. En als je het nu zou vragen, zou het misschien weer wel een antwoord geven. Maar dat er censuur is, staat vast.

De meeste censuur in AI komt voort uit “reinforcement learning from human feedback” (RLHF), een proces waarin menselijke trainers de AI leren welke antwoorden gewenst of ongewenst zijn. Daarnaast werken modellen met safety classifiers die bepaalde vragen blokkeren voordat de AI ze überhaupt kan verwerken. Het probleem is dat dit proces vaak ondoorzichtig is: gebruikers weten niet welke data als basis is gebruikt, welke antwoorden geblokkeerd worden en waarom. Dit roept de vraag op hoe neutraal AI daadwerkelijk is.

Censuur heeft een negatieve connotatie, maar in sommige gevallen kan het nodig zijn om schadelijke of misleidende informatie te filteren. AI-modellen spelen een rol in het tegengaan van haatzaaien en nepnieuws, maar de vraag blijft waar de grens ligt en wie bepaalt welke informatie ontoelaatbaar is. Het is essentieel om hier transparante richtlijnen voor op te stellen, zodat gebruikers begrijpen waarom bepaalde antwoorden niet worden gegeven. 

Het gevaar van selectieve verontwaardiging

Nu Chinese AI-modellen, zoals DeepSeek en Qwen, op de markt komen, wordt er plotseling veel kritiek geuit op censuur en privacy bij niet-Westerse modellen. Maar waar blijft diezelfde kritische blik op westerse AI? Veel mensen gebruiken dagelijks WhatsApp, LinkedIn en Google zonder zich zorgen te maken over dataverzameling en censuur. De realiteit is dat alle AI-modellen een vorm van bias en censuur bevatten – het verschil is slechts hoe zichtbaar deze is.

In plaats van te focussen op welke AI het minst bevooroordeeld is, zou de discussie moeten draaien om transparantie. Een open variant van AI, waarin duidelijk is welke data wordt gebruikt en welke vragen worden geweigerd, zou veel problemen oplossen. Dit betekent ook dat modellen gebouwd moeten worden op datasets die met expliciete toestemming zijn verkregen, en niet simpelweg alles wat ooit online is gezet. Daarnaast zou een ethische code voor AI-ontwikkelaars kunnen helpen bij het definiëren van duidelijke richtlijnen voor contentmoderatie en verantwoordelijkheid.

De discussie over AI-censuur maakt ons kritischer, maar alleen als we die kritiek niet enkel op anderen richten, maar ook op onszelf. De vraag is niet of censuur in AI bestaat: dat is inmiddels wel duidelijk. De vraag is hoe we ervoor zorgen dat deze censuur inzichtelijk, eerlijk en controleerbaar is. Want pas als we begrijpen hoe AI antwoorden filtert, kunnen we echt kritisch nadenken over de informatie die we krijgen voorgeschoteld.

Over de auteur: Erdinç Saçan is docent en onderzoeker bij Fontys Hogeschool en schrijver. Dit artikel vloeit voort uit zijn recente boek ‘AI voor iedereen’.

Deel dit bericht

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond