Onderzoek van de EBU/BBC: 45% van de AI-nieuwsdata niet accuraat

Bijna de helft van de antwoorden die AI-assistenten geven op nieuwsvragen blijkt onvolledig of onbetrouwbaar. Dat blijkt uit nieuw internationaal onderzoek onder leiding van de EBU en BBC, waaraan ook de NPO en NOS deelnamen. Er werd onderzoek hoe AI-assistenten zoals ChatGPT, Perplexity, Copilot en Gemini omgaan met vragen over nieuws. De NPO en NOS deden mee aan dit onderzoek om beter te begrijpen hoe AI-assistenten omgaan met nieuwsvragen van het publiek en hoe betrouwbaar en nauwkeurig de antwoorden daarop zijn.
Het volledige rapport is hier te lezen.
AI-assistenten en zoekmachines met AI-functies worden steeds vaker gebruikt om nieuws of achtergrondinformatie te vinden, vooral door jongeren. Wereldwijd gebruikt inmiddels 34% van de mensen wekelijks een generatieve AI-tool, en informatie zoeken is daarbij de snelst groeiende toepassing.
‘Dit onderzoek, net als eerder onderzoek van de BBC, laat zien dat AI-assistenten een hulpmiddel kunnen zijn bij het verzamelen van informatie, maar dat het essentieel blijft om bronnen te checken en de achtergrond van de informatie te onderzoeken’ zegt Daniël Kegel, Manager Digitale Media van de NOS. ‘Waar een gebruiker om feiten vraagt wordt door AI-assistenten nog te vaak informatie onvolledig, uit context of soms ronduit fout weergegeven. Betrouwbare journalistiek is en blijft vakmanschap én grotendeels mensenwerk. Juist in een wereld waarin de hoeveelheid informatie explosief toeneemt, is het belangrijk dat er publieke nieuwsorganisaties zijn, zoals de NOS, waar mensen terechtkunnen voor onafhankelijk en betrouwbaar nieuws.’
Joost Oranje, genremanager journalistiek bij de NPO: ‘Betrouwbaarheid is ons kenmerk. Het is heel zorgelijk dat de journalistiek van de publieke omroep gemankeerd wordt weergegeven. Daarom willen we graag serieus het gesprek voeren met AI-platforms, om aan te geven waar de gebreken zitten van de verschillende AI-assistenten. Duidelijke bronvermelding en links naar onze eigen nieuwskanalen zijn bijvoorbeeld cruciaal. Maar ook onderscheid tussen feiten en meningen en het geven van context. We vragen de techbedrijven hier serieus werk van te maken.’
Onnauwkeurig
De eerste resultaten van het EBU-onderzoek laten zien dat AI-assistenten journalistieke bronnen vaak onnauwkeurig of onvolledig gebruiken. Antwoorden lijken betrouwbaar, maar bevatten geregeld fouten of vertekeningen, zonder dat gebruikers dit merken. Dat maakt duidelijk dat betrouwbaarheid in deze omgevingen nog geen vanzelfsprekendheid is.
Dialoog aangaan
Publieke nieuwsorganisaties moeten daarom actief de dialoog aangaan met technologiebedrijven. Zodat content correct wordt weergegeven. Mét bronvermelding, context en verwijzingen. Niet alleen als samenvatting, maar ook met ruimte voor verdieping, video’s of podcasts waarin journalistieke kwaliteitsnormen worden gewaarborgd.
Campagne
De EBU lanceerde eerder dit jaar de campagne Facts In: Facts Out, gericht op de AI-bedrijven, en gebaseerd op 5 pijlers:
- Wees nauwkeurig. Vermijd hallucinaties, verkeerde toeschrijvingen of verouderde informatie.
- Citeer altijd bronnen, op een correcte en transparante manier. Zorg voor duidelijke bronvermelding en links naar gezaghebbende nieuwsbronnen.
- Respecteer redactionele integriteit. Maak onderscheid tussen feiten en meningen, en vermijd ongekende of misleidende redactionele bewerkingen.
- Bied voldoende context, vooral bij complexe of omstreden onderwerpen.
- Verbeter voortdurend door objectieve externe controle, input van nieuwsorganisaties en transparante updates.
Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.