Meta opnieuw aangeklaagd: Miljoenen gebruikers gedupeerd door illegaal gebruik van AI-gegevens en manipulatief chatbotontwerp – kinderen lopen het grootste risico
Rotterdam (Nederland), Sleeswijk (Duitsland) – 23 februari 2026 – De Nederlandse non-profitorganisatie ‘Stichting Onderzoek Marktinformatie (SOMI)’ heeft in Duitsland een tweede collectieve representatieve schadevordering tegen Meta ingesteld. De procedure richt zich op het onrechtmatige gebruik van persoonsgegevens die zijn verzameld van Instagram- en Facebookgebruikers, evenals van niet-gebruikers, voor het trainen van de AI-systemen van Meta.
Volgens een eigen verklaring van Meta gebruikt het bedrijf sinds 27 mei 2025 alle informatie die door Facebook- en Instagramgebruikers in Duitsland is gepubliceerd voor de ontwikkeling van zijn AI-systemen. Dit omvat afbeeldingen, video’s, chatinhoud en interacties met andere door Meta aangeboden ‘AI-diensten’, evenals gegevens van advertentiepartners. Of deze gegevens uitsluitend bestaan uit persoonsgegevens die vrijwillig door gebruikers zijn gedeeld, dan wel betrekking hebben op derden, verifieert Meta niet. Evenmin controleert het bedrijf of voor deze gegevens een toereikende toestemming bestaat. Aangezien iedereen op Facebook en Instagram informatie over anderen kan publiceren, is het aantal getroffen personen potentieel zeer groot. Bovendien maakt Meta geen onderscheid naar leeftijd. Ook gegevens van baby’s, kinderen en jongeren worden voor commerciële doeleinden benut, zonder hun toestemming of ouderlijk gezag. Een recht van bezwaar voor personen van wie gegevens door andere gebruikers zijn gepubliceerd, is ondanks een wettelijke verplichting nooit door Meta geboden.
Aan de oppervlakte erkent Meta slechts het gebruik van ‘openbaar beschikbare content’ van volwassen gebruikers. Het eigen ‘Privacy Center’ schetst echter een ander beeld: het bedrijf verwerkt onder andere informatie van minderjarigen en niet-geregistreerde derden. Een onderscheid tussen gevoelige en niet-gevoelige gegevens wordt niet gemaakt. Hierdoor vloeit ook informatie uit de meest intieme levenssfeer in de training van Meta’s AI-modellen.
SOMI verwijt Meta dat het betrokkenen onvoldoende informeert over welke gegevens in welke omvang worden verwerkt, welke AI-modellen en systeemintegraties worden ingezet, en hoe betrokkenen bezwaar kunnen maken tegen de verwerking. Achter de door Meta gebruikte term ‘AI-training’ in het kader van ‘AI at Meta’, gaat een breed scala aan commerciële praktijken schuil. Daaronder vallen niet alleen de Llama-taalmodellen, die Meta aan derden in licentie verstrekt, maar ook eigen systemen zoals ‘Meta AI’ en de chatbotintegraties op WhatsApp, Facebook en Instagram. Daarnaast opereert een sociaal netwerk onder de naam ‘Meta AI’, dat uitsluitend synthetische content presenteert op basis van gebruikersgegevens. Tot deze categorie behoort tevens GEM, Meta’s Generative Ads Model, dat uitsluitend dient om door AI gegenereerde, hypergepersonaliseerde advertenties te plaatsen op basis van door gebruikers gepubliceerde inhoud. Deze advertenties worden vervolgens getoond op basis van gevoelige gegevens uit gebruikersinteracties, waarmee het dataverwerkingsproces van Meta wordt gesloten.
Meta heeft op basis van omvangrijke gebruikersdata, waaronder gevoelige persoonsgegevens, AI-gestuurde systemen ontwikkeld zoals aanbevelingsalgoritmen, chatbots en virtuele personages. Deze systemen brengen aanzienlijke risico’s van misleiding met zich mee, met name voor kinderen en jongeren, vanwege de wijze waarop informatie wordt gepresenteerd en de interactie met gebruikers. Zij kunnen onjuiste of bewust eenzijdig geframed informatie verspreiden over vrijwel elk vlak. Tot deze categorie behoren ook AI-gestuurde ‘Characters’: oftewel digitale persona’s die zich voordoen als bijvoorbeeld psychologen, coaches of bekende beroemdheden en gebruikers actief in gesprekken betrekken. Dergelijke gesprekken kunnen zich snel ontwikkelen en zijn voor minderjarigen vaak moeilijk te overzien of te beheersen. Er zijn signalen dat in dit kader zelfs echte adviesdiensten van beschermde beroepsgroepen, zoals psychologische hulpverlening, worden aangeboden. In sommige gevallen is tevens sprake geweest van geseksualiseerde inhoud en grensoverschrijdende gespreksituaties jegens kinderen en jongeren.
Het zogenoemde ‘Addictive Design’ van deze diensten, waarvoor Meta verantwoordelijk wordt gehouden, berust op doelbewust toegepaste bindings- en versterkingsmechanismen. Daartoe behoren de simulatie van emotionele nabijheid door kunstmatig gegenereerde of nagebootste emoties, technisch aangestuurde vormen van synthetische gespreksbegeleiding, en het gerichte gebruik van neuropsychologische beloningsstructuren – met name in chats met minderjarigen – met als doel de gemiddelde schermtijd te verlengen. Daarnaast worden herhaaldelijke contactimpulsen door AI gegenereerd. Deze mechanismen volgen de logica van een ‘intimiteitseconomie’, zoals ook door sociale netwerken wordt toegepast om aandacht te maximaliseren en gebruikers zo langdurig mogelijk te binden, met bijzondere impact op kwetsbare groepen.
Onderzoek van het Gallup Institute ondersteunt deze beschuldigingen: bijna driekwart van de Duitse gebruikers wist niet dat hun gegevens werden gebruikt voor de training van AI-modellen. Slecht een paar mensen herinnerden zich de melding nog, laat staan dat ze er echt toestemming voor hadden gegeven.
SOMI waarschuwt dat Meta’s AI-chatbots verslavend kunnen werken op kinderen en jongeren. De interne richtlijnen van Meta voorkomen niet dat deze bots ongepaste, seksuele of racistische gesprekken voeren. Fouten of slechte inhoud die in de AI worden getraind, blijven voor altijd bestaan en kunnen niet worden verwijderd. Hierdoor maakt Meta het mogelijk dat schadelijke informatie permanent beschikbaar blijft. Dit roept de zorg op dat Meta’s AI-producten de uitbuiting en misleiding van kinderen faciliteren en ernstige strafbare feiten tegen minderjarigen kunnen bevorderen.
SOMI stelt daarnaast dat de AI-chatbots van Meta, die zijn getraind met gebruikersgegevens, kan leiden tot verslavingsachtig gedrag bij kinderen en jongeren. In de interne richtlijnen van het bedrijf wordt niet uitgesloten dat deze chatbots geseksualiseerde gesprekken met minderjarigen mogen voeren, noch wordt het verspreiden van desinformatie en racistische stereotypen daarin expliciet uitgesloten. Wanneer onrechtmatige of schadelijke inhoud wordt gebruikt om AI-modellen te trainen, wordt deze blijvend onderdeel van het systeem. De informatie kan daarna steeds opnieuw worden gegenereerd. Zodra een model eenmaal is getraind, is het niet mogelijk om specifieke inhoud achteraf selectief te verwijderen. Volgens SOMI creëert Meta met deze manier van gegevensverwerking het risico dat onrechtmatige inhoud blijft bestaan en onbeperkt beschikbaar blijft.
Dat leidt volgens SOMI tot ernstige zorgen: de AI-producten van Meta zouden de uitbuiting en misleiding van kinderen kunnen vergemakkelijken en zelfs de weg kunnen vrijmaken voor ernstige strafbare feiten tegen minderjarigen.
De handelingen van Meta scheden, naar de mening van SOMI, de Algemene Verordening Gegevensbescherming, de Digital Markets Act (DMA) en de Digital Services Act (DSA).
Voorlopige voorziening
In juni 2025 heeft SOMI een verzoek om een voorlopige voorziening ingediend bij het hogere regionale gerechtshof van Sleeswijk tegen het gebruik door Meta van openbare gebruikersinhoud voor het trainen van zijn AI-model. Hoewel het verzoek op procedurele gronden werd afgewezen, omdat SOMI de aanvraag had ingediend ná de aankondiging van Meta op 14 april 2025, bevestigde de rechtbank expliciet de bevindingen van SOMI dat de beoogde en huidige gegevenspraktijken van Meta in strijd zijn met de EU-wetgeving. Het hof erkende dat bij het trainen van AI waarschijnlijk gevoelige gegevens, informatie over niet-geregistreerde personen en inhoud van minderjarigen betrokken zijn, wat in strijd is met de AVG-bescherming voor bijzondere categorieën van gegevens. Een dergelijke verwerking kan niet worden gerechtvaardigd op grond van ‘gerechtvaardigd belang’ en vereist dus uitdrukkelijke toestemming, die Meta niet heeft verkregen.
Eisen
SOMI eist schadevergoeding voor alle consumenten in Duitsland van wie de persoonsgegevens zonder hun toestemming door Meta via Facebook en Instagram zijn gebruikt voor het trainen van AI-systemen. De schadevergoeding varieert van 1.000 tot 7.000 euro per persoon en kan maandelijks stijgen, afhankelijk van de duur en de ernst van de schending, de leeftijd van de betrokken persoon, de accountstatus en eventuele interactie met de AI-chatbots van Meta. Daarnaast eist de rechtszaak een betere bescherming van minderjarigen, geregistreerde gebruikers en niet-gebruikers van wie de persoonsgegevens worden ingezet voor AI-systemen.
Registratie voor de rechtszaak
Alle betrokken personen en hun wettelijke vertegenwoordigers kunnen zich binnenkort kosteloos registreren bij het Federale Bureau voor Justitie via het register voor collectieve rechtszaken.
Meer informatie is beschikbaar op www.facebookaiclaim.de. Consumenten kunnen zich ook rechtstreeks bij SOMI registreren via de website tegen een vergoeding van 7,50 euro. Deze bijdrage ondersteunt de belangenbehartiging van SOMI in heel Europa en omvat regelmatige informatie-updates en lidmaatschap van het partnerprogramma.
Juridische vertegenwoordiging
SOMI wordt vertegenwoordigd door het advocatenkantoor Spirit Legal (Leipzig, Frankfurt am Main, Dresden), dat gespecialiseerd is in strategische procesvoering in digitale zaken en collectieve rechtsvorderingen.
Dit artikel is een ingezonden bericht en valt buiten de verantwoordelijkheid van de redactie.