Een dramatische stijging: 80× meer meldingen in 2025
In de eerste zes maanden van 2025 stuurde OpenAI maar liefst 80 keer meer meldingen van mogelijke gevallen van kindermisbruik naar het National Center for Missing & Exploited Children (NCMEC) dan in dezelfde periode een jaar eerder.
De CyberTipline van NCMEC is een door het Amerikaanse Congres erkend meldpunt voor kindersekspornografie (CSAM) en andere vormen van uitbuiting van kinderen. Bedrijven zijn wettelijk verplicht verdachte gevallen te melden, waarna NCMEC deze doorspeelt aan de bevoegde opsporingsinstanties.
OpenAI’s Child Exploitation Reports Increased Sharply This YearThe company made 80 times as many reports to the National Center for Missing & Exploited Children during the first six months of 2025 as it did in the same period a year prior. |
Kwantiteit ≠ gevaar
Het enorme aantal meldingen betekent niet per se dat er plotseling 80 keer zoveel misbruik plaatsvindt. De cijfers kunnen ook wijzen op veranderingen in hoe OpenAI content controleert en rapporteert.
Bijvoorbeeld:
- Automatisering en moderatie zijn uitgebreid.
- Nieuwe functies zoals beelduploads geven systemen meer aanknopingspunten om verdachte content te ontdekken.
- De populariteit van producten als de ChatGPT-app steeg sterk, met ongeveer vier keer zoveel actieve gebruikersals een jaar eerder.
Cijfers in perspectief
In januari–juni 2025 verzond OpenAI ongeveer 75.027 meldingen over ongeveer 74.559 afzonderlijke contentitems. Ter vergelijking: in dezelfde periode van 2024 waren dat slechts 947 meldingen over 3.252 items.
Dat verschil is enorm — maar het toont vooral aan dat OpenAI zijn systemen has sterker ingezet en veel meer gevallen heeft geïdentificeerd en formeel gerapporteerd.
Wettelijke en maatschappelijke context
Het rapporteren van dergelijke content is geen keuze: Amerikaanse wetgeving zoals de Protect Our Children Act verplicht technologiebedrijven tot dit soort meldingen wanneer CSAM of andere ernstige risico’s worden gedetecteerd. Wikipedia
Bovendien groeit de aandacht voor de rol van AI bij kinderveiligheid. Zo heeft NCMEC sinds 2023 een enorme stijging in meldingen rond generatieve AI-content gezien — een toename van meer dan 1.300% in de jaren daarvoor.
AI-tools en kinderveiligheid: een lastig evenwicht
De explosieve groei in meldingen benadrukt een bredere uitdaging: generatieve AI-technologieën kunnen door kwaadwillenden worden misbruikt om exploitieve beelden te maken of te verspreiden, inclusief AI-gecreëerde CSAM.
Tegelijkertijd zijn er pro-actieve stappen:
- OpenAI heeft ouderlijk toezicht en veiligheidsmeldingen geïntroduceerd.
- Initiatieven zoals het Teen Safety Blueprint zijn bedoeld om jeugdgebruikers beter te beschermen.
Wat betekent dit voor gebruikers en ouders?
Voor ouders en verzorgers onderstreept deze ontwikkeling hoe belangrijk digitale geletterdheid en toezicht zijn. AI-platforms worden krachtiger en veelzijdiger, maar dat betekent ook meer verantwoordelijkheid voor makers én gebruikers.
Een sectorbreed vraagstuk
De OpenAI-cijfers zijn exemplarisch voor een groter sectorprobleem: hoe vinden we de balans tussen innovatie en het voorkomen van misbruik door kwaadwillenden? Het vraagt voortdurende samenwerking tussen techbedrijven, wetgevers, hulporganisaties en ouders.









