Deepfake kindermisbruik is real life kindermisbruik
4 februari 2026
In het afgelopen jaar gaven minstens 1,2 miljoen kinderen aan dat hun beeldmateriaal is gebruikt voor het maken van seksuele deepfakes, dat blijkt uit nieuw onderzoek van UNICEF samen met ECPAT en INTERPOL, gedaan in elf landen. In sommige landen gaat het om 1 op de 25 kinderen, wat vergelijkbaar is met één kind per gemiddelde schoolklas. 'Deepfake‑kindermisbruik is real life kindermisbruik.'

Deepfakes – beelden, video’s of audio die met kunstmatige intelligentie (AI) worden gemaakt of gemanipuleerd om echt te lijken – worden steeds vaker ingezet om seksueel getinte content van kinderen te produceren. Dit gebeurt onder meer via zogenaamde nudification-technieken, waarbij AI wordt gebruikt om kleding digitaal te verwijderen of te veranderen, waardoor vervalste naakt- of seksueel expliciete beelden ontstaan.
Deepfake‑kindermisbruik gelijk is aan real life kindermisbruik. Zodra het beeld of de identiteit van een kind wordt gebruikt, is dat kind slachtoffer. Ook zonder identificeerbaar slachtoffer normaliseert dit materiaal de seksuele uitbuiting van kinderen en belemmert het daarnaast opsporingsdiensten.
Kinderen zelf zijn zich volop bewust van de risico's.
Kinderen zelf zijn zich volop bewust van de risico's. In sommige onderzochte landen is tot twee derde van de ondervraagde kinderen bang dat AI kan worden gebruikt om vervalste seksuele beelden van hen te creëren.
Hoewel sommige AI‑ontwikkelaars maatregelen nemen, worden veel modellen nog zonder voldoende veiligheidswaarborgen gebouwd. Op sociale media verspreiden gemanipuleerde beelden zich bovendien razendsnel.
UNICEF roept overheden op om wetgeving zorgvuldig te bekijken en waar nodig uit te breiden zodat ook AI‑gegenereerd misbruikmateriaal strafbaar is. AI‑ontwikkelaars moeten hun producten zo ontwerpen dat misbruik van kinderen kan worden voorkomen. En digitale platforms moeten voorkomen dat dit materiaal circuleert en investeren in technologie om het direct te signaleren en verwijderen.
In het nieuwe coalitieakkoord staat dat de Nederlandse overheid (seksuele) deepfakes wil aanpakken door wetgeving te actualiseren, o.a. met een meldpunt voor slachtoffers. Als UNICEF Nederland roepen wij op om kinderen hierbij expliciet mee te nemen als (kwetsbare) doelgroep.