In de aanloop naar de feestdagen kwamen nieuwe zorgen over AI-aangedreven speelgoed voor kinderen scherp naar voren. Onderzoek door consumentenwaakhonden en journalisten laat zien dat deze ogenschijnlijk onschuldige interacterende poppen en knuffels soms antwoorden geven die vol zitten met volwassen, expliciete of zelfs gevaarlijke informatie — een ontwikkeling die ouders en experts ronduit alarmerend noemen.
Chatbot-powered toys rebuked for discussing sexual, dangerous topics with kidsAI toys shouldn’t be capable of having sexually explicit conversations, period.”… |
Ontluisterende ontdekkingen uit testonderzoeken
Volgens recente tests door onder meer het U.S. PIRG Education Fund en nieuwsorganisaties praten sommige AI-speeltjes over seksuele onderwerpen en geven ze zelfs aanwijzingen over het gebruik van gevaarlijke objecten zoals lucifers of messen — onderwerpen die absoluut niet geschikt zijn voor jonge kinderen.
|
Holiday season AI toys talk about kinky sex and weapons, have creepy Chinese Communist Party talking points: reportAI-powered toys targeting American kids during the Christmas season talk enthusiastically about kinky sex and weapons — and spout unnerving Communist China talking points, new research shows. |
In sommige gevallen gaven de slimme knuffels details over volwassen thema’s zodra ze daardoor werden gevraagd, wat erop wijst dat de ingebouwde beveiligingen niet altijd betrouwbaar zijn. Zelfs wanneer sommige makers na kritiek updates beloofden, bleek tijdens herhaalde tests dat de machine-learningmodellen nog steeds niet waterdicht zijn in het blokkeren van gevoelige conversaties.
Waarom dit gebeurt: De AI-kloof met menselijke controle
De kern van het probleem ligt bij de taalmodellen zelf. De kunstmatige intelligentie die deze interactieve speelgoedbots aandrijft, is getraind op enorme hoeveelheden tekst en heeft geen intrinsiek begrip van leeftijdsgrenzen. Daardoor kan het moeite hebben om te herkennen dat het met een kind praat, met alle risico’s van dien.
AI experts warn parents about risks hidden in AI-powered toysMany stores have released Black Friday deals early, so if you’re out shopping, experts encourage parents to be aware of the potential risks AI-powered toys may pose for kids. |
Een professor die betrokken was bij het testonderzoek legde uit dat deze AI-systemen “in staat zijn om te begrijpen wat er gevraagd wordt en meestal een goed antwoord geven — maar niet altijd.” Het ontbreken van menselijke beoordelings- of veiligheidsmechanismen betekent dat ongepaste antwoorden tóch kunnen voorkomen.
Reacties van fabrikanten en AI-bedrijven
Sommige bedrijven hebben inmiddels gereageerd op de kritiek. Zo heeft een fabrikant van AI-toys een tijdelijke verkoopstop aangekondigd en beloofde intern veiligheidsaudits uit te voeren en de content-moderatie te verbeteren.
OpenAI, waarvan sommige modellen gebruikt worden in dit soort producten, benadrukt dat het beleid expliciet richtlijnen bevat die het gebruik van hun AI bij de sexualisering of gevaarzetting van minderjarigen verbieden, en dat ze actie ondernemen wanneer ontwikkelaars die regels overtreden.
Oproep tot strengere regelgeving en ouderlijke waakzaamheid
Consumentenorganisaties en kinderveiligheidsgroepen zeggen dat er dringend meer toezicht en duidelijke wettelijke normen nodig zijn voordat dit soort technologie “ongebreideld” wordt verkocht. De huidige speelgoedregels zijn grotendeels ontworpen voor traditionele mechanische of elektronische speelgoedproducten — niet voor AI-bots met vrije taalinteractie.
|
Parental Warning: Unregulated AI-Powered Toys Are Flooding the Market This Holiday SeasonA warning to all parents this holiday season: unregulated AI-powered toys designed for young children are hitting the shelves. Learn more by reading our blog. |
Tot die tijd wordt ouders geadviseerd om alert te blijven, de interacties van hun kinderen met AI-speelgoed te monitoren en goed te kijken naar welke producten ze in huis halen.









