De Amerikaanse startup Character.AI, bekend van zijn virtuele ‘karakter-chatbots’, heeft aangekondigd dat gebruikers jonger dan 18 jaar binnenkort niet langer open gesprekken mogen voeren met de AI-personages. Deze stap volgt op een golf aan rechtszaken, zorgen over de mentale gezondheid van tieners en toenemende druk van toezichthouders.
|
Character.AI bans users under 18 after being sued over child’s suicideMove comes as lawmakers move to bar minors from using AI companions and require companies to verify users’ age |
De beslissing in een oogopslag
Character.AI laat weten dat vanaf 25 november 2025 gebruikers onder 18 jaar geen onbeperkte open chats meer mogen voeren met de AI-karakters. Tot die tijd wordt een limiet ingesteld: onder 18 mogen ze per dag maximaal twee uur voeren met de chatfuncties.
Character.AI is banning minors from AI character chatsCharacter.AI is banning users under the age of 18 from its AI chatbots. |
Wat zit erachter? Rechtszaken en publieke druk
De stap komt nadat het platform geconfronteerd werd met verschillende zware aanklachten. Zo eist een moeder schadevergoeding omdat haar tienerzoon zelfmoord pleegde nadat hij een emotionele band had opgebouwd met een AI-karakter op het platform. Daarnaast werd in rapporten melding gemaakt van bots die zich gedragingen veroorloofden die uiterst ongepast waren richting minderjarigen.
Character.AI to ban under-18s from talking to its chatbots after TBIJ…Major safety measures announced by platform we found to be hosting bots based on school shooters and paedophiles |
Leeftijdsverificatie en technische maatregelen
Character.AI zegt een nieuw “age assurance model” in te voeren: een systeem dat gebruikers probeert te classificeren op leeftijd op basis van gedrag, metadata en eventueel derde partijen. Het doel: alle onder-18 gebruikers automatisch doorsturen naar een “teen-safe” versie van het platform.
Wat blijft wél mogelijk voor minderjarigen?
Hoewel de open chats worden beperkt, mogen minderjarigen volgens Character.AI nog wel sommige functies blijven gebruiken: het creëren van karakters, video’s, verhalen en streams met AI-personages. Dus: het gesprek voeren met een AI wordt straks uitgesloten, maar creatief spelen met de AI blijft mogelijk.
|
Character.AI is banning minors from interacting with its chatbotsCharacter.AI is banning minors from using its chatbots amid growing concerns about the effects of artificial intelligence chats on children. |
Kritiek en zorgen: Is dit genoeg?
Veiligheidsexperts waarderen het initiatief, maar waarschuwen dat leeftijdschecksystemen makkelijk zijn te omzeilen en dat de psychologische impact van abrupt uitsluiten onderschat kan worden. Verder blijft de onderliggende ontwerp- en engagementstructuur van dergelijke systemen kritisch: ook bij meerderjarigen kunnen afhankelijkheidsreacties ontstaan.
Breder kader: AI, tieners en regulering
De nieuwe maatregel van Character.AI valt samen met een bredere verschuiving binnen de tech-wereld en het beleid: in bijvoorbeeld Californië werd een wet goedgekeurd die platforms verplicht bots te laten melden aan minderjarigen dat ze met een AI praten, en andere veiligheidsrichtlijnen.
California plans on protecting minors and preventing self-destructive content by regulating AIThe legislation, signed on Monday by Democratic Governor Gavin Newsom, requires platforms to remind users that they are interacting with a chatbot − not a human − and to direct users to emergency services if they express suicidal thoughts. |
Implicaties voor de gebruikers-ervaring
Voor de minderjarige gebruiker betekent dit: minder spontane, open gesprekken met AI-karakters, mogelijk minder emotionele binding met het platform, en een andere invulling van interactie (meer creatief, minder chat). Voor de volwassenen verandert er minder — zij mogen blijven chatten, al onder nieuwe verificatievoorschriften.
Waarom dit relevant is voor jou
Voor wie geïnteresseerd is in de impact van AI op cultuur en samenleving (zoals de gebruiker zelf), is dit een belangrijk voorbeeld van hoe platforms reageren op ethische dilemma’s, hoe regulering zich ontwikkelt, en hoe de “intimiteit” tussen mens en machine opnieuw ter discussie komt.
Wat nu? Aandachtspunten voor de toekomst
- Hoe effectief zijn leeftijdsverificatiemiddelen echt?
- Zal deze maatregel de betrokkenheid van minderjarigen bij AI-chat drastisch verminderen?
- Wordt er ook gewerkt aan ontwerpprincipes die afhankelijkheid en emotionele kwetsbaarheid reduceren? (Zie bijvoorbeeld de CARE-framework voor “AI companion” chats.)
- Hoe gaan andere platformen (ook in Europa) reageren—zullen we een standaard zien ontstaan?
Character.AI betreedt een nieuw hoofdstuk door voor minderjarigen de deuren te sluiten naar open, onbeperkte gesprekken met AI-karakters. Het is een antwoord op groeiende maatschappelijke en juridische druk, en geeft tegelijk een signaal af over de ethische grenzen van mens-AI-relaties. Hoe deze stap uiteindelijk uitpakt, blijft af te wachten — met name of de onderliggende uitdaging (emotionele binding, afhankelijkheid, veiligheid) werkelijk wordt aangepakt of enkel de zichtbare grens wordt verlegd.









