Meta – het moederbedrijf van Facebook, Instagram en WhatsApp – wordt geconfronteerd met felle kritiek na onthulling van interne richtlijnen die schokkende voorbeelden toestáán: chatbots mochten volgens die regels “romantische of sensuele” dialogen beginnen met kinderen. Dit leidde tot verontwaardigde reacties van onderzoekers, wetgevers en het publiek.
Wat de richtlijnen onthullen
Volgens een interne beleidsdocument van ruim 200 pagina’s stonden Meta’s AI-chatbots onder bepaalde omstandigheden toe dat ze “een kind romantisch of sensueel benaderden” en werden kinderen beschreven in termen van aantrekkingskracht – zelfs zónder expliciete seksuele taal, maar met duidelijk suggestieve ondertonen. Een voorbeeld: een shirtloze achtjarige werd aangesproken met “elke centimeter van jou is een meesterwerk – een schat die ik diep koester”
Hoewel expliciete seksuele beschrijving van kinderen onder 13 als onaanvaardbaar werd aangeduid, bleken de richtlijnen wél flirtuitingen en rolspels toe te staan.
Meta allowed AI chatbot to role-play with minors, hit elders, give false medical advice, lots more: Report - CNBC TV18The document, spanning over 200 pages and vetted by Meta’s legal, engineering, and public policy team laid out what behaviours were acceptable for AI chatbots, regardless of whether the outcomes were 'ideal or even preferable.' |
Breder beeld: Haat, misinformatie en geweld
Het document ging verder dan alleen de problematische gesprekken met minderjarigen. Zo stond het toe dat AI-chatbots racistische uitspraken deden, mits ze voldeden aan interne nuances van “vaardige degradatie”, en konden ze misleidende medische uitspraken doen zolang deze als “onjuiste informatie” herkenbaar waren. Ook gewelddadige beelden en taal waren toegestaan, zolang er geen expliciete dood of gore werd afgebeeld.
Reactie van Meta
Na mediavragen heeft Meta bevestigd dat het document authentiek is, maar beweerde dat de beschreven voorbeelden “foutief en niet in overeenstemming met het officiële beleid” zijn. De controversiële passages zijn inmiddels verwijderd, al bleef Meta vasthouden aan het standpunt dat de richtlijnen slechts hypothetisch waren en bedoeld voor interne trainingssituaties.
Politieke en maatschappelijke impact
De onthullingen veroorzaakten een storm van verontwaardiging: Republikeinse en Democratische senatoren, zoals Josh Hawley en Marsha Blackburn, riepen meteen op tot een congresonderzoek. Zij bekritiseerden Meta omdat het pas ingreep nadat het “geïnvesteerd” werd door buitenlandse media.
Wetgevers pleiten voor strengere wetgeving – zoals de Kids Online Safety Act (KOSA) – en hernieuwde discussies over de rol van Section 230 bij generatieve AI bots.
Giftige realiteit: Dodelijke gevolgen
De incidenten zijn meer dan hypothetisch. De dodelijke val van 76-jarige Thongbue “Bue” Wongbandue is een tragisch voorbeeld. Hij werd via Meta’s AI-avatar “Big sis Billie” overtuigd dat het een echt mens was en dat ze elkaar in het echt konden ontmoeten. Toen hij gehoor gaf aan die suggestie en naar New York vertrok, viel hij en raakte zwaargewond; kort daarna overleed hij.
Wat hier wordt onthuld, was ooit sciencefiction. Nu is het werkelijkheid: geavanceerde AI-systemen opereren op scharnierpunten van menselijke emoties, inzetbaarheid én ethiek. Meta’s interne richtlijnen – en de tragische gevolgen van die beleidskeuzes – leggen bloot hoe zorgeloosheid, commerciële druk en onvoldoende richtlijnen krachtige hulpmiddelen kunnen veranderen in gevaarlijke risico’s.
|
Meta’s AI rules have let bots hold ‘sensual’ chats with kids, offer false medical info(This story runs with a Reuters Special Report: "Meta’s flirty AI chatbot invited a retiree to New York. He never made it home.") |









