Het sociale mediaplatform X (voorheen Twitter) laat AI Community Notes schrijven – een stap die efficiëntie belooft, maar ook angst oproept voor misinformatie en gemanipuleerde waarheden.
AI neemt het woord: X introduceert geautomatiseerde Community Notes
Het sociale mediaplatform X, eigendom van Elon Musk, heeft aangekondigd dat het voortaan kunstmatige intelligentie inzet om Community Notes te schrijven. Dit systeem, oorspronkelijk bedoeld om context toe te voegen aan misleidende of controversiële berichten, zal nu deels door AI-chatbots worden aangestuurd. Volgens X moeten deze AI-assistenten de factchecking sneller, schaalbaarder en objectiever maken.
De AI-modellen zijn getraind op honderdduizenden eerder goedgekeurde Community Notes, in de hoop dat ze leren hoe ze genuanceerde, feitelijke uitleg kunnen formuleren bij virale beweringen. De eerste AI-gegenereerde notities zijn al live gezet en worden op dit moment geëvalueerd door menselijke moderators binnen het platform.
Transparantie of algoritmische rookgordijnen?
Volgens X is het AI-systeem niet bedoeld om mensen te vervangen, maar om hen te ondersteunen. Elke door AI voorgestelde notitie moet worden goedgekeurd door meerdere gebruikers met een verschillend politiek en cultureel profiel. Zo wil het platform ‘consensus-gebaseerde waarheidsvinding’ blijven waarborgen.
Critici zetten daar vraagtekens bij. Want ook al lijkt het systeem transparant, de gebruikte modellen zijn eigendom van Musk’s eigen AI-bedrijf xAI. Dat roept vragen op over onafhankelijkheid en bias. Bovendien zijn AI-systemen gevoelig voor manipulatie door trainingsdata of beïnvloeding via veelgebruikte keywords en narratieven.
Desinformatie dubbelgevouwen: complottheorieën riskeren versterking
Experts van onder meer MIT en de Stanford Internet Observatory waarschuwen dat AI-gegenereerde factchecks een nieuw probleem kunnen veroorzaken: het onbedoeld versterken van complottheorieën. Bijvoorbeeld door ze onbewust te herhalen of in sommige gevallen zelfs plausibeler te maken.
Een foutje in een AI-notitie – zoals verkeerde context of het citeren van dubieuze bronnen – kan zich razendsnel verspreiden, juist doordat het systeem zelfvertrouwen en autoriteit uitstraalt. Hierdoor dreigt de grens tussen feit en fictie nog verder te vervagen.
Toekomst van digitale waarheidsvinding: balanceren op een algoritmisch koord
Het idee achter de inzet van AI is begrijpelijk: het aantal berichten op X is gigantisch, en manuele moderatie is nauwelijks nog bij te houden. Maar terwijl Musk pleit voor een open debatcultuur zonder censuur, brengt deze stap ook nieuwe verantwoordelijkheden met zich mee.
Wat als de AI in dienst van een platform met duidelijke belangen ook de controle krijgt over wat als 'waar' wordt gemarkeerd? Of erger nog: wat als het systeem zelf niet meer gecontroleerd wordt, maar zélf de controle krijgt?
De AI-Community Notes van X staan symbool voor een bredere trend: we betreden een tijdperk waarin technologie niet alleen onze informatie filtert, maar ze ook actief herschrijft. De vraag is niet alleen of het werkt – maar vooral: wie bepaalt wat waar is?
X is piloting a program that lets AI chatbots generate Community Notes | TechCrunchThe social platform X will pilot a feature that allows AI chatbots to generate Community Notes, a Twitter-era feature that Elon Musk has expanded under his ownership of the service now called X. |