Desinformatiecampagnes over vermeende razzia’s door ICE in LA zetten sociale media op stelten. AI-chatbots bleken ongewild medeplichtig.
Massale paniek in Los Angeles na valse AI-berichten
Op dinsdag 10 juni raakte Los Angeles in de ban van plotselinge paniek en protesten toen geruchten opdoken over massale invallen door immigratiedienst ICE (Immigration and Customs Enforcement) in de stad. Het vermeende nieuws verspreidde zich razendsnel via X (voorheen Twitter), waar gebruikers berichten deelden over tientallen gearresteerde migranten. Onder de hashtags #StopTheRaids en #ICEOutLA organiseerden honderden mensen spontane protesten bij Union Station en op andere centrale locaties.
Maar er was één probleem: het hele verhaal bleek verzonnen.
AI-chatbots als onbedoelde katalysatoren
Volgens onderzoek van Wired en The Guardian speelde kunstmatige intelligentie een centrale rol in de verspreiding van het nepnieuws. Zowel Grok, de AI-chatbot van X, als ChatGPT van OpenAI, werden ingezet door gebruikers die vroegen of de ICE-invallen werkelijk plaatsvonden. In meerdere gevallen bevestigden de chatbots de geruchten, compleet met zogenaamd actuele details die niet strookten met de werkelijkheid.
Grok verwees zelfs naar "live verslaggeving" over de arrestaties, terwijl er op dat moment geen enkel bewijs of officieel nieuwsbericht beschikbaar was. Ook ChatGPT bevestigde in sommige gevallen dat er protesten gaande waren, op basis van eerder door gebruikers ingevoerde gegevens.
Een chaotische kettingreactie
Binnen enkele uren escaleerde de situatie. Activisten, lokale politici en burgerrechtenorganisaties sprongen op het vermeende nieuws. Sommigen deelden het met verontwaardigde oproepen tot actie, anderen riepen juist op tot kalmte. De politie van Los Angeles en ICE zelf kwamen al snel met ontkenningen: er waren die dag geen invallen uitgevoerd en er was geen verhoogde aanwezigheid van agenten in immigrantengemeenschappen.
Toch was het kwaad al geschied. Het desinformatienarratief had zich als een lopend vuurtje verspreid – versterkt door AI-systemen die bedoeld zijn om mensen te informeren, maar nu juist bijdroegen aan verwarring.
Een wake-upcall voor AI-platformen
Het incident toont volgens experts aan hoe vatbaar AI-systemen zijn voor manipulatie, zeker in crisissituaties waarin feit en fictie snel vervagen. "Wat hier gebeurd is, is een waarschuwing voor elke techfirma die AI inzet voor nieuwsconsumptie," aldus een onderzoeker van de University of Washington. “Deze modellen herhalen wat ze zien of horen, zelfs als het ongefundeerd is. En dat maakt ze kwetsbaar als desinformatieversterker.”
Zowel OpenAI als X hebben inmiddels aangegeven de zaak te onderzoeken. X stelde in een verklaring dat Grok nog in een testfase verkeert en dat er maatregelen worden genomen om het systeem beter te beschermen tegen manipulatieve prompts.
Technologie zonder toezicht is een risico
De gebeurtenissen in Los Angeles illustreren hoe AI zonder voldoende toezicht onbedoeld olie op het vuur kan gooien in maatschappelijk gevoelige situaties. Terwijl chatbots steeds vaker ingezet worden voor informatieverstrekking en realtime nieuws, blijft het risico groot dat foutieve of verzonnen gegevens zich voordoen als feiten.
In een tijd waarin desinformatie steeds geavanceerder wordt verspreid, moeten technologiebedrijven volgens experts meer verantwoordelijkheid nemen voor hoe hun AI-systemen omgaan met actuele gebeurtenissen. Want wat gisteren nog begon als een gerucht, werd vandaag een protest – mede aangewakkerd door algoritmes die het verschil tussen feit en fictie niet altijd herkennen.
Amid LA Protests, Conspiracy Theories and Fake Images Spread OnlineDisinformation spreading on social media platforms has stoked an already tense situation. |