Van het schrapen van auteursartikelen tot dalende websitebezoeken – nieuwsuitgevers trekken aan de alarmbel over het groeiende effect van AI op hun voortbestaan
Een sluipende crisis in het medialandschap
De opkomst van generatieve AI heeft niet alleen de manier waarop we zoeken, lezen en leren veranderd – het dreigt nu ook het fundament van onafhankelijke journalistiek te ondermijnen. Steeds meer mediabedrijven slaan alarm: hun originele inhoud wordt massaal opgeslurpt door AI-modellen, zonder toestemming en zonder compensatie. Tegelijk verliezen nieuwswebsites merkbaar verkeer, nu gebruikers antwoorden rechtstreeks uit AI-chatbots halen in plaats van op zoekresultaten te klikken.
Een nieuwe soort piraterij
Volgens een diepgravende analyse van The Atlantic is generatieve AI een nieuwe vorm van intellectueel eigendomspiraat geworden. AI-modellen van techreuzen als OpenAI, Google en Meta zijn getraind op miljarden webpagina’s – waaronder journalistieke stukken, essays, interviews en zelfs volledige boeken – zonder licentie of vergoeding aan de originele auteurs of uitgevers. Wat vroeger als schending van auteursrecht gold, wordt vandaag vaak gebagatelliseerd als ‘open web scraping’.
Journalisten beschrijven met frustratie hoe hun werk integraal wordt gerecycleerd door taalmodellen, vaak in samenvattingen of antwoorden die het origineel overbodig maken. Schrijvers die jarenlang bouwden aan expertise en nuance, zien hun stemmen vervagen in synthetische AI-teksten die nergens naar hen verwijzen.
Nieuwsverkeer droogt op
Die digitale diefstal heeft ook concrete economische gevolgen. Volgens een intern rapport waar de New York Post over berichtte, lijden nieuwswebsites wereldwijd onder fors teruglopend verkeer vanuit zoekmachines. Google’s nieuwe AI-gestuurde zoekervaring (Search Generative Experience, SGE) geeft antwoorden op vragen direct bovenaan de pagina, waardoor gebruikers niet langer doorklikken naar de oorspronkelijke bron. Voor sommige media leidt dit tot een daling van het verkeer met tientallen procenten.
Een mediabedrijf verklaarde: “Google berooft ons niet alleen van onze inhoud, ze houden ons ook buiten beeld wanneer onze content gebruikt wordt.” Inkomsten uit advertenties en abonneewerving komen hierdoor onder druk te staan – net op een moment dat kwaliteitsjournalistiek harder nodig is dan ooit.
Cloudflare onthult alarmerende AI-trend
Ook Cloudflare, een grote speler in internetbeveiliging en infrastructuur, bevestigt deze evolutie. Uit hun data blijkt dat het aandeel AI-bots dat websites bezoekt en content verzamelt, exponentieel stijgt. Tegelijk daalt het aantal menselijke bezoekers dat via diezelfde zoekopdrachten doorklikt naar de originele pagina. Deze "crawl-to-refer ratio" wijst op een verschuiving: AI haalt informatie op, maar verwijst amper terug.
Cloudflare stelt dat deze asymmetrie een structureel risico vormt voor het webecosysteem. Zonder eerlijke verwijzing of compensatie verdwijnen inkomstenbronnen voor contentmakers, terwijl AI-modellen blijven profiteren van hun werk.
De roep om regulering en transparantie
Wereldwijd groeit de druk op overheden om paal en perk te stellen aan deze AI-vorm van uitbuiting. Mediahuizen eisen duidelijke regelgeving rond data scraping, verplichte verwijzingen naar bronnen, en billijke vergoedingsmodellen. Tegelijk proberen sommige bedrijven alsnog licentiedeals te sluiten met AI-platformen – al blijft dat voor velen een strijd tussen David en Goliath.
In deze turbulente overgangsperiode staan we voor een fundamentele vraag: willen we een internet waar menselijke creativiteit wordt beloond, of een waar het wordt opgeslokt door anonieme algoritmes?
Slotgedachte
Generatieve AI biedt ongekende mogelijkheden, maar zonder ethische grenzen en duurzame afspraken dreigt ze het fundament van het open web te ondergraven. Wat begon als innovatie, mag niet eindigen in digitale kolonisatie.
![]() |
The crawl before the fall… of referrals: understanding AI’s impact on content providersCloudflare Radar now shows how often a given AI model sends traffic to a site relative to how often it crawls that site. This information can help site owners make decisions about which AI bots to allow or block, and enables users to understand how AI usage in aggregate impacts Internet traffic. |