Het internet is al lang niet meer het exclusieve domein van menselijke gebruikers. Volgens recente rapporten wordt maar liefst 30% van het wereldwijde webverkeer vandaag gegenereerd door bots — en niet allemaal met goede bedoelingen. Van geautomatiseerde scrapers tot kwaadaardige aanvallen en AI-gedreven spionage, de digitale snelweg raakt almaar voller met niet-menselijke passanten.
Van zoekbots tot cybercriminelen
Bots zijn op zichzelf niets nieuws. Zoekmachines maken er al jaren gebruik van om het web te indexeren, en ook chatbots of klantenservicesystemen maken op een constructieve manier gebruik van deze technologie. Maar het zijn vooral de ‘bad bots’ die zorgen baren. Deze kwaadaardige scripts worden ingezet om gegevens te stelen, systemen te overbelasten, prijzen van concurrenten te scrapen of zelfs om toegangscodes te kraken.
Onderzoekers schatten dat een aanzienlijk deel van het botverkeer afkomstig is van geavanceerde, moeilijk te detecteren algoritmes die zich gedragen als mensen — compleet met muisbewegingen, browseremulatie en zelfs wachttijd tussen kliks. Deze bots worden steeds slimmer en zijn vaak gestuurd door AI-modellen die autonoom beslissingen nemen.
AI versnelt het probleem
De snelle opkomst van kunstmatige intelligentie geeft de bots een boost. Met LLM’s (large language models) en zelflerende systemen kunnen bots niet alleen beter navigeren door websites, maar ook overtuigend communiceren, formulieren invullen of zelfs nepprofielen onderhouden op sociale media. In sommige gevallen hebben bots al impact gehad op verkiezingscampagnes, desinformatieverspreiding en beursmanipulatie.
Waar vroeger nog eenvoudige regels volstonden om bots te blokkeren, zijn nu complexe detectiesystemen nodig. Bedrijven zetten steeds vaker AI in om AI te bestrijden — een digitale wapenwedloop zonder duidelijke winnaar.
The Open-Source Software Saving the Internet From AI Bot ScrapersAnubis, which block AI scrapers from scraping websites to death, has been downloaded almost 200,000 times. |
De gevolgen voor online veiligheid
Voor gebruikers betekent dit een internet dat minder transparant en potentieel gevaarlijker is geworden. Websites moeten meer investeren in cyberbeveiliging, terwijl gewone gebruikers geconfronteerd worden met trage laadtijden, CAPTCHA-vraagstukken en een toenemend wantrouwen tegenover online interactie. Ook privacy staat onder druk, aangezien sommige bots ontworpen zijn om gebruikersgedrag te volgen of persoonlijke informatie te verzamelen.
Oproep tot actie: regulering en transparantie
Experts pleiten voor strengere regelgeving rond het gebruik van bots, met name in sectoren zoals e-commerce, media en politiek. Er wordt ook aangedrongen op meer transparantie van techbedrijven over hoe zij botverkeer detecteren en aanpakken. Het publieke debat over AI-ethiek moet zich niet alleen richten op mensachtige AI, maar ook op deze ‘onzichtbare AI’ die al massaal actief is op de achtergrond.
![]() |
Bots Drive 30% of Global Web Traffic, Outpacing Human Users in Key RegionsWeb crawlers, the automated agents that index online content, have long been foundational to the Internet’s infrastructure. |