Nieuwe cijfers tonen dat geautomatiseerd botverkeer meer dan een derde van al het internetverkeer uitmaakt. Vooral commerciële websites en hotelsector zijn kwetsbaar voor AI-gestuurde scraping en fraude.
Een stille invasie op het web
Meer dan 35% van al het internetverkeer bestaat inmiddels uit bots, blijkt uit recente cijfers van cybersecurityspecialisten. Terwijl sommige bots legitiem zijn — zoals die van zoekmachines — maken kwaadaardige en AI-gestuurde bots steeds vaker misbruik van websites. Van webshops tot hotels: bedrijven krijgen te maken met grootschalige scraping, datadiefstal en vertekende analytics.
De commerciële sector is bijzonder hard getroffen. Onderzoek van cloudplatform Fastly wijst uit dat het aantal aanvallen op e-commercewebsites in één jaar tijd verdubbeld is. Geautomatiseerde bots worden ingezet om prijzen van concurrenten te kopiëren, klantenaccounts te kraken en zelfs inventarisinformatie in realtime te monitoren. Volgens Fastly is vooral AI-scraping verantwoordelijk voor deze toename.
Wat is AI-webscraping?
AI-webscraping maakt gebruik van slimme algoritmes om grote hoeveelheden data razendsnel van websites te halen. Denk aan prijzen, productbeschrijvingen, klantenreviews of hotelkamerinformatie. Die data wordt vaak hergebruikt door concurrenten of op dubieuze platforms zonder toestemming van de originele bron.
Hotelwebsites en boekingsplatforms behoren tot de grootste slachtoffers. Uit sectoranalyses blijkt dat bots het boekingsgedrag manipuleren, waardoor prijsstrategieën en bezettingsgraden verstoord raken. Ook marketingdata en conversiestatistieken worden hierdoor onbetrouwbaar.
Waarom bedrijven zich zorgen maken
Voor marketeers, IT-teams en e-commerce managers is het moeilijk onderscheid te maken tussen echte bezoekers en bots. Dit zorgt voor vertekende dashboards, verkeerde investeringsbeslissingen en een verhoogd risico op datalekken. Bovendien belasten bots vaak de servercapaciteit, waardoor sites trager worden en zelfs kunnen crashen tijdens piekmomenten.
Sommige bots doen zich zelfs voor als menselijke gebruikers om frauduleuze handelingen te verrichten: van het opkopen van producten bij lanceringen tot het kraken van loyaliteitsprogramma’s. De opmars van AI maakt deze bots steeds slimmer en moeilijker te detecteren.
Moet je AI-bots dan blokkeren?
De meningen zijn verdeeld. Enerzijds willen bedrijven hun data beschermen tegen ongeautoriseerde scraping. Anderzijds lopen ze het risico legitieme zoekmachines en partners te blokkeren bij een al te strikte aanpak.
Specialisten raden aan om een gelaagde aanpak te hanteren:
- Gebruik firewalls en bot-detectiesoftware
- Monitor verkeer op anomalieën
- Maak gebruik van CAPTCHA-systemen
- Zet regels in je robots.txt bestand
Daarnaast is het belangrijk om contractuele afspraken te maken met partners en API-toegang goed te reguleren.
De toekomst: meer controle, minder openheid?
De toename van AI-gestuurd scraping roept fundamentele vragen op over eigendom en toegankelijkheid van publieke data. Terwijl AI-modellen informatie nodig hebben om te trainen, willen bedrijven controle houden over hoe hun data gebruikt wordt.
De komende jaren zal de balans gezocht worden tussen open internet en digitale bescherming. Eén ding is zeker: de strijd tegen bots is pas net begonnen.
Automated bots make up over one-third of internet traffic, report revealsAutomated bot traffic now accounts for 37% of global internet activity, with 89% deemed unwanted, says Fastly's Q1 2025 Threat Insights. |