Robots.txt onthuld: Wat miljoenen websites écht doen

Robots.txt onthuld: Wat miljoenen websites écht doen

Een blik achter de schermen van moderne SEO-analyse

Wat ooit een eenvoudig tekstbestand leek, groeit in 2026 uit tot een cruciaal strategisch instrument binnen zoekmachine-optimalisatie. In een recente aflevering van de podcast Search Off the Record duiken Martin Splitt en Gary Illyes diep in de wereld van robots.txt. Hun missie: begrijpen hoe miljoenen websites wereldwijd hun crawlregels definiëren en wat dat betekent voor zoekmachines én AI-bots.

Van simpele regels naar big data-inzichten

De aanleiding klinkt bijna banaal: welke robots.txt-directieven worden eigenlijk het meest gebruikt en welke worden genegeerd? Maar al snel groeit die vraag uit tot een grootschalig data-experiment.

Met behulp van HTTP Archive, een gigantische dataset van echte websites, analyseren de onderzoekers miljoenen robots.txt-bestanden. Door deze data te combineren met inzichten uit het Chrome UX Report ontstaat een uniek beeld van hoe het web zich in de praktijk gedraagt.

Het resultaat? Niet theorie, maar realiteit, op schaal.

Crawlen zoals een browser dat doet

Een opvallende keuze in hun aanpak is het gebruik van browsergebaseerde crawling. In plaats van klassieke bots bootsen ze echte gebruikers na. Dat betekent: Laden van pagina’s, uitvoeren van JavaScript en analyseren van content zoals die écht wordt ervaren.

Die aanpak levert rijkere data op, maar brengt ook uitdagingen met zich mee. Denk aan complexiteit, snelheid en, niet onbelangrijk, kosten.

BigQuery: Waar miljarden datapunten samenkomen

Om deze enorme hoeveelheid data te verwerken, maken ze gebruik van Google BigQuery. Hiermee kunnen ze queries uitvoeren op miljarden records en patronen ontdekken die anders verborgen blijven.

Maar die kracht heeft een prijs. Letterlijk. Elke query kost geld, wat betekent dat efficiënt werken essentieel is. Het is data-analyse met een budget in het achterhoofd.

De verrassende realiteit van robots.txt

Wat blijkt uit de analyse? Het web zit vol inconsistenties. Veel robots.txt-bestanden bevatten fouten, verouderde syntax of zelfs niet-ondersteunde instructies. Typfouten en misconfiguraties zijn eerder regel dan uitzondering.

Daarnaast zien de onderzoekers een duidelijke “long tail”: Een klein aantal regels wordt massaal gebruikt, terwijl duizenden varianten zelden voorkomen. Die inzichten helpen zoekmachines beter begrijpen welke regels écht relevant zijn.

SEO in het tijdperk van AI-crawlers

De implicaties reiken verder dan traditionele zoekmachines. Met de opkomst van AI-agents en bots verandert de rol van robots.txt. Het bestand wordt niet alleen een richtlijn voor Google, maar ook voor generatieve AI-systemen die het web scannen.

Dat maakt correcte configuratie belangrijker dan ooit. Eén fout kan betekenen dat content volledig genegeerd wordt, door zowel zoekmachines als AI-platformen.

Van ruwe data naar bruikbare inzichten

De kracht van deze aanpak zit niet alleen in de data, maar in de vertaling ervan naar actie. Door gebruik te maken van custom JavaScript-metrics en regex-analyses kunnen specifieke patronen en fouten automatisch worden opgespoord.

Deze inzichten zullen uiteindelijk hun weg vinden naar publicaties zoals de Web Almanac, waar ze de SEO-community helpen betere beslissingen te nemen.


Conclusie: Meten is weten op schaal

Wat begint als een technische vraag over robots.txt, eindigt als een fascinerende inkijk in hoe het web écht functioneert. Door tools als HTTP Archive en BigQuery te combineren, wordt SEO minder giswerk en meer wetenschap.

In een wereld waar AI en zoekmachines steeds slimmer worden, blijft één principe overeind: Wie zijn data begrijpt, heeft een voorsprong.

Aanbevolen voor jou

In de kijker

AI kan vanaf nu de muis overnemen op je scherm

AI kan vanaf nu de muis overnemen op je scherm

Meta zet de volgende stap in AI met AI-gegenereerde posts

Meta zet de volgende stap in AI met AI-gegenereerde posts

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Salesforce presenteert Agentforce – Zoals AI voor Sales bedoeld is

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Google Earth laat gebruikers binnenkort ‘tijdreizen’ tot wel 80 jaar terug

Updates

Inschrijven Nieuwsbrief

Zo word je altijd als eerste op de hoogte gebracht van ons laatste nieuws, updates, jobs, tips & promoties. Stay UP-TO-DATE!

WEBSITE LATEN MAKEN?​​​​​​​​​​​​​​

Kies voor een UP-TO-DATE AI Website 100% in Google

Een UP-TO-DATE AI Website maakt het gemakkelijk om automatisch up-to-date te blijven met je klanten en overal aanwezig te zijn.

Maak een afspraak