De Google Big Leak: Chrome-data, de 129-dagenregel en content vernieuwen

In 2024 werden via een antitrustprocedure interne Google-algoritmedocumenten openbaar, de zogenaamde Google Big Leak. In een eerder artikel behandelden we de linkbuilding-inzichten. Dit artikel gaat over drie andere bevindingen: gedragssignalen, crawling en contentvernieuwing.

Drie punten vallen op. Google gebruikt gedragsdata van Chrome-gebruikers als rankingsignaal, nu formeel bevestigd. Pagina’s die 129 dagen niet zijn gecrawled verdwijnen uit de index en ook uit AI-resultaten. En een nieuwe publicatiedatum zetten op een artikel zonder de inhoud te wijzigen, heeft geen effect.

Alle drie hebben gevolgen voor hoe je een website onderhoudt.

Chrome-gedragsdata als rankingsignaal

Het was al een gangbare aanname in de SEO-wereld: Google gebruikt hoe mensen zich gedragen op een pagina als kwaliteitssignaal. Snel terugklikken naar de zoekresultaten, wat Google kan interpreteren als een indicatie dat de pagina niet het goede antwoord bood, zou een negatief signaal zijn. Lang blijven en doorlezen zou een positief signaal zijn. De Big Leak bevestigt dit.

Specifiek: Google gebruikt gedragsdata van Chrome-gebruikers. Scrolldiepte, hoe snel iemand terugkeert naar de zoekresultaten, betrokkenheidstijd, dit zijn signalen die meewegen in de ranking. Een pagina die technisch goed is geoptimaliseerd maar waarbij bezoekers structureel snel afhaken, verliest op termijn positie.

Een voorbeeld: een webshop in keukenmachines had een categoriepagina die op positie 4 stond voor ‘keukenmachine kopen’. De pagina bestond grotendeels uit een productraster met afbeeldingen en prijzen, zonder uitleg over welke machine voor welk gebruik geschikt is. Bezoekers vertrokken snel naar een concurrent met meer informatie. Na het toevoegen van een keuzegids bovenaan de pagina nam de gemiddelde betrokkenheidstijd toe en verbeterde de positie naar 2.

Chrome-gedragsdata als rankingsignaal

Het was al een gangbare aanname in de SEO-wereld: Google gebruikt hoe mensen zich gedragen op een pagina als kwaliteitssignaal. Snel terugklikken naar de zoekresultaten, wat Google kan interpreteren als een indicatie dat de pagina niet het goede antwoord bood, zou een negatief signaal zijn. Lang blijven en doorlezen zou een positief signaal zijn. De Big Leak bevestigt dit.

Specifiek: Google gebruikt gedragsdata van Chrome-gebruikers. Scrolldiepte, hoe snel iemand terugkeert naar de zoekresultaten, betrokkenheidstijd, dit zijn signalen die meewegen in de ranking. Een pagina die technisch goed is geoptimaliseerd maar waarbij bezoekers structureel snel afhaken, verliest op termijn positie.

Een voorbeeld: een webshop in keukenmachines had een categoriepagina die op positie 4 stond voor ‘keukenmachine kopen’. De pagina bestond grotendeels uit een productraster met afbeeldingen en prijzen, zonder uitleg over welke machine voor welk gebruik geschikt is. Bezoekers vertrokken snel naar een concurrent met meer informatie. Na het toevoegen van een keuzegids bovenaan de pagina nam de gemiddelde betrokkenheidstijd toe en verbeterde de positie naar 2.

De 129-dagenregel: niet gecrawled is onzichtbaar

Pagina’s die 129 dagen niet door Googlebot zijn gecrawled, verdwijnen uit de index. Dat was al langer bekend. Wat de Big Leak toevoegt: diezelfde pagina’s verdwijnen daarmee ook uit GEO-resultaten. AI-tools die via Google’s index werken, zoals Google AI Overviews, raadplegen alleen geïndexeerde content. Niet gecrawled betekent onzichtbaar voor zowel klassieke SEO als AI.

Welke pagina’s lopen dit risico? Doorgaans oude blogartikelen met weinig bezoekers, productpagina’s van uitverkochte producten die online zijn gebleven, en landingspagina’s van afgelopen campagnes. Ga in Google Search Console naar ‘Pagina-indexering’ en filter op pagina’s die lang niet zijn gecrawled. Voor strategisch belangrijke pagina’s voeg je een interne link toe vanuit een pagina die regelmatig wordt gecrawled, dat trekt Googlebot mee.

De 129-dagenregel: niet gecrawled is onzichtbaar

Pagina’s die 129 dagen niet door Googlebot zijn gecrawled, verdwijnen uit de index. Dat was al langer bekend. Wat de Big Leak toevoegt: diezelfde pagina’s verdwijnen daarmee ook uit GEO-resultaten. AI-tools die via Google’s index werken, zoals Google AI Overviews, raadplegen alleen geïndexeerde content. Niet gecrawled betekent onzichtbaar voor zowel klassieke SEO als AI.

Welke pagina’s lopen dit risico? Doorgaans oude blogartikelen met weinig bezoekers, productpagina’s van uitverkochte producten die online zijn gebleven, en landingspagina’s van afgelopen campagnes. Ga in Google Search Console naar ‘Pagina-indexering’ en filter op pagina’s die lang niet zijn gecrawled. Voor strategisch belangrijke pagina’s voeg je een interne link toe vanuit een pagina die regelmatig wordt gecrawled, dat trekt Googlebot mee.

Content vernieuwen: een nieuwe datum is niet voldoende

Google controleert of vernieuwde content daadwerkelijk is aangepast. Alleen de publicatiedatum aanpassen, of een paar zinnen herschikken, heeft geen effect. Het algoritme detecteert of de inhoud substantieel is gewijzigd.

Een webshop in fietsen had een blogartikel over ‘elektrische fietsen vergelijken’ dat een paar jaar oud was maar nog steeds goed rankte. Om het actueel te houden paste iemand de datum aan naar het nieuwe jaar, zonder de inhoud te wijzigen. Het artikel verloor een paar posities. Nadat het artikel inhoudelijk werd bijgewerkt, nieuwe modellen toegevoegd, verouderde modellen verwijderd, een sectie over accubereik geactualiseerd, herstelden de posities en verbeterde het artikel.

Een effectieve contentupdate is inhoudelijk: nieuwe informatie toevoegen die er voorheen niet in stond, verouderde informatie verwijderen, en de pagina aanpassen op basis van nieuwe ontwikkelingen in het domein. Dat is het signaal dat Google zoekt.

Hoe je een contentupdateplanning opzet

Een werkbare aanpak is om eens per kwartaal je tien best presterende pagina’s te bekijken en te beoordelen of de informatie nog actueel is. Niet alle pagina’s hebben hetzelfde updateritme nodig. Een pagina over een technisch onderwerp dat snel verandert, zoals Google Ads-instellingen, heeft vaker een update nodig dan een pagina over een tijdloos onderwerp.

Prioriteer pagina’s die zijn gedaald in positie maar nog steeds relevant verkeer binnenhalen. Dat zijn doorgaans pagina’s waarvoor de content nog van waarde is, maar die concurrenten inhalen met recentere informatie. Een inhoudelijke update kan die pagina’s opnieuw versterken.