-

Facetnavigatie: 5 oplossingen voor e-commerce SEO

SEO en e-commerce gaan niet altijd hand in hand. Vooral voor grote e-commercesites als Wehkamp of Zalando, met veel producten en een wildgroei aan nieuwe pagina’s, is dat een uitdaging. Niet alleen gebruikers en webmaster, ook zoekmachines hebben moeite met die wildgroei. Met facetnavigatie houd je je site wél SEO-vriendelijk. 

Heldere silo’s, een overzichtelijk menu en het gebruik van filters zijn noodzakelijk voor elke online winkel van formaat. Om keuzes voor de gebruiker af te bakenen wordt vaak filtering aangebracht – denk aan de maat, het merk, de prijs, de kleur. Maar deze gebruiksvriendelijke oplossing brengt ook complexiteit met zich mee op het gebied van SEO, zoals crawling door zoekmachines en de verspreiding van linkwaarde. In dat geval kan facetnavigatie de gebruiksvriendelijkheid en vindbaarheid van een website ten goede komen, mits op de juiste manier geïmplementeerd. Zo houd je niet alleen de gebruikers, maar ook zoekmachines te vriend.

Wat is facetnavigatie?

De facetnavigatie bestaat uit filters waarmee je zoekresultaten kunt specificeren; zie onderstaand een voorbeeld van Zalando. Meestal wordt deze aan de linker- of bovenzijde van een categoriepagina op een e-commercesite weergegeven en geeft het gebruikers filteropties. Via deze filters kan een gebruiker een deel van de producten weergeven. Essentieel in het keuzeproces van de gebruiker, maar het biedt ook mogelijkheden om je categoriepagina voor keywords te optimaliseren waarop juist veel gezocht wordt: [grijze truien] of [zwarte stadsfiets].

Net zoals de gebruiker, volgt de crawler van de zoekmachine deze filters, wat in feite interne links zijn. Deze filter URL’s bevatten vaak parameters (?color or ?price), en kunnen eindeloos worden gecombineerd. Als je niet oppast, ontstaat een buitensporige hoeveelheid aan URL’s met maat-, merk-, prijs- en kleurcombinaties.

Terwijl gebruikers de filters inzetten om het productaanbod terug te brengen, blijft de rest van de content op de pagina gelijk. Dit zorgt ervoor dat op meerdere URL’s grotendeels identieke content wordt aangeboden, wat leidt tot duplicate content, en dat is schadelijk voor je vindbaarheid in zoekmachines.

Facet-issues

Veel sites kampen met issues bij facetnavigatie, die een negatieve impact op organisch verkeer kunnen hebben, issues die voortkomen uit:

  • Duplicate content
  • Verspilling van crawl budget
  • Verspreiding van linkwaarde naar ongewenste filterpagina’s

Wanneer verschillende parameters dan wel filters worden gecreëerd, neemt het aantal interne links en pagina’s met identieke content gestaag toe. Interne links die naar de identieke pagina’s verwijzen zorgen voor verspilling van linkwaarde en daarmee de mogelijkheid om goed te ranken voor het onderwerp van die pagina’s. Wanneer pagina’s met identieke content worden geïndexeerd, zullen deze met elkaar concurreren op keyword-niveau en dat zorgt voor een kannibaliserend effect op je organisch verkeer.

Om ervoor te zorgen dat de crawlers van zoekmachines niet onnodig veel pagina’s bezoeken die weinig tot geen extra waarde toevoegen, zul je maatregelen moeten nemen. In het algemeen begint dat bij het uitsluiten van de search engine bot van filter links. Maar om te bepalen welke filter links uitgesloten moeten worden in jouw facetnavigatie is het belangrijk om te achterhalen welke content juist wél geïndexeerd moet worden.

In onderstaand voorbeeld van Zalando is gekozen om de kleurfilterpagina’s juist wel te laten indexeren, vanwege het zoekvolume op [grijze truien].

Om veelvoorkomende issues tegen te gaan en alles uit jouw facetnavigatie te halen hebben we vijf oplossingen voor je opgesomd.

Noindex/follow

Noindex tags worden geïmplementeerd om bots te informeren over welke pagina’s niet in de index van bijvoorbeeld Google mogen verschijnen. Deze methode zorgt ervoor dat pagina’s niet vindbaar zijn via de zoekmachine. Echter, interne links worden nog steeds gecrawld en verspilling van interne linkwaarde en crawl budget blijft dus bestaan. Combineer dit met oplossing vier van dit artikel om dit tegen te gaan.

Wanneer je de voorbeeldpagina voor een ‘grijze trui’ wel wil laten indexeren, maar de pagina voor ‘grijze trui van € 80,- of minder’ niet, dan volstaat een noindex tag op de laatste filterpagina. Daarbij dien je ook de URL aan te passen, naar een URL zonder parameter, zoals het voorbeeld van Zalando.

Canonical tags

Canonical tags wijzen in een groep identieke pagina’s een voorkeursversie aan. Daarmee vertel je de zoekmachine welke pagina je wilt laten indexeren. Het is bijvoorbeeld mogelijk om een canonical URL van /grijze-trui?price_from=75&price_to=80 naar /grijze-trui/ te laten verwijzen. Google zal de autoriteit en linkwaarde aan de canonical versie toekennen, maar de parameter-versie nog altijd crawlen. Crawlbudget wordt dus nog steeds verspild.

Via de canonical oplossing wordt de interne linkwaarde geconsolideerd op de voorkeursversie van de URL (zonder parameter). Maar de links worden nog steeds gevolgd en verspilling van crawlbudget blijft dus niet uit.

Robots.txt

Via de Robots.txt kun je volledige onderdelen van de website voor zoekmachine-crawlers uitsluiten. Om bepaalde onderdelen van de site uit te sluiten van de index wordt een ‘disallow’ toegepast. Het voordeel van deze methode is dat het snel werkt en eenvoudig aan te passen is. Helaas is het zo dat de restricties in de Robots.txt een aanbeveling blijven voor de zoekmachines. Ze hoeven er dus niet daadwerkelijk naar te handelen. Daar komt bij dat het doorstromen van linkwaarde mogelijk wordt gehinderd naar bepaalde (uitgesloten) secties op de website.

Wanneer het voorbeeld van de grijze trui weer genomen wordt, dan zou een disallow op ‘grijze trui onder €80,-’ toegepast kunnen worden door een instructie mee te geven om de parameter over prijs nooit te crawlen. Desondanks kan de pagina nog steeds in de index verschijnen wanneer er links naar deze pagina staan. Wat er als volgt uit komt te zien:

Nofollow voor ongewenste facetten

Een methode om de verspilling van crawlbudget tegen te gaan, is het plaatsen van een ‘nofollow’ tag op de interne links die verwijzen naar facetten die niet geïndexeerd moeten worden. Het probleem hier is dat er ongewenste URL’s in de index verschijnen die niet volledig verholpen worden. Duplicate content kan zodoende nog steeds geïndexeerd worden en doorstroming van linkwaarde wordt belemmerd. Deze oplossing dient dus ook in combinatie met een van de eerdere opties te worden toegepast.

Ajax-JavaScript

Als je op dit moment een nieuwe website bouwt of bezig bent met een redesign, is de Ajax-Javascript methode zeker het overwegen waard. Met behulp van Javascript is het mogelijk om de content van de pagina aan te passen zonder dat de URL mee verandert. Hierdoor kunnen gebruikers filters toepassen zonder dat er ongewenst veel URL’s worden gecreëerd.

Wanneer je voor deze methode kiest, is het essentieel dat je een duidelijk HTML-crawl pad uitstippelt, bijvoorbeeld via interne links als breadcrumbs. Zo worden belangrijke pagina’s en producten altijd gevonden door zoekmachines.

Deze aanpak heeft met de correcte implementatie de voorkeur, omdat het in één keer duplicate content en kannibalisatie voorkomt en tegelijk het crawl budget beter benut. URL’s worden via filtering niet aangepast maar de content verandert wel door het gebruik van JavaScript. Deze oplossing zorgt er dus voor dat content op filterpagina’s dynamisch wordt ingeladen, zodat de ongewenste filterpagina’s buiten de index worden gehouden.

Het nadeel is dat deze oplossing niet op een bestaande facetnavigatie toegepast kan worden. De facetnavigatie moet namelijk vanuit het basis framework gebouwd worden. Dat vergt een flinke investering in development en een haarscherpe uitvoering.

Hoe haal ik nu het meeste uit mijn facetnavigatie?
  • Benut de voordelen van facetnavigatie voor SEO door meerdere oplossingen te combineren en vertrouw niet op een enkele maatregel. De gekozen manier dient alle issues op te lossen en daarvoor heb je vaak meerdere methodes nodig.
  • Naast filters, zorgt de menustructuur ervoor dat content makkelijker wordt gevonden die voor jouw website belangrijk is. Baseer de menu items op basis van intern en extern zoekgedrag. Intern bijvoorbeeld via de interne zoekmachine en extern op basis van zoekvolume en potentie op organisch verkeer.
  • Richt jouw site in via een heldere silostructuur, waarbij een categorie of thema op de website een silo representeert. Dit bereik je door interne links binnen de silo tussen onderlinge pagina’s te plaatsen, hierdoor creëer je relevantie rondom een onderwerp.
  • Implementeer rel=”next” en rel=”prev” om een reeks categoriepagina’s te groeperen als je meerdere opeenvolgende pagina’s hebt die producten uit dezelfde categorie bevatten.
  • Een duidelijk crawlpad is via breadcrumbs is nodig, waarbij elke pagina linkt naar de bovenliggende pagina in de structuur en onderliggende pagina’s die tot dezelfde silo behoren.
  • Maak gebruik van facetnavigatieregels die gebaseerd zijn op volgorde en het aantal filters dat wordt toegepast.
  • Voeg alleen canonical URL’s toe aan de sitemap en laat interne links hiernaar verwijzen.
  • Facetten dienen voor de gebruiker makkelijk en in een logische volgorde te worden weergegeven.
  • Wanneer een bepaalde filtercombinatie veel traffic ontvangt, of die potentie heeft vanuit keyword research, dan wil je deze pagina waarschijnlijk laten indexeren.

Hoewel facetnavigatie uitstekend voor UX kan uitpakken, brengt het voor SEO veel problemen met zich mee: duplicate content, verspilling van linkwaarde en crawlbudget. Dit heeft ernstige gevolgen op grote eCommerce websites. Het is daarom cruciaal om de juiste combinatie van oplossingen in te zetten, dat is altijd maatwerk.

Deel dit bericht

12 Reacties

Rob

Super interessant artikel Samuel, thanks!

Samuel - Dept Agency

Bedankt Rob!

M - Let's build IT B.V.

Als kleine aanvulling, ook in Google Webmasters kun je in geval je filters met queries werken url?maat=XL aangeven wat de queries doen en of dit een impact heeft op de inhoud van de pagina.

Rob

Goede toevoeging M.,

Is dit dan van invloed op iets? Crawl budget of dergelijke?

Martijn - Let's build IT B.V.

Als je op de link klikt (naam) kom je uit bij het Google artikel over die URL Parameter opties in Webmasters, je kunt ze uitsluiten van indexeren wat je crawl budget bespaart (dat kunnen er omvangrijk veel zijn als je 3 a 4 filters heb en duizenden producten)

Alleen geen foutjes maken 🙂

Ab Doel

Wanneer wordt Emerce eens kritischer op de content die zij publiceren. Kwaliteit holt achteruit.
Staan toch wel paar fouten in het artikel, maar goed fouten maken is menselijk!
Bijv.: een robots.txt bestand regelt niets met indexatie. Onzin dat dit wel gesuggereerd wordt.
Bovendien lees ik nog wel een eenzijdige kijk op AJAX (JavaScript) oplossing. URL-technisch gezien kan het een voordeel zijn, maar het kan ook problemen geven met het lezen van content… uiteraard afhankelijk van hoe e.e.a. wordt aangeboden.

Samuel

Hi Ab Doel,

Bedankt voor je reactie! Het is natuurlijk belangrijk om goed af te wegen welke oplossing het beste bij jouw situtie past. Via de laatste afbeelding laat ik zien dat pagina’s die geblokkeerd worden vanuit de Robots.txt, nog steeds in de index kunnen verschijnen.

Als de robots.txt niet van invloed is op indexatie in zoekmachines, laat even weten wat er gebeurt met je geindexeerde pagina’s als er een “disallow: /” aan je robots.txt wordt toevoegd.

Helemaal eens dat er ook haken en ogen zitten aan de JavaScript oplossing. Daarom word in het artikel beschreven dat het een flinke investering in development vraagt en een haarscherpe uitvoering. Wellicht een leuk onderwerp voor een volgend artikel 😉

Ab Doel

Ha Samuel!

Ja die laatste screenshot staat haaks op jouw stelling: dat robots.txt (disallow) zaken kan regelen met indexatie. Lees hier meer info over: http://www.robotstxt.org/robotstxt.html .
(The “Disallow: /” tells the robot that it should not visit any pages on the site.)
Vrij vertaald: het zegt iets over het bezoeken/lezen van een pagina …

De enige manier zou kunnen zijn bij een volledig nieuwe website, dan draagt het niet lezen bij aan geen indexatie. Maar dit lees ik niet in jouw verhaal.

Bij een huidige website:
Waarom krijg je anders in de SERP (!!) de melding dat er een robots.txt disallow/block is? Dit zou dan toch niet mogen IN de SERP als robots.txt iets doet met indexatie?

Maar goed, fijn weekend! 🙂

Rob

Ik ben overigens ook wel enorm benieuwd naar jullie mening op onderstaande.
Als ik kijk naar bijvoorbeeld https://www.kleding.nl of https://woonartikel.nl, veranderd de h1 titel en de meta-title en description in de filter benaming. Bijvoorbeeld “Rode overhemden” wanneer je bij overhemden op rood filtert. Toch worden al die filters blijkbaar geïndexeerd. Is het slim om dat indexbaar te laten, of juist alle filters niet laten indexeren en alle waarde aan alleen de niet gefilterde productpagina te verzetten. En dan met behulp van bijvoorbeeld blogs dieper op de longtail te gaan?

Reuze benieuwd naar jullie visie hierop.

Samuel - Dept

Leuk om te zien dat het onderwerp zoveel reacties oproept!

@Ab Doel, bedankt voor de verduidelijking. Je hebt gelijk dat je via de robots.txt geen pagina’s uit de index kan laten verwijderen. Maar door de richtlijn om pagina’s niet te laten bezoeken wordt wel voorkomen dat een pagina wordt geindexeerd. Mits de pagina geen follow links ontvangt vanaf andere locaties op het web 😉

@Rob, dat is precies het punt dat ik probeer te maken bij het kopje “Facet Issues”, in sommige gevallen wil je filterpagina’s juist wel laten indexeren. Dit kun je bepalen op basis van het zoekvolume op bijvoorbeeld: Rode overhemden. Ik zou het dus indexeerbaar laten wanneer de pagina potentie heeft om organisch verkeer te trekken. Over het algemeen zijn blogs heel geschikt om relevante longtail vragen te beantwoorden en consumenten te inspireren.

Rob

Bedankt voor je reactie Samuel.
Inderdaad! Ik denk omdat het nog nooit ergens goed of duidelijk beschreven lijkt te zijn. Dit is na lang in de gaten houden het eerste duidelijke artikel die beschrijft wat de mogelijkheden zijn en wat eventueel consequenties zijn!

Arno Ham - Sana Commerce

Bedankt Samuel voor deze inzichten.

In aanvulling daarop, wat misschien niet direct heeft te maken met facetnavigatie maar wil je content goed kunnen managen voor SEO-doeleinden binnen je webshop, dan biedt een geintegreerde e-commerce oplossing op het ERP ook zeker een goede uitkomst.

De oplossing van Sana toont informatie op een zoekmachine-vriendelijke manier; specificaties worden netjes getoond, omschrijvingen zijn goed opgemaakt en de productnamen worden weergegeven als kopje en in de paginatitel, etc. Staat de informatie goed in het ERP, dan zorgt Sana dat het volgens de SEO-principes wordt ontsloten en gepresenteerd.

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond