Facetterad navigering och SEO – så undviker du duplicate content och crawl budget-problem

Upplever du ett problem med att sidor kanske tolkas som duplicerade eller kanske indexeras som de ska? Detta är ett ganska så vanligt problem när det kommer till ehandels-sidor, speciellt med stora produktkataloger. Funktionen är nödvändig men det finns en utmaning när det kommer till SEO. Beroende på vilken platform du har valt så har du möjligheten att konfigurera den så att den presenterar rätt innehåll och inte duplicerade eller innehållsfattiga sidor. 

I den här artikeln går vi igenom vad facetterad navigering är, vilka SEO-problem den kan skapa och hur du hanterar dem på ett effektivt sätt.

 

Vad är facetterad navigering?

Facetterad navigering, även kallat filter-navigering eller filtrering. Du hittar den här funktionen på primärt kategorisidor (PLP) men de kan såklart och finnas på till exempel bloggsidor. Facetterade navigeringen låter användare kombinera olika egenskaper för att hitta rätt produkt. Varje filter skapas med hjälp av produktattributen som produkten är byggd på. Varje produkt, när den läggs upp på hemsidan består av ett gäng attribut som till exempel färg, storlek, material, pris etc. Med hjälp av dessa attribut som fyller filtervalen kan en kund filtrera fram en “svart”,”herr”, “jacka” i storleken “XL”. 

Varje gång du applicerar ett filter så läggs detta till på url:en vilket betyder att varje ändring kan tolkas som en “unik sida”

/kategori/jackor?farg=svart&storlek=xl&kon=herr

Detta skapar snabbt tusentals – ibland miljontals – kombinationer av URL:er.

 

Vanliga SEO-problem med filtreringar

1. Duplicate content

När flera URL:er visar samma eller mycket likt innehåll kan sökmotorer ha svårt att avgöra vilken version som är mest relevant att indexera. Det kan resultera i:

     

      • Ingen eller fel sida indexeras

      • Risk för sämre ranking

      • Brist på kontroll av det indexerade innehållet

    2. Överkonsumtion av crawl budget

    Om du har en hyftsat liten hemsida så behöver du inte tänka på crawlbudget. Men kommer du upp på en volym på ca 10 000 url:er så kan det vara värt att titta på vad som behöver vara nåbart av Google/Bing och vad som kan exkluderas.

    Genom att optimera detta kan du öka besöksfrekvensen och uppdateringsfrekvensen i sökmotorerna.

    3. Indexering av lågkvalitativa sidor

    Om filterkombinationer som ingen söker efter indexeras, kan det dra ner sajtens totala kvalitetssignal i Googles ögon. Filtersidorna består oftast av en specifika produkter/artiklar annars skiljer de inte sig från ursprungssidan. Det brukar också vara så att innehållet (texten/bilden) är densamma och det som skiljer sig är produkterna. 

    4. Utspädd intern/extern länkkraft

    Länkkraften från startsidan och kategorisidor kan spädas ut över hundratals irrelevanta filtersidor. Det är bättre att samla all kraft till den sidan som man önskar ska klättra och ranka.

     

    Lösningar och best practices

    Blockera med robots.txt eller noindex

    Om du vet att vissa filter-URL:er aldrig ska indexeras kan du blockera dem:

       

        • robots.txt: Blockerar crawl helt. Att använda sig utav robots.txt är perfekt om det handlar om oändliga url-kombinationer. Här kan du välja att exkludera en hel katalog vilket gör att du enkelt kan exkludera alla filter-url:er exempelvis. 

        • noindex: Tillåter crawl men förhindrar indexering. Vill du exkludera en specifik url så kan noindex vara en bra lösning. Men handlar det om ett stort antal så rekommenderar vi robots.txt istället. 

      Viktigt: Blockera inte URL:er i robots.txt om du samtidigt vill använda canonical-taggar på dem – Google kommer besöka sidorna och på så sätt kommer de inte se canonical-taggarna. 

       

      Använd canonical-taggar

      Om flera sidor har liknande innehåll, använd rel=”canonical” för att peka tillbaka till den huvudsakliga versionen (t.ex. kategorisidan utan filter).

      <link rel=”canonical” href=”https://www.exempel.se/kategori/jackor” />

      Rel Canonical referera per standard alltid till sig själv. Med detta visar man att sidan är unik och ska tolkas som unik och därför indexeras. Men tittar man på filtrerade sidor så är dessa inte unika, de är varianter av originalet och det som skiljer är bara hur och vilka produkter man väljer att presentera. Därför kan du använda rel canonical för att referera till sidan där man filtrerade produkter på för att slippa duplicerat innehåll. 

      Du kan såklart skapa unikt innehåll och kanske jobba med long-tail sökord. 

      Vissa filtersidor kan ha högt sökvärde, t.ex.:

      /kategori/jackor/herr/svart

      Om sökvolymen finns kan dessa sidor optimeras och länkas internt. Se till att de:

         

          • Har unikt innehåll

          • Är länkade från menyer, kategorier eller landningssidor

          • Har optimerade titel-taggar och H1

        Inom kort kommer vi att skapa en artikel om hur du kan förvandla dina tråkiga filtrerade sidor till något som faktiskt kan driva trafik!

         

        URL-parametrar i Search Console (för äldre sajter)

        Google brukade erbjuda inställningar för hur olika URL-parametrar skulle hanteras, men detta är numera borttaget i de flesta konton. Har du fortfarande tillgång kan det vara ett alternativ. Du måste dock vara väldigt försiktig innan du gör ändringar bland dina parametrar. Detta kan som mycket annat påverka din synlighet!

         

        JavaScript-baserade filter

        Bygg filter som uppdaterar innehåll på sidan utan att skapa nya URL:er. Detta kan minska SEO-problem, men kräver att du har fallback-lösningar för tillgänglighet och crawlbarhet.

         

        Teknisk implementation i populära plattformar

        WooCommerce:

           

            • Använd plugins som Rank Math eller Yoast SEO för att hantera canonicals

            • Blockera filterparametrar via robots.txt om de inte ska indexeras

          PrestaShop:

             

              • Genererar ofta många parametrar – överväg moduler eller anpassningar för canonical och indexering.

            Magento:

               

              • Kan generera otroligt många, unika url:er med hjälp av sina filtreringar och prisfilter. Se till att alltid jobba med canonicals/robots.txt för att undvika duplicerat innehåll men även slösad crawl budget.
               

              Övervakning och uppföljning

                 

                  • Använd Screaming Frog för att identifiera duplicerade URL:er och canonicals

                  • Följ upp indexeringsstatus i Google Search Console

                Facetterad navigering eller filter är ett otroligt bra verktyg för användaren. Utan funktionen hade användarupplevelsen inte varit densamma men den kan samtidigt vara en SEO-fälla. Den kan skapa problem för er om ni inte övervakar och ser till så att den är korrekt uppsatt.

                   

                    • Använd canonical där det behövs

                    • Identifiera filter med sökvärde och optimera dem

                    • Se till att crawlbudget och länkkraft används effektivt

                  Andra intressanta artiklar