Introduktion

Att skapa fantastiskt innehåll riktat mot din utvalda kundgrupp är en del av arbetet med SEO. Noga utvalda sökord och fraser som besvaras med bra innehåll är bara en del av arbetet med att synas. Andra sidan av myntet är den tekniska biten. Att förenkla och underlätta för Google/Bing att crawla hemsidan och hitta vital information och content. Den här guiden kommer att gå genom de punkter som jag brukar titta på i första hand när jag gör en teknisk audit.

1. Vad är Teknisk SEO?

En kort beskrivning av vad Teknisk SEO är;

Att optimera en hemsida efter Googles riktlinjer kopplade till laddningstider, struktur, metadata och kod. Kort och gott så vill man ge hemsidan en så ärlig chans som möjligt att kunna indexera och ranka med det innehåll som finns publicerat på den. Den tekniska SEOn ska ge innehållet (on-page) en så bra förutsättning som möjligt att plockas upp av en sökmotor.

2. Varför är det viktigt att jobba med Teknisk SEO?

När jag började jobba med SEO så var det fullt fokus på innehållsbiten. Att skapa bra, unikt innehåll som fokuserar på de prioriterade sökorden som jag hade valt att arbeta med. Men snabbt insåg man att i vissa fall indexerar inte hemsidan överhuvudtaget och i andra fall stöter man på väldigt höga trösklar som gör att man inte kommer in på förstasidan. För att en person ska kunna hitta innehållet vi presenterar behöver sökmotorer hitta innehållet först. Utan en hemsida som fungerar korrekt kommer bottarna inte åt det innehåll som vi har på hemsidan.

Innehållet och att möta den potentiella besökarens intention är otroligt viktigt. Men samtidigt som man fångar in trafik så behöver vi ge besökarna en så bra upplevelse som möjligt. Att sidan laddar in inom en viss tid, att elementen är synliga på mobila enheter utan att skapa en för plottrig och oläsbar sida.

Den tekniska SEOn har gått mer och mer åt användarupplevelse. Google har satt vissa krav som enligt mig är otroligt bra och som ökar kvalitén på hemsidorna. Google vill ge sina användare innehåll (det som finns på alla hemsidor) som håller hög kvalité. För att kunna göra det behöver man ställa krav på dem som äger hemsidorna. Genom att ha de tekniska SEO bitarna med sig hela tiden jobbar vi aktivt med att synas idag samtidigt som vi framtidssäkrar vår hemsida för kommande uppdateringar.

3. Viktiga områden inom Teknisk SEO

a) Laddningstider och prestanda

Laddningstider är något som man har pratat mer och mer om de senaste två åren. Laddningstiden är inte bara att allt ska vara synligt på exempelvis en mobil skärm utan även tiden fram till att allt är synligt. Hur lång tid tar det innan man kan använda sidan? Hur lång tid tar det innan man kan använda en funktion?

I kommande inlägg kommer jag att gå in på djupet på hur man mäter och får fram hur en hemsida presterar. Om du vill kan du prova själv med hjälp av följande plugins till till exempel Chrome:

Lighthouse:

Page Speed Insight:

GTmetrics:

b) Mobile-Friendliness & Responsive Design

Lite gammal information men otroligt viktigt då jag ofta stöter på motstånd kring det här. Att ha en mobil version av sin hemsida. Eller mobil version är kanske fel att skriva men att den är responsiv och fungerar på mobila enheter. Google indexerar mobilversionen först och har man inte en hemsida som fungerar på mobila enheter så halkar man efter ordentligt.

Att den fungerar på en mobil är viktigt men man ska kunna använda hemsidan på mobilen också. Elementen man visar ut ska vara tillräckligt stora för att kunna trycka på dem med tummen. Texten ska vara tillräckligt stor för att man ska kunna utläsa den och bilder ska laddas in och visas ut på korrekt sätt.

c) Säkerhet (SSL)

Att hemsidan är säker är en annan viktig del. Hela hemsidan ska omslutas av ett SSL certifikat som möjliggör ’safe browsing’. Utan ett aktivt SSL-certifikat blir det nästintill omöjligt att synas högt på en sökning som har en betydande sökvolym.

SSL-certifikat kan du generera väldigt enkelt där du hostar din hemsida. Oftast kan du välja mellan gratis och betal-certifikat. Jag själv har alltid valt gratisvarianter och jag har inte märkt någon skillnad.

Det du bör tänka på är att peka om alla icke-säkra url:er (HTTP) till HTTPS med 301-ompekningar.

d) XML Sitemaps & Robots.txt

XML sidkartan är en lista med url:er som du vill ska bli indexerade. Sitemapen skall endasts innehålla url:er som svarar med en HTTP 200 kod. Ett vanligt fel är att sidkartan inte uppdateras och innehåller sidor som inte existerar längre eller url:er som är ompekade.

Sidkartan används för att på ett enkelt sätt förstå hemsidans struktur samt gör det enkelt för en sökmotor att hitta alla sidor.

När det kommer till Robots.txt filen så är det en fil som berättar för en bot vilka sidor som får crawlas och vilka som inte skall crawlas. Med hjälp av robots.txt kan du till exempel exkludera filtrerade sidor, sidor som kan tolkas som duplicerade. Du kan välja att exkludera sidor som finns bakom inloggat läge samt sidor som är dynamiska i form av exempelvis kundkorgar.

e) URL-struktur

När det kommer till sidstruktur bör man tänka på samma sätt som med organisationsstruktur. Man vill helst hålla hemsidans struktur så platt som möjligt. Jag försöker alltid att skapa en så logisk struktur som möjligt och jag har alltid besökaren i fokus.

En logisk urlstruktur kan enkelt användas på samma sätt som breadcrumbs för att navigera uppåt i strukturen. Med strukturen bör man egentligen tänka och planera så att olika innehållstyper hamnar tillsammans. Och att det finns en logik som gör det enkelt för besökaren samt sökmotorerna. Se även till att url:erna är ”snygga” och enkla att läsa samt.

f) Canonicals

Canonicallänkar bör användas för att undvika att innehåll klassas som duplicerat. Med hjälp av canonicallänkar kan du ha kontroll över vad som är duplicerat och vad som är orginalet. Detta kan vara lite svårt att förstå till en början men det är egentligen väldigt enkelt.

Om vi tar en sida som listar skor som ett exempel. På den här sidan kan vi filtrera på färger. Så fort vi gör den här filtreringen och väljer exempelvis [svart] så läggs en parameter på på url:en (oftast). Skillnaden mellan:

www.skor.se/skor

www.skor.se/skor?color=svart

Skillnaden mellan ovan url:er är egentligen urvalet av produkter som visas ut men i övrigt så är det samma sida. För att undvika att dessa sidor tolkas som duplicerade bör vi ha en en canonicallänk på www.skor.se/skor?color=svart som refererar till www.skor.se/skor. På så sätt minimerar vi risken för att Google indexerar den filtrerade sidan och utesluter orginalet som är www.skor.se/skor.

g) Brutna länkar och ompekningar

Brutna länkar är något som man bör titta på med jämna mellan rum. Med brutna länkar menar jag länkar som inte leder till en fungerande sida. En icke fungerande sida kan existera både internt och externt och därför är det viktigt att se över så att allt innehåll alltid funkar. Det är ganska vanligt att sidor släcks ned, det kan exempelvis vara produkter som utgår ur sortimentet eller artiklar som tas bort. När en sida tas bort så blir alla länkar som pekar till den sidan brutna.

När man har släckt ner en sida bör man i vissa fall tänka på peka om den sidan man släcker. Oftast kan man peka mot en ersättnignsprodukt eller en artikel som handlar om liknande ämne. På så sätt undviker man brutna länkar men behåller även trafik från externa källor som kanske har länkar till den specifika sidan.

4. Vanliga tekniska fel

Under mina år som jag har arbetat med teknisk SEO så har jag stött på en del problem som oftast upprepar sig. Oftast handlar det om:

Duplicerat innehåll
Robots.txt
Dåliga laddningstider
HREF=lang

Som ovan nämnt så löser caninicallänkar en stor del av problematiken med duplicerat innehåll. Oftast är det e-handlare som råkar ut för stora mängder av duplicerat innehåll men det finns även andra exempel på duplicerat innehåll. Det kan vara så att det finns flera artiklar som handlar om väldigt lika ämnen. Eller hemsidor som riktar sig mot olika länder där man pratar engelska. Detta kan också skapa duplicerat innehåll men man löser det med hjälp av href lang taggar. Det man ska komma ihåg är att ska man in och synas i ett specifikt land så bör man ha resurser till det. Man bör alltså kunna ta fram unikt innehåll riktat mot den specifika marknaden!

Robots.txt kan vara en annan sak som kan ställa till det med indexeringen av en hemsida. Det är väldigt enkelt att av misstag exkludera en hel sektion av en hemsida eller att exkludera hela hemsidan! Man bör läsa på med om robots.txt filer innan man bestämmer sig för att göra ändringar i den. Att sätta ”disallow: /” kommer att göra att sökmotorerna inte går in på någon utav sidorna. Och sakta men säkert kommer de sidor som är indexerade trilla ur index och du kommer att märka att trafikmängden till hemsidan minskar.

Page speed är en het potatis som många pratar om. Att kunna få till en hemsida som är visuellt snygg, med bilder och rörligt material men som laddar snabbt i mobila enheter. Här gäller det att hela tiden mäta och undersöka och skruva på små detaljer på hemsidan för att hitta sin väg framåt. Se över allt från bildstorlekar till kod och 3:e partslösningar som är implementerade.

5. Hur gör man en teknisk seo audit?

En rekommendation är att sätta upp en datastudiorapport som hämtar sin data från screamingFrog, google search console samt page speed insight. En visuellt snygg rapport som visualiserar nuläget samt historisk data på hur hemsidan mår. Du kan enkelt se allt från laddningstider till brutna länkar. När du ser att något skjuter i höjden börjar du undersöka. Då är Google Search Console samt Screaming Frog helt fantastiska verktyg som hjälper dig att hitta var felet ligger.

Om du behöver hjälp med att sätta upp en rapport eller att göra en teknisk audit på din hemsida kan du höra av dig till mig! Ibland räcker ett kort snack och en snabb check i andra fall behöver man göra en audit.