SEO-audit

Welke aspecten bevat een goede SEO-audit?

Een SEO-audit lijkt voor sommigen een heel technisch iets. Dat is het uiteraard voor een stuk ook, maar wij helpen jou graag op weg. Voor elke website is er altijd nog wel ruimte voor verbetering. Heb je geen idee of jouw website duplicate content bevat? Twijfel je of jouw website wel mobielvriendelijk is? Nog nooit gehoord van een XML-sitemap? Lees deze blog en SEO-begrippen worden voor jou een pak duidelijker.

Waarom zijn de technische SEO-aspecten belangrijk?

Stel je hebt een website met heel wat goede content die ook andere kwalitatieve websites kan overtuigen om naar jou te linken. Klaar? Uiteraard niet, want indien de Google-bots jouw pagina’s niet naar behoren kunnen crawlen, zullen deze laatste ook niet geïndexeerd worden. Deze zullen dan ook in de zoekresultaten niet getoond worden. Daarom is het belangrijk om je verder bewust te worden van de technische aspecten van SEO.

Welke SEO-aspecten moet je checken?

Identificeer crawlingproblemen met een crawl rapport

Door een rapport te maken over jouw website ontdek je hoe het gesteld is met alle technische SEO-aspecten van jouw site. Het vertelt je meer over onder meer eventuele duplicate content, de laadsnelheid, de page titles, de H1 en H2-tags, …

Hiervoor bestaan allerlei handige tools zoals bijvoorbeeld Screaming Frog.

Crawlen en indexeren

Het bovenstaande voorbeeld brengt ons meteen bij het eerste belangrijke punt. Zoekmachines doen drie zaken:

  1. Crawlen van webpagina’s op zoek naar relevante content voor specifieke zoekopdrachten.
  2. Indien relevant genoeg wordt de pagina geïndexeerd met de content, de meta-informatie en de locatie van die pagina.
  3. Wanneer iemand dan een specifieke zoekopdracht doet in Google, worden de meest relevante zoekresulaten weergegeven op basis van de index

Anders gezegd niet gecrawld, betekent geen indexering en dus ook geen kans om getoond te worden in de zoekresultaten. Kom dus te weten welke pagina’s van jouw website niet geïndexeerd werden en zoek een oplossing.

Hoe weet je welke pagina’s geïndexeerd werden?

  1. Je kan een eerste idee krijgen door in de zoekbalk site: gevolgd door de URL van jouw website, zonder de http://www, te typen. Deze methode echter niet waterdicht en alleen al tussen bv. google.be en google.nl is het aantal pagina’s dat zou geïndexeerd zijn, sterk variabel. Wanneer jouw website niet bovenaan de zoekresultaten staat is het heel goed mogelijk dat je jouw eigen website verhindert om geïndexeerd te worden.
  2. Wil je meer zekerheid, gebruik dan Google Search Console. Deze tool vertelt je niet alleen hoe vaak jouw website gcrawld werd, maar ook hoeveel pagina’s effectief geïndexeerd werden.
  3. Via Google Analytics (Rapportage>Aquisitie>Zoekmachineoptimalisatie>Bestemmingspagina) geeft je een beeld van het aantal unieke pagina’s dat door de Google-bot minstens één keer gecrawld werd.

Lees hier meer over indexeren.

Check de HTTPS status codes

Alle pagina’s op jouw website https maken, is een absolute must. Doe je dit niet, dan hebben robots noch bezoekers toegang tot jouw webpagina’s. Ze zullen enkel 4xx en 5xx http status code te zien krijgen.

Bovendien is https een rankingsfactor voor Google. Heb je dus nog pagina’s met http, dan zullen deze het niet goed doen in de ranking.

Controleer ook via Google Search Console op eventuele andere status code errors en los ze ze zo snel als mogelijk op.

Robots.txt

Het gaat hier om een bestandje dat je op jouw website kan plaatsen waarmee je de Google-bots duidelijk maakt welke pagina’s ze eventueel niet mogen crawlen. Denk daarbij bijvoorbeeld aan de check-outpagina van jouw webshop.

Of je kan bijvoorbeeld ook met dit bestandje verhinderen dat bepaalde zoekmachines jouw website crawlen. Weet dat het crawlen van jou website ook nadelig kan zijn voor de laadsnelheid, vandaar valt het te overwegen.

Check tegelijk ook met behulp van Google Search Console of deze file niet ongewild bepaalde robots verhindert om jouw website te crawlen.

Lees hier meer over Robots.txt.

Check XML sitemap status

Met de XML-sitemap geef je eigenlijk een plattegrond van jouw website aan de Google-en-andere-bots waardoor ze nog makkelijker jouw pagina’s kunnen vinden.

Meer informatie vind je hier

Eens jouw sitemap klaar is kan je deze tonen aan de Google bots dankzij de Sitemap tool in Google Search Console

Canonicalization

Stel je hebt verschillende pagina’s op jouw website met ieder een unieke URL die echter haast identieke content bevatten. Dan is een canonical tag aangewezen. Gebruik je deze niet dan is dit nadelig voor de page authority van de betrokken pagina’s.

De linkwaarde die jouw website anders zou krijgen via een inbound link naar één pagina, wordt zonder canonical tag verdeeld over de pagina’s met identieke content. SEO-matig is het veel interessanter dat slechts één pagina de volle linkwaarde van de inbound link ontvangt. Daarnaast worden deze pagina’s met identieke content, zonder canonical tag als duplicate content beschouwd. Dat is dan weer nadelig voor jouw weergave in de SERP.

Om dit alles te vermijden stel je dus best een rel=”canonical” tag. Deze plaats je in de html header. Op die manier weten de zoekmachines welke pagina de belangrijkste is, van alle pagina’s met dezelfde content.

Laadsnelheid

Een volgende belangrijk te controleren punt is de laadsnelheid van jouw website. Een te trage laadsnelheid heeft in de eerste plaats een negatieve invloed op de gebruikservaring. Het zorgt ook voor een hogere bounce rate en een kortere time on page. Laat deze laatste twee nu net ook twee rankingsfactoren zijn die zoekmachines hanteren.

Om de laadsnelheid van een URL te kennen kan je Google PageSpeed Insights gebruiken.

De laadsnelheid heeft nog verder aan belang gewonnen na de invoering van de mobile-first indexering door Google. De algemene regel is dat de laadsnelheid van een pagina, desktop en mobiel, minder dan drie seconden moet bedragen.

Hierbij enkele tips:

  1. Gebruik de eerdergenoemde tool Pagespeed Insights of GTMetrix om na te gaan welke pagina’s traag laden, wat de oorzaak is en hoe deze eventueel op te lossen zijn.
  2. Bekijk zeker ook eens kritisch of de huidige hosting van jouw website de meest optimale laadsnelheid voor jouw website levert.
  3. Maak alles op jouw website zo compact als mogelijk. Ga bijvoorbeeld zoveel als mogelijk voor gecomprimeerde afbeeldingen die kleiner zijn dan 50kb. Leeg regelmatig de caching van jouw website. Ga op zoek naar broken links en verwijder deze. Besteed extra aandacht aan een nette html.

Mobiel

Er wordt steeds meer mobiel gesurft én geshopt. Google beloont dan ook al drie jaar websites die mobielvriendelijk zijn met een mogelijk hogere ranking in de SERP. Een website die ook op mobiel een goede laadsnelheid, een goede duidelijke structuur heeft een responsive design is dus heel belangrijk.

Laat je niet verleiden om twee aparte websites te maken. Het is niet alleen veel duurder, maar dan heb je meteen ook dubbel zoveel werk met updates.

Test hier alvast of jouw website mobielvriendelijk is.

Zorg verder voor duidelijke call-to-action buttons en vermijd het gebruik van pop-ups, flash, zooming, etc.

Check op dubbel gebruik van zoekwoorden

De zoekmachines geraken verward wanneer ze twee pagina’s vinden op jouw website die inzetten op hetzelfde zoekwoord. Dit kan resulteren in een lagere CTR, lagere page authority en een lagere conversion rate.

Om te weten welke pagina’s op jouw website op hetzelfde zoekwoord targeten ga je in Google Search Console op zoek naar het prestatierapport.

Controleer de meta descriptions

Ga op zoek naar duplicate meta descriptions en ontbrekende meta descriptions.

Vooral dat eerste is een bekend en vrij courant SEO-probleem bij hele grote websites met heel veel pagina’s.

Gebruik een SEO-tool als Screaming Frog om de meta descriptions van jouw website te ontdekken. Neem vervolgens zeker voldoende tijd om voor een aantal belangrijke pagina’s een unieke meta description te schrijven.

Lengte Meta description

Wanneer je dan toch bezig bent met het aanpassen van de pagina’s met een zelfde meta descriptions, kan je meteen ook de lengte van deze meta descriptions bekijken. Het kan de CTR vanuit de SERP naar jouw pagina’s positieve beïnvloeden.

Google heeft in de afgelopen zes maanden wat gegoocheld met de lengte van deze meta descriptions.

Lees hier in onze recente blogpost alles over de aangewezen lengte van een meta description.

Controleer op broken links

Een laatste iets wat je ook best uitvlooit zijn de zogenaamde broken links. Deze broken links verkwisten niet alleen een stuk van je crawl budget, ze zorgen ook voor een negatieve gebruikservaring en resulteren in een lagere ranking.

Gebruik bijvoorbeeld Dead Link Checker om de broken links van jouw website te ontdekken.

Conclusies

Er zijn dus heel wat SEO-aspecten die je kan meenemen in een grondige SEO-audit van jouw website.

Wij wensen je alvast veel succes toe met het verder optimaliseren van jouw website op SEO-vlak.