Deel dit artikel
-

Overzicht: SEO in 2010

Het zoeklandschap verandert sterk in 2010. De basis blijft al jaren grotendeels hetzelfde, maar de nadruk ligt dit jaar op snellere websites en de integratie van social media in de zoekresultaten. Bovendien wordt klikgedrag steeds zwaarder meegewogen in de ranking, niet in de laatste plaats voor de personalisatie van zoekresultaten op individueel niveau.

Google definieert de kwaliteit van zoeken als het geven van het meest exacte en meest relevante antwoord in de kortst mogelijke tijd: time-to-result. Voor Google staan er 2 waardes centraal in alles waar het om zoeken gaat: relevantie en snelheid. Met name deze laatste factor heeft de laatste maanden veel aandacht gekregen.

Make the web faster

De zoekmachinegigant heeft de afgelopen maanden veel producten gelanceerd op het gebied van snelheid onder de noemer van de campagne ‘Make the web faster‘. Bijvoorbeeld de tool Page Speed, die webmasters adviseert hoe ze hun site sneller kunnen maken. Ook toont Google nu informatie en advies over de laadtijd van de website in Google Webmaster Hulpprogramma’s. Daarnaast heeft Google initiatieven ontplooid om het web sneller te maken, variërend van eigen DNS-servers, Google Public DNS, en een voorstel voor een snellere variant van het HTTP protocol genaamd SPDY.

Googler Matt Cutts gaf zelfs aan dat de laadtijd van websites in 2010 ‘wel eens een ranking factor kan worden’. De signalen zijn duidelijk: Google neemt de laadtijd, van websites zeer serieus.

Snelheid & "heen en weer" zoekgedrag

Stel: de gebruiker zoekt iets en klikt vanuit de zoekresultaten door naar verschillende webpagina’s. Als de webpagina niet binnen enkele seconden laadt, is de knop "Vorige" in de webbrowser snel gevonden om een ander zoekresultaat te kiezen. Dit ‘heen en weer’ zoekgedrag komt veel voor. Zo laat Google’s eigen onderzoek zien dat alleen het vertragen van de laadtijd van zoekresultaten met 100 tot 400 milliseconden al leidt tot 0,2 tot 0,6 procent minder zoekopdrachten.

Google en andere zoekmachines meten op welk zoekresultaat de gebruiker klikt en of de bezoeker via de ‘terugknop’ weer terug bij de zoekresultaten komt. Dit kan duiden op 2 zaken: ofwel er is geen relevantie ofwel een (te) lange laadtijd. Feit is dat de zoeker een slechte ervaring heeft en niet snel vindt wat hij zoekt. Dat straalt af op de kwaliteit van Google.

De laadtijd van websites is een factor die sterker mee gaat wegen in de rangschikking van de natuurlijke zoekresultaten (zoals ook in de kwaliteitsscore van Google AdWords).

Relevantie & ‘heen en weer’-zoekgedrag

Google heeft onlangs zelfs bevestigd dat het klikgedrag meeweegt in de ranking van Google Nieuws.

De redenatie hierin is als volgt: het is logisch dat het eerste zoekresultaat meer klikken ontvangt dan het tweede zoekresultaat. Het derde zoekresultaat ontvangt nog minder klikken, enzovoorts. Als van een zoeker wordt verwacht dat hij op het eerste resultaat klikt, maar hij kiest bijvoorbeeld het vierde resultaat, dan is dit een belangrijk signaal. Zeker als dit gedrag over een grote(re) groep zoekers voorkomt, is het logisch om het zoekresultaat op de vierde positie hoger te gaan rangschikken.

Deze doorklikratio is al langer een van de belangrijkste factoren in het rangschikken van Google AdWords-advertenties. Nieuw is dat Google voor het eerst publiek heeft toegegeven dat de doorklikratio ook meeweegt in de natuurlijke zoekresultaten.

Personalisatie zoekresultaten

De doorklikratio vanuit de natuurlijke zoekresultaten is uiteraard ook een belangrijke factor in de personalisatie van zoekresultaten. Als een bepaalde website vaker wordt bezocht vanuit de zoekresultaten, is dat voor Google een eerste signaal dat die website relevanter is.

Als Google daarnaast ziet dat de gebruiker de website vaker bezoekt, zal Google de betreffende website hoger gaan rangschikken in de zoekresultaten voor de specifieke gebruiker. Ook hierin wordt in 2010 een toename verwacht, met name omdat Google vanaf december 2009 ook zoekresultaten personaliseert wanneer de gebruiker niet is ingelogd bent met zijn Google-account.

Google real-time zoekresultaten

Nieuw is real-time search.  Als de gebruiker zoekt op een onderwerp, met name een populair onderwerp waar Google een real-time component kan ontdekken, integreert Google actuele berichten vanuit bijvoorbeeld Google Nieuws, Twitter of Facebook in de zoekresultaten. In feite was Google hiermee al een eind op weg in Google Trends, specifiek Google Hot Trends, en Google Insights for Search. Daar is al inzicht in populaire, actuele onderwerpen.

Google kijkt eerst naar de relevantie van deze berichten, waarbij ‘spammy’ berichten pagina’s eruit worden gefilterd. Daarna worden de real-time zoekresultaten op actualiteit gerangschikt.

Social Search

Een andere interessante nieuwe uitbreiding van Google is Social Search. Wanneer de gebruiker is ingelogd in zijn Google-account, verschijnt onderaan de zoekresultaten een box met 2 resultaten uit zijn online sociale omgeving. Google kijkt daarbij naar sociale netwerken die zijn hebt opgegeven in het Google-profiel. Social Search is nog in ontwikkeling, te vinden in Google Labs waar de gebruiker het handmatig moet inschakelen.

Een dienst als Social Search laat zien dat Google de invloed van sociale media zeer serieus neemt. Met de Social Search zoekresultaten, aangevuld met de real-time zoekresultaten, verzamelt Google ook data over de relevantie van berichten uit sociale netwerken. Dit leidt in 2010 tot een uitbreiding van zoekresultaten vanuit sociale netwerken.

Sociale media zoals Twitter bieden Google nieuwe kansen om te zien of een website "leeft" bij mensen. Hoe vaak een merknaam of website wordt genoemd in dat soort diensten, wordt een factor bij het beoordelen van de populariteit van websites. Neem twee sites die exact gelijk zijn, maar een er van wordt veel meer genoemd op Twitter, dan is het een goede ‘overwegingsfactor’ om juist die website hoger te tonen in de resultaten.

Ingezonden artikel door Joost de Valk, Principal Consultant bij OrangeValley en Eduard Blacquiere, SEO Consultant bij OrangeValley.

Deel dit bericht

5 Reacties

Zoekvisie

Een aanvulling: bij de doorklikratio gaat het ook (en misschien zelfs wel vooral) om hoe vaak er doorgeklikt wordt naar pagina's uit een bepaald domein. Het zou bijvoorbeeld kunnen dat de doorklikratio van pagina's van de New York Times duidelijk hoger ligt, dan je mag verwachten op grond van hun positie in de zoekresultaten. Dat is dan een sterk signaal voor Google dat de New York Times een belangrijke bron van informatie is voor bezoekers. Alle pagina's van de New York Times stijgen in de zoekresultaten. In feite zijn alle ontwikkelingen, die jullie noemen al in 2009 in gang gezet. Wat er nog bij zou kunnen is Microformats/RDFa. Google ondersteunt al diverse Microfirmats. Je ziet de resultaten ervan steeds vaker in de zoekresultaten. Verder is er nog de aanstaande komst van HTML5. Nu nog geen offici?le standaard, maar veel van de nieuwe mogelijkheden worden al in browsers ondersteunt (alleen IE blijft nog achter). HTML5 biedt allerlei nieuwe mogelijkheden (bijvoorbeeld op het gebied van video), die ongetwijfeld ook voor SEO ook weer uitdagingen opleveren. 

Martin

Quote:"Als Google daarnaast ziet dat de gebruiker de website vaker bezoekt, zal Google de betreffende website hoger gaan rangschikken in de zoekresultaten voor de specifieke gebruiker. Ook hierin wordt in 2010 een toename verwacht, met name omdat Google vanaf december 2009 ook zoekresultaten personaliseert wanneer de gebruiker niet is ingelogd met zijn Google-account." Hoezo privacy, hoezo het ongevraagd volgen van mijn surfgedrag?Ben ik nu de enige die denkt, met dit soort technolgieen van Google moeten we helemaal niet zo blij zijn. Het gaat hier wel om de GROOTSTE online advertentie verkoper.

Wiebe

Google is een bedrijf, dat net als u en ik geld probeert te verdienen met internet. Om de inbreuk op de privacy geaccepteerd te krijgen moeten ze het dus verkopen als service. Gevolg is wel, dat 99% van de websites kansloos worden en dat investeren in SEO steeds meer weggegooid geld is, tenzij je een nichemarkt bedient. Wat Google doet is slim, tot WIJ Google met elkaar op de blacklist zetten. Maar dan moet er wel een volwassen alternatief zijn.

Bas Groot

De snelheid van je website is voor grote sites met veel pagina's om een nog veel banalere reden belangrijk: hoe sneller je site, hoe meer pagina's Google per dag kan indexeren. Veel mensen denken dat Google eens in de zoveel weken "langskomt". Zo werkt het niet. Google indexeert je site nooit in een keer, die spidert 24 uur per dag constant kleine 'kluitjes' pagina's.  Hoe groter en complexer je site, hoe langer het kan duren voordat Google alle pagia's heeft doorlopen en veranderingen zoals nieuwe pagina's heeft gevonden.  De snelheid waarmee Google de boel doorloopt hangt van een aantal dingen af zoals HTML met kloppende last-modified datums, decanonicalisatie, relevante content en gemiddelde verversingsgraad, maar de reactiesnelheid en downloadsnelheid zijn absoluut factoren in de verversingsgraad deze. Verder is de snelheids-monitor die Google adverteert nog een beetje betrekkelijk, want hij werkt alleen echt betrouwbaar bij hele drukke sites. Bovendien zitten er altijd een paar vreemde adviezen bij: Hij stelt voor het aantal DNS Lookups te verminderen door Google Analytics op je eigen domeinnaam te gaan draaien… tja.

Joost de Valk - OrangeValley

@Zoekvisie: je hebt helemaal gelijk, dit is allemaal in 2009 al in gang gezet. We noemen juist deze lijst nu omdat het n? belangrijk wordt voor websites en hun eigenaren om d'r ook echt mee aan de slag te gaan. Het feit dat Google dingen roept over al dit soort zaken betekent, helaas, nog lang niet altijd dat de realiteit ook al zo dichtbij is, zeker niet in Nederland.  De microformats zijn daarvan ook een mooi voorbeeld: ze verschijnen nu langzamerhand overal, nadat Google ze een half jaar geleden al had aangekondigd… Natuurlijk adviseren wij onze klanten al een tijd om die microformats waar mogelijk te gebruiken. Overigens heb ik zelf op 22 januari 2007 al een artikel geschreven met als titel "Googling for microformats": het is voor mij een droom die eindelijk uitkomt :) @Martin: De discussie over privacy wil ik graag met je voeren, maar niet hier 🙂 feit is dat het een re?el feit is dat Google dit soort data gebruikt om haar rankings te verbeteren, en dat we daar dus ons voordeel mee kunnen doen. @Wiebe: ik ben niet met je eens dat investeren in SEO zinloos is. Het is niet meer zo makkelijk als het ooit was, toen je met wat meta keywords en andere rariteiten je site zo kon laten ranken, maar het is nog steeds uiterst zinvol en in de meeste gevallen die wij kennen heeft het een veel hogere ROI dan AdWords. Het enige verschil is dat de aanloopkosten in een SEO traject vaak hoger zijn en dat het werkelijke inspanning en aanpassingen aan je website en gedachtes over content vereist. @Bas: je maakt een goede aanvulling dat het ook te maken heeft met hoeveel pagina's Google kan indexeren. Je moet echter 1 ding in je achterhoofd houden: zelfs als je site maar 200 pagina's is, en Google dus makkelijk alles kan indexeren, is de snelheid een heel belangrijke factor voor Google omdat die direct invloed heeft op de gebruikerservaring.  Wat betreft die DNS lookups: daar kun je over discussi?ren inderdaad, vooral aangezien er vele sites zijn die Google Analytics draaien, dus de kans is erg groot dat die javascript file al bij de gebruiker in z'n cache zit. De basis gedachte is echter prima: als je geen goede reden hebt om een domein toe te voegen waar een extra resource vandaan komt, doe het dan niet. In dit geval zou ik het echter ook zeker niet doen.

Plaats een reactie

Uw e-mailadres wordt niet op de site getoond