SEO-misverstanden: sociale media

Regelmatig kom ik beweringen tegen waarvan ik me afvraag hoe iemand het durft te beweren. Zeker als je het niet kunt bewijzen of onderbouwen. Een van die beweringen is dat sociale media een rol spelen in SEO. Het is makkelijker te onderbouwen waarom dat niet het geval is dan te bewijzen dat het werkelijk zo is. Het zou namelijk echt niet moeten kunnen dat sociale media invloed hebben op SEO. 

Sociale media verbeteren je vindbaarheid

Ja, sociale media verbeteren je vindbaarheid. Spreek ik mezelf daarmee tegen? Absoluut niet. SEO heeft te maken met vindbaarheid, vindbaarheid is echter niet automatisch SEO. Wat je vindbaarheid vergroot, is dus niet per se zoekmachine-optimalisatie. En dat licht ik natuurlijk toe. Nu eerst de aanleiding voor dit artikel.

Bewering van een “online marketing specialist”

Iedereen kan zichzelf specialist noemen. Je moet echter wel bewijzen wat je beweert. Zeker wanneer je jezelf online marketing specialist noemt. Dus was dit bericht op LinkedIn wel uiterst interessant, zo uit de toetsen van een “online marketing specialist”:
Sociale media invloed op SEO bewering op LinkedIn
De eerste zin is helemaal waar, dat valt niet te ontkennen. Sociale media dragen bij aan de vindbaarheid van je website. Want hoe meer links naar je website worden gedeeld op sociale media, hoe meer mensen in aanraking komen met je website. Dus verbetert dat de vindbaarheid. Of bekijk het zo: links op je socialemediakanalen zorgen ervoor dat je potentiële doelgroep sneller in aanraking komt met je website. Zo dragen sociale media zonder meer bij aan de vindbaarheid van je website.

Maar dan: hoger in Google?

De bewering die op de eerste zin volgt, kan ik zonder problemen ontkrachten. Meer vermeldingen van je website op sociale media zorgen geenszins bij aan hogere posities in Google. Wanneer je dat zo stellig beweert, zul je dat toch echt moeten kunnen onderbouwen. En ik kan je vertellen: er is nog nooit bewijs geleverd dat sociale media een SEO-factor zijn. Sterker nog: dat zou ook niet moeten kunnen.

Sociale media als SEO-factor moet niet kunnen

Waarom sociale media geen invloed op SEO mogen hebben, is niet meer dan simpele logica. Zoals dat overigens wel meer geldt wanneer het om SEO gaat. En die logica wordt ook nog eens keihard waargemaakt door technische instellingen. Eerst de logica.

De theorie

Het is vrij simpel: het zou gewoon te makkelijk zijn om snel veel links te verkrijgen via sociale media. Al zou je iedere dag 1 link naar je website plaatsen, dan zou je in een jaar al 365 links vergaard hebben. Met 2 links per dag kom je op het dubbele en ga zo maar door. Alleen dat zou de verhoudingen compleet verstoren: wie veel links op sociale media zou delen, zou meer profijt hebben dan wie niets met sociale media doet.

Stel dat het wel kon en dat het bijvoorbeeld nog eens zou uitmaken als het verschillende accounts zouden zijn die de links deelden, dan maakte je toch verschillende accounts aan om die links te delen? Net zo makkelijk. Kortom: met sociale media zou het te makkelijk worden om het aantal links en dus je SEO te manipuleren. Kees Lamper van Lamper Design maakte hierover een rake opmerking in de reacties:

Sociale media spammen om goed gevonden te worden is een sprookje - Kees Lamper - Lamper Design

De praktijk

In de praktijk wordt linkbuilden via sociale media onmogelijk gemaakt door de nofollow-tag. Links in sociale media zijn standaard NoFollow, wat betekent dat ze geen linkwaarde overdragen en daarmee geen invloed hebben op de PageRank van jouw website.

Wat wel waar is

Wat wel waar is, is dat je door sociale media vindbaar kan worden. Maar dan wel zo, dat je socialemediaprofielen en/of -pagina’s gevonden worden in de zoekmachines. Zoek je op “Letterzaken”, dan vind je na mijn website direct mijn socialemediakanalen: Twitter, Facebook en Google+ (Google Mijn Bedrijf). Facebook zie je zelfs twee keer verschijnen:

Zoekresultaten Letterzaken met sociale media met 2x Facebook

Op mijn eigen naam is dat niet veel anders. Er zijn wat verschillen, zo komt LinkedIn erbij, is de volgorde wat anders en zijn sommige sociale media mijn persoonlijke profielen en niet mijn zakelijke kanalen. Bijzonder is overigens wel dat mijn website boven LinkedIn staat. Dat is niet zo vanzelfsprekend, omdat LinkedIn een website is met een forse autoriteit. Het is niet vanzelfsprekend dat je daar boven komt met je eigen website, zelfs niet als je website je eigen naam bevat.

Zoekresultaten Nathan Veenstra met sociale media

Beter vindbaar met sociale media, maar geen SEO

Sociale media dragen bij aan je vindbaarheid, maar niet (bewezen) aan SEO. Laten we dat helder hebben. Althans: niet direct. Op indirecte wijze kunnen sociale media wel degelijk bijdragen aan SEO. En wel op de volgende manieren:

Zoekmachinebots “ontdekken” je link 

Door je link op sociale media te plaatsen, komen de zoekmachinebots je pagina tegen, wat ze aanzet om die pagina te crawlen en te indexeren. De zoekmachinebots hebben links als het ware nodig om (nieuwe) pagina’s te ontdekken. Iedere link die ze tegenkomen, zullen ze eerst controleren in hun database, waarna ze de voor hen nieuwe pagina’s zullen bezoeken, om die te kunnen indexeren. Op sociale media kunnen de bots je link dus “ontdekken”.

Je volgers (en meer!) komen in aanraking met je pagina of website

Door je link(s) te delen op sociale media, komen mensen in aanraking met de pagina die je gedeeld hebt. Dat begint met je volgers, en als je succesvol bent breidt zich dat uit. Door retweets of een populair bericht op Facebook zien ook mensen die je niet volgen je bericht en klikken mogelijk op de link. Is je content dan relevant, biedt het waarde, et cetera, dan zal men mogelijk je pagina delen. Als ze een link delen op hun website, heb je wel degelijk SEO-effect van je sociale media, maar wel indirect.

Hiermee zijn sociale media SEO-signalen en geen SEO-factoren. Ze dragen niet bij aan je posities in Google, zoals beweerd werd. Ja, er zijn velen die zeggen dat het wel zo is, maar niemand heeft het ook maar echt onomstotelijk kunnen bewijzen. Er is dus geen causaal verband aangetoond, enkel correlatie.

Geloof jij dat sociale media bijdragen aan SEO? Heb je hier zelf ervaring mee of heb je een andere reden om juist wel te geloven dat sociale media bijdragen aan SEO? Ik ben benieuwd hoe jij hierover denkt.

SEO-trends zijn onzin

In december verschijnen er altijd lijstjes. “De beste artikelen van jaar X” “Voorspellingen voor jaar X” en “… trends voor jaar X” (vul zelf je jaartal in 😉 ). Die laatste wordt nu zelfs voor SEO ingezet. Op het moment van schrijven is het december 2015 en zie ik met regelmaat SEO trends voor 2016 voorbijkomen. Wat een absolute nonsens!

SEO-trends bestaan niet

Eigenlijk is het heel makkelijk: SEO-trends bestaan niet. Niet in de zin van trends in design en mode, geen ‘vandaag is dit hip, morgen dat’. Dat is niet het geval als het gaat om SEO. Er zijn sowieso geen trends als in ‘voor volgend jaar moet je je focussen op techniek X’. Als het gaat om SEO en vindbaarheid, zijn er geen zaken die tijdelijk “in” zijn. Daarnaast zie ik ook voorspellingen die weinig hout snijden.

SEO-trends 2016 in Google

SEO-voorspellingen die geen voorspellingen zijn

Veel “SEO-trends” zijn voorspellingen, die zelfs niet eens echt voorspellingen zijn. Veel van de zaken die voorspeld worden, zijn ontwikkelingen die al gaande zijn. Zo wordt er voor 2016 door verschillende partijen benadrukt dat mobiel belangrijk(er) wordt. Nogal een dooddoener wat mij betreft, mobiel is al sinds 2012 belangrijk, al is het maar omdat het websitebezoek met smartphones hand-over-hand toeneemt. Ook “lokale vindbaarheid” wordt genoemd in de SEO-trends voor 2016, terwijl met diverse algoritme-updates het belang van lokale vindbaarheid al meerdere malen is onderstreept. Niks nieuws onder de zon dus.

Veelal voortzetting van huidige ontwikkelingen

Zoals bovenstaande al illustreert, worden in veel van dit soort “trendvoorspellingen” enkel ontwikkelingen genoemd die al gaande zijn. Je krijgt dus niets nieuws voorgeschoteld en je kunt de auteurs nu niet echt een voorspellend vermogen toedichten. Daarnaast: SEO is geen trendgevoelig vakgebied. SEO heeft alles te maken met duurzame strategieën.

SEO en duurzame strategie

SEO is niet trendgevoelig, het is een duurzame strategie. Als je telkens moet inspelen op trends, word je ook gillend gek. Zorg er gewoon voor dat je jouw bezoekers helpt en daarbij je website optimaliseert waar het moet, dan ben je al een heel eind op de goede weg. En bij optimaliseren kun je denken aan het verkleinen van afbeeldingen of minder CSS en JavaScript op je website. Dat zijn geen trends, dat is gewoon je website verbeteren. Dat levert je op de lange termijn gewoon stevige posities op en is gericht op de toekomst, dus duurzaam. Toch is er nog iets…

Wat is nu precies een trend?

Om bovenstaande te staven, is het wel van belang om de betekenis van het woord ‘trend’ goed gedefinieerd te hebben. Waar anders dan in “de dikke Van Dale” vind je deze betekenis?

Betekenis "trend" op Vandale.nl

Oh wacht, een trend is niet enkel tijdelijk, zoals punt 2 aangeeft. Het is ook een ontwikkeling, een richting. Maar ook dat gaf ik al aan, die ontwikkelingen zijn al gaande, daar verandert op het gebied van SEO echt niet veel in. En als er dan al eens zo’n ontwikkeling ontstaat, valt die niet echt te voorspellen. Niemand kon in 2010 bevroeden dat Google zich met de Venice update meer op lokale zoekresultaten zou richten. SEO-trends -voor zover ze er zijn- laten zich dus niet makkelijk voorspellen.

SEO-trends zijn dus onzin

Het moge duidelijk zijn: die SEO-trends voor het komende jaar zijn onzin. Er zijn geen modegrillen en ontwikkelingslijnen zijn óf al bekend, óf niet te voorspellen. En dan nog: focus je gewoon op een goede website met goede content en optimaliseer achteraf waar het nodig blijkt te zijn. Verdoe je tijd niet met voorspellingen.

Welke SEO-trend of andere voorspelling vind jij totale nonsens? Of ben je het niet met me eens? Laat het weten in een reactie hieronder…

 

Het grote misverstand over Google PageRank

De PageRank is sinds de start van Google een belangrijk onderdeel van het Google algoritme. Het is een SEO-factor die Google onderscheidend maakt ten opzichte van andere internet zoekmachines. Sinds 2013 gaat echter het hardnekkige gerucht dat de PageRank niet meer wordt geüpdatet. Dit is zeer zeker niet het geval, lees verder om exact te begrijpen hoe het werkelijk zit met Googles PageRank.

Wat is nu precies de PageRank?

Heel kort gezegd is de PageRank de waarde van een website of webpagina, gebaseerd op het aantal links die echt naar die website of webpagina liggen. Hiermee doe je de PageRank echter zwaar tekort. In werkelijkheid is het systeem namelijk veel complexer. Naast die complexiteit is er ook nog eens het belangrijke verschil tussen de Toolbar PageRank en de werkelijke PageRank. Dit verschil en waarom dit ten grondslag ligt aan het misverstand dat de PageRank niet meer wordt geüpdatet, leg ik je hier volledig uit.

De historie van de PageRank

De oprichters van Google bedachten bij de start van de zoekmachine dat het feit dat bepaalde webpagina’s veel links krijgen, een signaal was van de waarde van deze webpagina. Als er veel links naar toe lagen, moest daar wel waardevolle informatie te vinden zijn. Dus gingen ze deze verwijzingen meetellen als een soort stem op de website of webpagina, waardoor deze een hogere positie in de rankings kreeg. Omdat links zo belangrijk zijn, ontstond de praktijk van linkbuilding.

Links zijn nog steeds belangrijk voor SEO en PageRank

Manipulatie van links

Toen SEO-bedrijven en -specialisten doorgekregen dat de hoeveelheid inkomende links een positief effect had op de rankings, ging men op zoek naar mogelijkheden om zoveel mogelijk inkomende links te verkrijgen. Daarin ging men zelfs zover, dat er complete netwerken werden opgezet, enkel om zoveel mogelijk links te kunnen aanleggen. Google is echter niet gek en middels de Penguin update werd deze vorm van linkbuilding flink afgewaardeerd.

Penguin update

Google rolde in april 2012 de Penguin update uit. Het doel van deze update was om misbruik van linkbuilding tegen te gaan. Veel grote websites werden hier flink de dupe van en zagen hun posities in de zoekresultaten fors zakken. Het moge duidelijk zijn dat Google veel belang hecht aan werkelijk relevante links. Daarom is de PageRank ook geen simpele optelsom van het aantal verwijzende links naar een website. Het is geen simpel rekensommetje, maar een wiskundig complex systeem.

Wiskundig complex systeem

De PageRank lijkt een eenvoudig rekensommetje: hoe meer links, hoe hoger je PageRank. Het is echter een wiskundig complex systeem, waarbij de PageRank van de verwijzende website weer wordt verdeeld over de onderliggende pagina’s, en de waarde van links (linkjuice) weer wordt verdeeld over het aantal links op een pagina. Dit telt allemaal bij elkaar op en leidt in feite tot een oneindig getal. Alle details over de PageRank, inclusief de formule, wordt uitgebreid uitgelegd in het blog van SEOguru.

Toolbar PageRank

De veel gebruikte PageRank in een schaal van 0 – 10 is dan ook geen volledig juiste weergave van de PageRank. Deze schaal van 0 – 10 heet de Toolbar PageRank. Er zijn diverse tools die deze Toolbar PageRank (TBPR) meten en tonen, Google geeft je zelfs de mogelijkheid om de TBPR te controleren. De TBPR is echter de oorzaak van het grote misverstand omtrent de PageRank, omdat het de TBPR is die niet meer wordt geüpdatet.

Toolbar PageRank wordt niet meer geüpdatet

De Toolbar PageRank wordt al sinds 2013 niet meer geüpdatet. Waar dit voorheen nog met vaste regelmaat gebeurde, is de TBPR na de laatste update in december 2013 niet meer gebeurd. Google’s Matt Cutts had in antwoord op een tweet in oktober van dat jaar nog aangegeven geen PageRank update meer te verwachten vóór 2014. Dat gebeurde als bij toeval wel, maar sindsdien is de update van de TBPR uitgebleven. Maar waarom updatet Google de TBPR niet meer?

Matt Cutts reageerde op Twitter op een vraag over ToolbarPageRank update

Waarom geen updates meer?

Er is niet expliciet uitgesproken waarom Google de TBPR niet updatet. Het meest waarschijnlijk is, dat men vond dat bedrijven en SEO’s te veel waarde hechtten aan de TBPR en ze de aandacht voor die PageRank wilden verminderen. “Laat website-eigenaren en online marketeers zich maar focussen op gebruikersvriendelijke websites en goede content”, lijken ze gedacht te hebben. En dus wordt de TBPR niet meer geüpdatet. Daarmee is de PageRank zelf echter niet dood, verre van.

PageRank zelf leeft nog volop

Dat de TBPR niet meer wordt geüpdatet wordt, wil niet zeggen dat de PageRank zelf niet meer geüpdatet wordt. Uit de uitleg over PageRank van Alain Sadon kun je opmaken dat er wellicht wat minder waarde wordt gehecht aan PageRank in het algemeen en dat Trustrank belangrijker lijkt te worden. Niettemin is de PageRank zo diep geworteld in het systeem van Google, dat deze ruggengraat van het algoritme, die het eigenlijk is, niet zomaar kan worden weggenomen.

Verdien je links

Links blijven belangrijk, zo heb ik zelf ervaren. Een enkel linkje naar een pagina op mijn website leverde me vrijwel direct een stijging op in Google met die pagina. Die links verdien je, door je website en content linkwaardig te maken. Dat begint met een goede website, die vertrouwen uitstraalt en content die de lezer waarde biedt. Zo zie ik het aantal links naar artikelen van mij gelukkig ook toenemen. Focus dus op kwaliteit en je bezoekers.

Focus op kwaliteit en je bezoekers

Voor zover het nog niet duidelijk was: maak je niet te druk om de PageRank, focus in plaats daarvan op de kwaliteit van je website en op je bezoekers. Maak het je bezoekers zo eenvoudig en aangenaam mogelijk en lever dat wat ze zoeken. Hiermee bouw je autoriteit en vertrouwen op en daarmee volgen over het algemeen ook de links wel. En volgt daar toch nog iets van PageRank uit. Want naar goede content wordt verwezen, als de website zelf ook qua autoriteit en vertrouwen de moeite waard is om naar te linken.

 

Welke ervaringen heb je met PageRank voor jouw website? Of heb je wellicht vragen of nog wat toe te voegen? Laat je reactie hieronder achter!

 

SEO-concurrentieanalyse: de misverstanden

Voor de vindbaarheid voor je website (SEO), begin je met een gedegen zoektermenonderzoek. Om zeker te weten of het nut heeft om de geselecteerde zoektermen in te zetten, is het van belang om een concurrentieanalyse uit te voeren. Hiermee breng je de concurrentie op de zoekterm in kaart, waardoor je kunt bepalen of het überhaupt zin heeft om in te zetten op de door jou gekozen zoekterm. Er zijn echter wel enkele misverstanden over veelgebruikte methodes waar je rekening mee moet houden.

Twee veelgebruikte methodes

Er zijn twee methodes voor SEO-concurrentieanalyse die een kritische benadering verdienen. Ik word niet wild van deze methodes en kennelijk worden ze nog veel gebruikt. Het betreft de kolom ‘Concurrentie’ in de Google Adwords Zoekwoordplanner en de KEI of KEI-index. Beide worden veel gebruikt en regelmatig geadviseerd, maar zijn niet heel sterk om de concurrentie mee te bepalen voor je SEO-strategie.

Google Adwords Zoekwoordplanner: logisch begin

Een logisch begin voor zoektermenonderzoek is de Google Zoekwoordplanner. Deze tool is gratis en in principe voor iedereen beschikbaar, je hebt er enkel een Google-account voor nodig. In de Zoekwoordplanner wordt het gemiddelde zoekvolume van de door jou ingevoerde zoekterm weergegeven. Dit is het gemiddeld aantal zoekopdrachten over de afgelopen 12 maanden. Daarnaast geeft de Zoekwoordplanner suggesties voor vergelijkbare zoektermen en een tabblad met ‘Concurrentie’. Laat dat nu niet zijn wat je nodig hebt.

Concurrentie in de Zoekwoordplanner

Uit de gesprekken die ik heb, blijkt dat veel mensen kijken naar de kolom ‘Concurrentie’ in de Zoekwoordplanner. In deze kolom wordt een heel globale waardering gegeven aan concurrentie op een zoekterm. De concurrentie wordt verdeeld in drie gradaties: Laag, Normaal of Hoog. Deze concurrentie is echter de concurrentie van andere Adwords-campagnes met die zoekterm. De Zoekwoordplanner is namelijk een hulpprogramma voor Adwords, dus daar is alle informatie in de Zoekwoordplanner op gericht. Prima voor je SEA-campagne, maar niet per se voor je SEO.

Kan je dan niks met die concurrentiegegevens?

Betekent die concurrentie niet dat zoektermen met hoge concurrentie in Adwords, ook hoge concurrentie in de organische zoekresultaten hebben? Terechte vraag. Wat mij betreft is dat niet het geval. Natuurlijk is er een correlatie tussen hoge concurrentie in de organische zoekresultaten en concurrentie in Adwords. Een causaal verband is echter niet aangetoond. Sterker: je zou verwachten dat de concurrentie hoger is wanneer er meer op een bepaalde zoekterm wordt gezocht. Dat blijkt niet het geval, zoals je hieronder kunt zien:

Concurrentie in Google Adwords Zoekwoordplanner - niet voor je SEO-concurrentieanalyse

 

Je ziet dat op ‘seo tips‘ net zo veel wordt gezocht als op ‘seo optimalisatie’, toch is de concurrentie op de eerste lager dan op de tweede. Er is kennelijk minder interesse in adverteren op ‘seo tips’ dan op ‘seo optimalisatie’. Natuurlijk, ‘seo tips’ zijn gratis en ‘seo optimalisatie’ is een dienst, dus willen er meer mensen adverteren op de laatste. Maar als seo-specialist is het prima om organisch gevonden te worden op ‘seo tips’, omdat mensen die dat lezen jouw expertise zo ontdekken.

Zou je afgaan op ‘Hoog’ of ‘Laag’ in de Zoekwoordplanner, dan loop je een interessante zoekterm mis. Mensen die jou vinden op ‘seo tips’, zien jou als autoriteit op dat gebied en dat is heel wat waard. En de concurrentie op organische vindbaarheid voor deze zoekterm is ongetwijfeld ook groter dan in Adwords.

Waarom is de concurrentie dan toch zo hoog?

Uiteraard is het goed om je af te vragen waarom de concurrentie volgens de Zoekwoordplanner dan ‘Hoog’ is. En waarom die niet zo hoog (‘Normaal’) is op zoektermen die naar mijn mening juist interessanter zijn voor mijn vakgebied. Kort gezegd zal dat zijn omdat adverteerders op die term denken mensen die hierop zoeken makkelijker te overtuigen zijn om op hun Adwords advertentie te klikken. De belangrijkste conclusie is echter dat de concurrentie op SEO en SEA beslist niet altijd gelijk zijn.

Keyword Effectiveness Index

De andere methode voor SEO-concurrentieanalyse is KEI, ook wel KEI-index genoemd. KEI staat voor Keyword Effectiveness Index; KEI-Index is dus eigenlijk dubbelop 😉 . KEI is een berekening van het gemiddeld aantal zoekopdrachten per maand, gedeeld door het aantal zoekresultaten op een zoekterm. Hoe hoger de uitkomst, hoe kleiner de concurrentie.

Berekening Key Effectiveness Index voor SEO-concurrentieanalyse

De KEI voor ‘seo tips’ is dan 880/12.300.000 = 0,00007154 en voor ‘seo optimalisatie’ is dat 880/470.00 = 0,00187234. Dit spreekt de verhoudingen in de Zoekwoordplanner al tegen. Bij de Zoekwoordplanner hadden we al geconcludeerd dat dit te maken had met commerciële belangen. Je kunt nog een stap verder gaan met de KEI.

Gedetailleerdere KEI-berekening

Ga je een stap verder, dan zoek je in Google met ‘intitle:ZOEKTERM’. Hierbij vervang je het woord ZOEKTERM uiteraard door jouw zoekterm. Je krijgt dan alle zoekresultaten waarbij de zoekterm in de titel van de pagina staat. Dat is logischerwijs ook de sterkere concurrentie op deze zoekterm. Klinkt als een prima methode, toch? Toch zegt het nog lang niet alles.

KEI berekenen met intitle

Wat  je niet uit de KEI haalt

Met KEI heb je voor je SEO-strategie in ieder geval betrouwbaardere data op het gebied van de concurrentie dan de ‘Concurrentie’ uit de Zoekwoordplanner. Toch zegt KEI mijns inziens nog veel te weinig. Het punt is namelijk dat de KEI enkel iets zegt over het aantal pagina’s waarmee je concurreert. En eerlijk gezegd doet het er niets toe hoeveel concurrentie er is, maar hoe sterk de concurrentie is. En niet alleen dat: enkel de concurrentie op pagina 1 van Google doet er toe. Want wie kijkt er nog op pagina 2 van Google?

The best place to hide a dead body is page 2 of the google search results

 

Analyseer de top 10

Omdat je toch zeker op de eerste pagina van Google wilt komen, is het beter om de top 10 te analyseren. Hoe sterk is de concurrentie en op welke punten zijn ze minder sterk en kun jij ze mogelijk verslaan? Dat is niet makkelijk en je kunt zeker niet alles beoordelen, want je weet niet precies waarop Google de top 10 rankt. Het is echter wel effectiever dan je focussen op alle pagina’s in de zoekresultaten. Het grootste gedeelte van die vaak duizenden andere pagina’s doet niet eens serieus mee om echt een positie in Google te krijgen op de zoekterm die jij voor ogen hebt. Vaak zijn ze ook niet eens echt relevant, kijk maar eens naar de resultaten die verder dan pagina 10 staan.

Hoe analyseer je de top 10?

Hoe analyseer je zelf de top 10? Uiteraard kun je handmatig de pagina’s uit de top 10 beoordelen door ze simpelweg aan te klikken en te bekijken. De vraag is wel of je dan voldoende relevante informatie achterhaalt. Gelukkig zijn er ook tools om de concurrentie te onderzoeken. Zo kun je in Market Samurai een overzicht krijgen, dat onder andere het aantal inkomende links en de concurrentie op het gebied van content overzichtelijk in kaart brengt:

 

Top 10 in Google via Market Samurai - betere analyse van je concurrentie

In dit voorbeeld zijn de rode vlakken de elementen waar de concurrentie goed op presteert en bieden de oranje en groene vlakken kansen voor jou.

Er zijn zeker nog meer tools die deze of een vergelijkbare analyse bieden, bovenstaande is een voorbeeld van wat ik zelf gebruik.

NB: de tool die ik in bovenstaande voorbeeld gebruik, is een betaalde tool. Deze kost eenmalig $149, inclusief toekomstige updates. Geen maandelijkse bijdrage, tenzij je Rank Tracker gebruikt om meer dan 10 zoektermen te volgen en/of PDF’s met posities te ontvangen. Rank Tracker geeft inzicht de posities van de door jou opgegeven zoektermen per website. Je kunt Market Samurai 10 dagen gratis proberen* voor je tot aankoop overgaat.

Welke methodes gebruik jij voor je concurrentieanalyse? Gebruikte je bovenstaande methodes en heb je nu een ander inzicht gekregen? Of ken je andere tools die net als Market Samurai je werk ondersteunen? Deel je kennis, ervaring of mening hieronder.

*Affiliate link

 

SEO-misverstanden: duplicate content

Een van de onderwerpen waar regelmatig misverstanden over zijn in de wereld van SEO is duplicate content. Wat wordt beschouwd als “dubbele inhoud” (zoals het in goed Nederlands heet) en wat niet? En wat is het probleem met duplicate content en hoe voorkom je het?

Wat is nu precies duplicate content?

Heel kort en bondig: duplicate content houdt in dat er op twee webpagina’s dezelfde inhoud te vinden is. Dit kan zowel op pagina’s binnen dezelfde website (interne duplicate content) zijn als op twee verschillende websites (externe duplicate content). Daarnaast geeft Google zelf aan dat het gaat om “substantiële blokken inhoud” en “grotendeels dezelfde inhoud”.  Of het nu om exact dezelfde inhoud gaat, of om inhoud die voor een X-percentage overeenkomt, staat nog ter discussie. Ga er in ieder geval vanuit dat je safe zit wanneer diverse elementen op een webpagina (titels, delen van alinea’s, afbeeldingen) afwijken van het oorspronkelijke werk, er geen sprake zal zijn van duplicate content. Welk effect duplicate content op je posities in Google heeft, behandel ik verderop in dit artikel.

Interne duplicate content

Interne duplicate content veroorzaak je zelf. Het komt vooral voor bij webshops, waar hetzelfde product bijvoorbeeld onder verschillende categorieën valt, en er daardoor meerdere URL’s zijn voor dit product, zie onderstaande voorbeeld:

URL's die verwijzen naar hetzelfde product: duplicate content!

Aan het laatste deel van de URL’s kun je zien dat het om hetzelfde model gaat, van hetzelfde merk. De verwijzing loopt alleen via een ander pad in de webshop, waardoor er dus dubbele inhoud wordt gecreëerd. Hier zijn verschillende oplossingen voor, die in een volgende alinea aan de orde komen.

 

Externe duplicate content

Externe duplicate content kan door jezelf gecreëerd worden of juist door de andere partij. Je creëert het zelf wanneer je bijvoorbeeld productinformatie of een persbericht een-op-een overneemt en publiceert op je website of webshop. Wanneer dit door andere partijen al eerder is gedaan, heb je dus dezelfde inhoud op je website geplaatst. Dit is vaak niet bewust en is -zeker bij webshops met duizenden producten- heel begrijpelijk.

Overduidelijk geval van duplicate content op webshops

 

Is duplicate content negatief voor je SEO?

Volgens diverse bronnen zou duplicate content slecht  voor je SEO zijn. Je zou niet in de zoekresultaten verschijnen door de dubbele inhoud. Dit is echter niet waar. Wel kan jouw webpagina door de dubbele inhoud minder goed indexeren. Hoe zit dat nu? Eigenlijk is het vrij logisch:

Wanneer er sprake is van twee of meer webpagina’s met exact dezelfde inhoud, moet de zoekmachine een keuze maken welke pagina in de zoekresultaten komt. Als gebruiker zit jij niet te wachten op 2 pagina’s met dezelfde inhoud vlak onder elkaar in de zoekresultaten. Dat ondermijnt de relevantie van de zoekresultaten. Dus moet de zoekmachine (Google dus, wie gebruikt er überhaupt een andere zoekmachine? 😉 ) kiezen welke van deze pagina’s ze als eerste vertoont in de zoekresultaten.

Als jij geen verschil ziet, hoe zou Google dat moeten kunnen? Het nadeel van duplicate content.

Dus heeft het een negatief effect op je SEO, toch?

Nee, let op, er staat: welke ze als eerste vertoont in de zoekresultaten. Hieruit mag je concluderen dat de andere pagina’s wel voorkomen in de zoekresultaten. Ze worden echter veel lager geïndexeerd. En hoewel de duplicate content dus de oorzaak is van een lagere plaatsing in de zoekresultaten, is dit beslist geen negatief effect op je SEO. Het is enkel de keuze welke van de “dubbele” pagina’s als eerste naar voren komt. Feitelijk is die pagina dus je indicatie van hoe goed deze pagina indexeert.

Anders gezegd: de pagina die het hoogst in de zoekmachine komt, levert niks in op zijn positie. Het is enkel de minder goed presterende pagina die er “last” van heeft. Deze wordt een stuk lager geplaatst in de zoekresultaten, omdat de zoekmachine prioriteit geeft aan de andere pagina.

Waarop baseert Google de positie dan?

Hoe kiest Google welke pagina als eerste vertoond wordt in het geval van duplicate content? In principe zal het oorspronkelijke artikel voorrang krijgen, wanneer heel duidelijk is dat deze als eerste geplaatst is. Toch valt niet uit te sluiten dat een duplicaat hoger terecht komt in de zoekresultaten.

Wanneer de dubbele pagina op diverse punten gebruikersvriendelijker is dan het origineel, heeft de lezer meer aan die pagina en zal Google ervoor kiezen deze hoger in de zoekresultaten te plaatsen. Factoren die hierin een steeds belangrijkere rol gaan spelen zijn mobielvriendelijkheid van je website en een https-verbinding. Ook andere SEO-factoren spelen daarbij een rol. Een domein met een hogere autoriteit zal het vrijwel altijd winnen van een website die minder autoriteit heeft. Het is dus van groot belang dat je je SEO altijd goed op orde hebt.

De oplossing voor duplicate content

Oplossing 1: creëer unieke content

De meest voor de hand liggende oplossing is uiteraard gewoon voorkomen dat je duplicate content op je website plaatst. Hierbij geldt uiteraard dat je zelf je content creëert, waardoor je gegarandeerd unieke content op je website plaatst. In het geval van webshops pas je de standaard teksten die je aangeleverd krijgt van je leverancier aan en voeg je er desnoods eigen informatie aan toe. Dit is arbeidsintensief, maar wel de moeite waard, omdat je je onderscheidt.

Oplossing 2: gebruik de rel=”canonical” tag

Oké, dit lijkt heel technisch en het is zeker een technische oplossing, maar vaak wel eenvoudig te realiseren. Gebruik de HTML-tag rel=”canonical” wanneer een pagina niet de pagina is met de oorspronkelijke tekst. Dus wanneer je een tekst plaatst waarvan je weet dat deze al te vinden is op internet of er een tweede pagina wordt gecreëerd met dezelfde inhoud (zoals het voorbeeld van de webshop), zet deze tag in. Je webbouwer of webdesigner kan je hierbij helpen. Als je een WordPress website hebt en de Yoast SEO WordPress plugin gebruikt, kun je via deze plugin zelf rel=”canonical” toevoegen aan je pagina.

Deze oplossing leidt ertoe dat alle (SEO-)waarde van de dubbele pagina wordt overgedragen aan het origineel. Wanneer jij dus iets herplaatst, zul je er dus niet makkelijk mee in de zoekresultaten verschijnen. Andersom geldt: als een artikel van jouw hand wordt herplaatst met een rel=”canonical”-tag, profiteer je daarvan. De nieuwe pagina draagt waarde van inkomende links over aan jouw pagina.

Maak jij je nog zorgen om duplicate content op jouw website?

Het verhaal is duidelijk naar mijn mening. Duplicate content is geen SEO-issue en is vrij eenvoudig te voorkomen of te verhelpen. Over aan jou: ervaar jij last van duplicate content? Zijn er nog dingen die je duidelijker wilt hebben of heb je nog vragen? Laat jouw reactie achter!