Verdieping

Google penalty’s voorkomen? 4 don’ts voor SEO

0

Webredacteuren en SEO-specialisten die ineens hun ranking in de zoekresultaten zien kelderen, doen vaak website-aanpassingen en reconsideration requests om een Google-penalty op te heffen. Om de zoveel maanden voert Google updates uit aan zijn algoritmes, en bijna net zo vaak breekt er paniek uit bij een selecte groep mensen. Verbazingwekkend, want wie een beetje nadenkt kan negatieve SEO-gevolgen van een algoritme-update beperken. Door een toekomstbestendige SEO-strategie op te stellen en je content nu al te optimaliseren voor de zoekmachine van de toekomst.

Of met andere woorden: door alvast te anticiperen op toekomstige algoritme-wijzigingen. Vier dingen die je voor de zekerheid maar beter kunt laten, als je in de toekomst een penalty van Google wilt voorkomen.

1. Clickbait publiceren

Laten we vooropstellen dat er niks mis is het met schrijven van koppen die kliks genereren. Het schrijven van titels is een vak, dat de ogenschijnlijk tegenstrijdige kunsten van het nieuwsgierig maken en informeren bij elkaar samenbrengt.

Anders wordt het als een kop de lezers expres misleidt. Een kop als ‘OMG She Left Her Boyfriend Alone With Her Dog, You’ll Never Guess What He’s Been Hiding From Her!’, is vaak niet in staat zijn belofte van spanning en sensatie waar te maken. En dat dit leidt tot irritatie onder lezers, blijkt wel uit de positieve reviews over plugins als Downworthy.

Facebook kondigde om die reden al meerdere malen aan actie te ondernemen tegen clickbait. En hoewel Matt Cuts van Google zich in 2006 nog gematigd uitliet over dit fenomeen, is het gezien het belang dat zijn werkgever hecht aan kwaliteit-content, een kwestie van tijd voordat de zoekgigant zijn mening op dit vlak bijstelt. Je zult nooit geloven welke impact dat heeft op jouw zoekmachineranking!

2. Kunstmatig opkrikken van pageviews

Een van de nadelen die uitgevers van clickbait nu al ervaren, is dat de bounce rate van dit soort content bijna net zo hoog is als het percentage aan kliks. Google interpreteert dit grote aantal bezoekers dat teleurgesteld afdruipt nu al als een teken dat de content niet relevant is, en dit komt de zoekmachineranking van deze pagina’s niet ten goede.

Veel websites proberen dit probleem te omzeilen door op kunstmatige wijze het aantal pageviews hoog te houden. Door landingpages te creëren, waar lezers moeten doorklikken om de content daadwerkelijk te bekijken bijvoorbeeld. Of door een artikel van tweehonderd woorden op te delen en uit te smeren over zes pagina’s. Ook non-clickbaitwebsites doen het, waarschijnlijk met de advertentie-inkomsten in het achterhoofd.

Enkele uitzonderingen daargelaten – een pagina met veel afbeeldingen van een content-uitgever die denkt aan de databundel van zijn mobiele bezoekers bijvoorbeeld – is dit natuurlijk niet gunstig voor de UX van een website. En laat dat nou net een steeds belangrijker wordend onderdeel van zoekmachineoptimalisatie zijn.

Pageviews

Bron: Flickr

3. Hoaxes verspreiden

Hoaxes en broodjes aap zijn van alle tijden, maar de verspreiding van misinformatie gaat sinds de opkomst van social media sneller dan ooit. Van indianenverhalen over dieventekens, tot Roemeense bendes die hun slag slaan met sleutelhangers bij tankstations tot onterechte overlijdensberichten van celebrity’s.

De herkomst van dit soort berichten is divers. Soms zijn ze gewoon het werk van fantasten. Steeds vaker worden ze de wereld in geholpen door bloggers die hun informatie niet checken, waarna ze weer door andere sites worden overgenomen. En in een wereld waarin de invloed van de traditionele journalistiek afneemt, met haar ‘check en dubbelcheck’ en ‘één bron is geen bron’, wordt het zo steeds moeilijker om te bepalen welke berichtgeving waar is.

Het is dan ook niet ondenkbaar dat Google voorrang zal geven aan informatie die op waarheid is berust. Door op zaken als bronvermelding te letten bijvoorbeeld, en op de reputatie die een website in het verleden opbouwde. Al met al genoeg redenen om zorgvuldig te zijn met de informatie die je verspreidt.

4. Slecht cureren van content

Hoewel de toekomst voor de traditionele uitgeefwereld er niet erg rooskleurig uitziet, worden de afgenomen activiteiten in deze branche overgenomen door andere bedrijven. Content is king, en voor steeds meer ondernemingen wordt uitgeven een second business. Als het op budgetten aankomt, worden de verschillen tussen de traditionele en de nieuwe uitgeefwereld echter weer een stuk kleiner.

Het moet vaak zo goedkoop mogelijk, en dat leidt niet altijd tot beste resultaten. Content die op het hoofdkantoor in Amerika wordt geschreven bijvoorbeeld, en vervolgens een-op-een in andere landen wordt vertaald. Zonder daarbij rekening te houden met culturele verschillen, en met koppen die verraden dat er voor de goedkoopste vertaler is gekozen. ‘Vijf redenen waarom de opstellers van de nationalistenwet het punt misten’, bij een verhaal over de Patriot Act bijvoorbeeld.

Uiteraard is er niks mis met het zo efficiënt mogelijk hergebruiken van content in verschillende landen, maar er komt een dag dat de algoritmes van Google Translate in staat zijn een slechte vertaling te herkennen. En om strafpunten te bedelen.

Slecht cureren van content

Bron: Flickr

Waar het op neerkomt

Google updatet zijn algoritmes natuurlijk niet zomaar. Alle updates waren er tot nu toe op gericht om gebruikers de beste en meest relevante zoekresultaten te tonen. Van websites die de meest kwalitatieve content publiceerden, niet die met de beste SEO-specialisten.

Kwaliteitscontent

Bron: Flickr

En hoewel het niet zeker is te zeggen dat bovenstaande punten ooit tot een keldering in de zoekresultaten leiden, passen ze wel in het idee van creëren van kwaliteit-content. Content die in eerste instantie is geproduceerd voor de lezer, en pas in tweede instantie met het oog op SEO. De beste manier om een Google-penalty te voorkomen!