Google onthult: Penguin 2.0 en ander SEO nieuws
Deze week plaatste Matt Cutts, hoofd van het Webspam team van Google, een video online waarin hij 10 zaken bespreekt die SEO-ers en webmasters kunnen verwachten van de komende zomer. Een zeer opmerkelijke gebeurtenis want nooit eerder kondigde Google zo uitgebreid van tevoren aan welke veranderingen er aan zullen komen. De inhoud van de video is zodanig interessant dat wij hier het een en ander zullen toelichten.
Hij merkt als eerste op dat de richtlijnen vanuit Google constant en uniform zijn. Hij benadrukt daarbij wat Google van webmasters verwacht: werk aan een interessante website waar de gebruikers van houden, een site waar ze naar terugkomen en een site die ze bookmarken. Hij belooft dat zolang ‘wij’ ons richten op websites met hoge kwaliteit content, Google hard zal werken om deze content onder de aandacht van gebruikers te brengen. Dat is toch een mooie belofte.
De zaken die Matt in de video bespreekt zijn:
- De aankondiging van Penguin 2.0
- Spam vanuit advertorials
- Spammy queries (zoekopdrachten)
- Ontmaskeren link spammers en wegnemen linkwaarde
- Een meer ‘sophisticated’ link analyse systeem
- Hacked websites
- Autoriteiten een boost geven
- Sympathie voor Panda slachtoffers
- Clustering van domeinen in zoekresultaten pagina’s
- Verbeterde communicatie naar webmasters
Penguin 2.0 aangekondigd
Het meest opvallende dat Matt Cutts aanhaalt is de aankondiging van Penguin 2.0. Hij geeft aan dat Google ‘relatively close’ is bij de ontwikkeling van Penguin 2.0. Penguin is de update die gericht is op het herkennen en aanpakken van webspam en met name link spam. Hij geeft daarbij aan dat Penguin 2.0 veel omvattender (comprehensive) is dan Penguin 1.0 en dat hij verwacht dat de impact van deze update groter zal zijn.
Overigens, zien we hier dat Google een andere telling aanhoudt dan de vooraanstaande, internationale SEO blogs. Google heeft het over Penguin 2.0 terwijl dit volgens de algemene telling de vierde update zou zijn. Wij kiezen ervoor om de benaming te volgen die Google gebruikt.
Terugblik op Penguin 1.0
Een korte terugblik: in mei 2012 rolde Google de eerste Penguin update uit. Deze update heeft binnen het gebied van SEO veel stof doen opwaaien. Er zijn verhalen bekend van websites die hun organisch verkeer compleet zagen instorten. ‘Opeens’ was Google erin geslaagd om websites met onnatuurlijke link profielen te herkennen en te bestraffen. Websites die zich (jarenlang) schuldig hebben gemaakt aan het kopen van links of het manipuleren van het link profiel hebben hier een hoge prijs voor moeten betalen. De discussie laaide op over ‘negative SEO’, het fenomeen waarbij een website slechte links zou kopen voor de concurrent en deze partij daarmee schade kon berokkenen. Zowel Bing als Google kwamen binnen korte tijd met een ‘Disavow Links Tool’. Een tool waarmee je afstand kon nemen van foute links. (Hoe de tool werkt kun je hier nalezen).
Angst en beven
Dat Penguin 2.0 is aangekondigd door Google met de opmerking dat de impact nog groter zal zijn, zal ongetwijfeld een flink aantal partijen het angstzweet doen uitbreken.
Toch zal er voor de meeste websites niet veel aan de hand zijn. Als je nooit hebt gemanipuleerd, links gekocht of je op een andere wijze schuldig hebt gemaakt aan webspam hoef je nergens bang voor te zijn. Dat wordt in de video nog eens benadrukt door Matt Cutts. Maar hij zegt ook: “Als je echter regelmatig op blackhat forums te vinden bent (forums waarin tactieken worden besproken die ingaan tegen de richtlijnen van Google), dan kan het een ‘eventful summer’ worden”.
Advertorials
Matt heeft het ook over advertorials die PageRank doorgeven: een waarde die (tezamen met meer dan 200 andere variabelen) gebruikt wordt om de rankings te bepalen. Advertenties mag je inkopen om te adverteren, maar ze moeten duidelijk gemarkeerd zijn voor gebruikers als advertorials en ze mogen geen linkwaarde doorgeven. In de praktijk zal dat inhouden dat voor Google in ieder geval op alle links in advertorials een rel=’nofollow’ zou moeten staan. Met behulp van deze tag wordt aan zoekmachine spiders aangegeven dat een link geen waarde door mag geven.
Spammy areas
Kort wordt besproken dat Google twee verschillende wijzigingen heeft voor bepaalde queries. (zoekopdrachten). Matt wijdt hier helaas niet al teveel over uit, maar hij benoemt dat Google er beter in zou slagen om gebieden aan te pakken die traditioneel gezien spamachtige tactieken ontplooien zoals bijvoorbeeld de pornografische branche. Het lijkt er op dat Google verwacht dat zij beter in staat zullen zijn om ook in deze gebieden de spammy websites uit de zoekresultaten te filteren.
Link spammers ontmantelen
Matt geeft aan dat Google steeds beter wordt in het ontmaskeren van link spammers en het wegnemen van de linkwaarde die hun sites hebben. Er zijn al ideeën binnen Google hoe ze link spammers beter kunnen aanpakken, naar verwachting wordt dit binnen enkele maanden uitgerold.
Een ‘more sophisticated’ link analyse systeem
Helaas is Matt erg beknopt met de informatie hierover. Hij geeft aan dat deze ontwikkeling nog zeer pril zijn maar wel ‘exciting’. Mogelijkerwijs heeft Google toegang tot nieuwe data of zijn ze erin geslaagd om op een andere manier tegen links aan te kijken.
Panda
Ook bespreekt Matt ook nog iets over Panda: de update die gericht is op het herkennen van lage kwaliteit content in de meest brede zin van het woord. Hij geeft aan dat Google aan het kijken is naar een methode waarbij het effect verzacht kan worden voor websites die zich in het grijze gebied bevinden, maar wel signalen hebben van een waardevolle website.
Websites die net op of net over de grens van lage kwaliteit content zitten en daardoor getroffen zijn door de Panda update, maar ook voldoende signalen hebben van een hoge kwaliteit website kunnen hierdoor beschermd worden.
Overige zaken
Naast de hierboven genoemde onderwerpen komen nog wat kleinere zaken ter sprake. Zo bespreekt Matt het onderwerp gehackte sites. Het streven is om op twee gebieden te verbeteren: het herkennen van gehackte sites en de communicatie vanuit Google. Hij wil een one-stop-shop inrichten waar webmasters geholpen kunnen worden.
Daarnaast vertelt hij over hoe feedback Google helpt om de zoekresultaten en de clustering van meerdere resultaten van een website te verbeteren.
Een ander punt dat hij aanhaalt zijn de plannen om zogenaamde autoriteiten in kaart te brengen en hen een boost geven in de rankings. Een autoriteit kun je worden door een goede website te hebben met voldoende en goede content die relevant is voor jouw bezoekers en die zij graag met anderen willen delen. Dat zijn de type websites die Google graag beter onder de aandacht brengt van haar gebruikers.
Samenvattend…
Een bijzondere video dus vanuit Google. Vooral omdat Google nooit van te voren updates en ontwikkelingen zo uitgebreid bespreekt. We kennen Google natuurlijk ook langer dan vandaag en het kan dus ook zomaar zijn dat er updates uitgerold worden die niet in deze video aangekondigd zijn. Ook moeten we het voorbehoud maken dat Matt Cutts zaken benoemt die passen bij zijn rol als hoofd van het Google Webspam Team. Over andere ontwikkeligen bijvoorbeeld op het gebied van social media, local of Google Maps spreekt hij niet. Dat wil niet zeggen dat daar geen nieuwswaardige zaken zullen gebeuren.
Wat er daadwerkelijk van deze plannen terecht komt van en wat daadwerkelijk de gevolgen zullen zijn, moeten we afwachten. Als je op een geaccepteerde wijze optimaliseert en daarbij altijd respect hebt voor de richtlijnen van Google heb je niets te vrezen. Maak je je echter schuldig aan spamachtige tactieken en begeef je je op het ‘zwarte’ terrein, dan zou het inderdaad wel eens een spannende zomer kunnen worden. Heb je naar aanleiding van deze onthullingen vragen of zie je de bui hangen neem dan contact ons op. We kunnen dan kijken of het nodig is om maatregelen te treffen.