KennstDuEinen Blog

Von einem „Pony“, das keine Werbung mag & einem Google Update, das keines war…

Geschrieben am von

Waren die Verlierer des vermeintlichen Google „Pony“ Updates möglicherweise verspätete „Panda“ Opfer? Werden „Penguin“ & Co. bald gar zu einer ständigen Begleiterscheinung?

PonyVergangene Woche machten einige von Searchmetrics als Google „Pony“ Update titulierte Ranking-Schwankungen in allen größeren SEO-Blogs und auf Social Media Kanälen die Runde. Dem wurde jedoch von John Mueller in einem Google Webmaster Hangout auf Google+ widersprochen.

Auch SISTRIX meldete sich mit einem Artikel zu dieser Thematik und widersprach dabei mit dem Hinweis auf derzeit generell umfangreichere Index-Schwankungen bei Google. Bei SEO-United hieß es daraufhin „Googles Pony-Update doch nur eine Ente!?“ und noch heute „kabbeln“ sich die an dieser Diskussion beteiligten Parteien im dortigen Kommentarbereich ein wenig.

So viel zum status quo…
Doch wie geht es weiter? Was könnte mit Blick auf die Verlierer-Seiten passiert sein? Was bedeutet das für uns SEOs?

Ich habe mir jedenfalls dazu mal “mein” Benchmark-Dashboard in meinem SISTRIX-Account angeschaut und mir vier prominente Opfer angesehen, die vergangene Woche unter die Räder des Algorithmus geraten sind. “Naturgemäß” stammen diese aus dem Umfeld der Lokalen Suche… doch zunächst eine knappe Einleitung.

„Wenn der Panda zwei Mal klingelt…“

Wenn man eines sagen kann, dann ja wohl, dass Google es erfolgreich hinbekommen hat. Was hinbekommen? Maximale Verwirrung und Paranoia innerhalb der SEO- & Online-Marketing Community zu erreichen, bei der die gezielte „Überinformation“ seitens Google genau dafür gesorgt hat, was sie sollte:

Jeder jagt mittels „SEO-Wetterberichten“ den einzelnen Update-Iterationen hinterher und teilweise kommt es dabei nun eben zu fehlerhaften Deutungen regulärer Index-Schwankungen bzw. zur Überinterpretation von Ranking-Verschiebungen, die vor dem Hintergrund eines permanenten „Panda“ (und schon bald auch „Penguin“) Updates stattfinden.

Da bei einigen Suchmaschinenoptimierern jedoch allein schon bei Erwähnung des Wort „Update“ der kalte Schweiß ausbricht, sollten allein schon deswegen alle mit der „SE(O)nsationsgetriebenheit“ wieder ein wenig zurückrudern… man will ja schließlich mit Blogbeiträgen keinen Herzinfarkt auslösen 😉

Die vier Kandidaten
Bei den Portalen, die ich heute kurz näher anschauen will handelt es sich um drei verhältnismäßig sichtbare lokale Branchenverzeichnisse und ein lokales Spezial-Verzeichnis. Ich möchte dabei vorausschicken, dass es sich nicht um ein “Bashing” handelt, sondern lediglich um den Versuch anhand von Beispielen und Überlegungen eine Diskussion rund um die Entwicklung und das jetzige und künftige Potenzial von „Panda, Penguin & Co.“ anzustoßen. Meine dazugehörige These formuliere ich am Ende dieses Artikels noch ein wenig pointierter.

Die These vom „kontinuierlichen“ Panda Update!
Wenn man sich die Verlierer-Seiten anschaut, dann haben diese doch einiges gemein mit den prominenten Opfern der allerersten Google Panda-Updates:

Sie weisen in der Regel nur sehr geringfügigen unique content auf (oftmals nur die Adressinformationen ohne zusätzliche Informationen), der lediglich aufgrund der hohen internen Verlinkungsdichte im Rahmen einer „aufgeblähten“ Seiten-Struktur (z.B. zahllose Tag-Seiten mit keiner oder nur geringer Variation der Inhalte) zu ranken imstande war.

Weiterführende Gedanken in diesem Zusammenhang entnimmt man am besten dem Beitrag „SEO-Herausforderung: Google Panda VS. Branchenverzeichnisse“ sowie dem sich daran anschließenden Bericht „Google Panda Update in Deutschland & der Lokale Suchmarkt“ in denen ich mich bereits mit ein paar Überlegungen zu Wort gemeldet habe, die die Herausforderung für lokale Verzeichnisse etwas genauer umkreisen.

OffSite-Scoring in Kombination mit „Panda“-Signalen
Dass auch im OffSite-Bereich bei den Verlierern einige „Unregelmäßigkeiten“ zu entdecken sind möchte ich an dieser Stelle verständlicherweise nicht weiter vertiefen. Ich habe auch nicht den Eindruck, dass bei den allerjüngsten Schwankungen „Nachbeben des Penguin Updates“ zu verzeichnen gewesen sind.

Ich halte es jedoch für sehr wahrscheinlich, dass beim „Entdecken“ von zu vielen „Panda-Signalen“ in der nächsten Filterstufe eben auch die Backlink-Struktur bewertet wird. Sind die Backlinks hochwertig und natürlich, dann kann eine Website das vor einem herben Ranking-Verlust ein wenig schützen – handelt es sich hingegen um offensichtlich gekaufte Links oder Links aus skurrilen Netzwerken, dann schaltet die Ampel auf rot um!

Kaum „social proof“…
Was jedenfalls auffällig ist, ist die Tatsache, dass diese vier sehr großen Websites quer durch die Bank nur sehr wenig social proof in Form von einer nennenswerten Anzahl an Social Media Signals verzeichnen können.

Was sagt noch mal Google?
Ganz klar… ich denke mal alle erinnern sich an den Blogpost „Weitere Tipps zur Erstellung qualitativ hochwertiger Websites“ in der Google Webmaster Zentrale. Hier geht es im Kern darum sich als Webmaster Fragen zu stellen, inwieweit die eigenen Website Qualität im Sinne der Nutzer (und nicht des eigenen Geldbeutels) liefert. Die Fragen machen grundsätzlich Sinn und sollten bei der Gestaltung und Strukturierung von Inhalten durchaus Ernst genommen werden, außer man geht bewusst das suizidale Risiko ein das nächste „Google-Opfer“ werden zu wollen.

Hier ein Auszug aus dem „Panda“ Fragen-Katalog:

  • Weist die Website doppelte, sich überschneidende oder redundante Artikel zu denselben oder ähnlichen Themen auf, deren Keywords leicht variieren?
  • Hat die Seite im Vergleich zu anderen Seiten in den Suchergebnissen einen wesentlichen Wert?

„Page Layout Algorithm Improvement“
Ebenfalls aus diesem Zeitraum stammt noch ein Beitrag von Matt Cutts höchstpersönlich, in dem dieser auf einen Algorithmus-Update eingeht, dass sich gegen Websites richtet, die den Nutzer mit zu viel Werbe-Einblendungen im sichtbaren Bereich quälen und dabei nur sehr geringfügig eigenständigen Inhalt präsentieren.

„As we’ve mentioned previously, we’ve heard complaints from users that if they click on a result and it’s difficult to find the actual content, they aren’t happy with the experience. Rather than scrolling down the page past a slew of ads, users want to see content right away. So sites that don’t have much content “above-the-fold” can be affected by this change. If you click on a website and the part of the website you see first either doesn’t have a lot of visible content above-the-fold or dedicates a large fraction of the site’s initial screen real estate to ads, that’s not a very good user experience. Such sites may not rank as highly going forward.“

Mögliche Opfer eines fortwährenden Page Layout- & Panda-Algorithmus?

Was aus den folgenden Screenshots hervorgehen soll ist der nicht von der Hand zu weisende Umstand, dass man bisweilen den eigentlichen Inhalt auf der Seite entweder mit der Lupe suchen muss, oder aber man ist gezwungen an einer Armee von Werbung zwei Bildschirme nach unten zu scrollen, um den relevanten Content überhaupt zu finden.

Ich unterlasse auch in den Screenshots die übliche rote Umrandung des „eigentlichen Inhalts“, damit jeder noch ein bisschen was zum Suchen hat, damit das ganze hier ein wenig „interaktiv“ wird 😉 Die Abbildungen wurden auf einem herkömmlichen Labtop mit der Auflösung 1280 x 768 geschossen.

Zum Vergrößern bitte auf die Abbildungen klicken.

Suchen.de
Suchen.de

Pointoo.de
Pointoo

Stadtbranchenbuch.com
Stadtbranchenbuch

Oeffnungszeitenbuch.de

Muss man Google ernst nehmen?
Schaut man sich diese vier Beispiele an und gleicht den gewonnenen Eindruck anschließend mit den Qualitätsempfehlungen ab, so fällt auf, dass Realität und Empfehlung weit auseinanderliegen.

Mir ist klar, dass man Websites irgendwie monetarisieren muss. Wer das Geschäftsmodell allein auf maximalen Traffic ausrichtet, der über AdSense, Banner & Co. vermarktet wird, dem sollte klar sein, dass es Sinn macht, die „Spielregeln“ von Google zu einem gewissen Grad zu beachten… gerade auch im Hinblick auf den Nutzer und dessen Absichten.

Ich nehme mal an, dass kein Nutzer auf den ersten Blick lediglich Werbung erwartet, wenn er ohnehin schon von einer werbefinanzierten Suchmaschine mit einer klaren Suchabsicht auf ein Resultat geklickt hat. Dann erwartet er auf den ersten Blick Kerninformationen und anschließend ist das Feld offen: Wer hier mit relevanten Zusatzinformationen – was NICHT das gleiche wie „SEO“-optimierte Platzhaltertexte bedeutet – etwas mehr variationsreiche Inhalte anbieten kann, als der Wettbewerb, der punktet am Ende auch langfristig beim Nutzer.

Und genau das will Google mit allen Möglichkeiten herausfinden…
Wie geht der Nutzer mit dem Ergebnis auf den SERPs um? Wie verhält der Nutzer sich auf der Website im Vergleich zu den umliegenden Suchtreffern? Wie schnell navigiert der Nutzer zu den Suchergebnissen zurück? Verfeinert er seine Suchanfrage? Was für andere Websites sucht der Nutzer anschließend auf?

Es geht Google um die effiziente Lenkung von Besucherströmen, die A) inhaltlich zufriedengestellt werden müssen, damit AdWords weiterhin Geld in die Kasse spülen und die B) bei entsprechender Austarierung der Suchergebnisse auf Basis von Nutzersignalen auch dazu beitragen den „Qualitäts-Algorithmus“ von Google im Einklang mit Social Signals zu verfeinern.

Selbstverständlich kommen hier auch wieder die Backlinks ins Spiel, stellen diese schließlich im Grunde die ultimative Empfehlung aus Sicht von Google für eine Website dar.

Der immerwährende „Panda-Penguin“, oder auch das große „Versuchslabor“ von Google…
In dem Maße, in dem der „Panda“ dazu zusehends imstande ist, inhaltliche Qualitätsmerkmale zu identifizieren und entsprechend zu bewerten – womit nicht die aus menschlicher Sicht „inhaltliche“ Qualität des Text-Contents gemeint ist, sondern das algorithmische Abklopfen einer Website auf die in den beiden Blogposts genannten Kriterien – in dem Maße wird der „Penguin“ sich darin üben, manipulierte Empfehlungen von echten Verlinkungen zu unterscheiden.

Soziale Signale und Benutzerverhalten helfen beiden Algorithmen gleichermaßen, die Ranking-Kriterien immer mehr zu verfeinern und auf Grundlage menschlicher Entscheidungen zu stellen.

Google SERPs in Bewegung

Bildquelle: SISTRIX

Die von SISTRIX beobachtete, derzeit im Wachstum begriffene, permanente „Sinus“-Bewegung des Google Index, die man in der obigen Abbildung zur prozentualen Änderungsrate in der Google Top 10 über die vergangenen Monate sehr schön sehen kann, signalisiert die kontinuierliche Anwendung zahlreicher Bestandteile des Algorithmus, die mal mehr oder weniger heftigen Einfluss auf das Ranking ausüben.

Das dabei teilweise auch vereinzelte Techniken zur Erkennung von Spam und exzessiven Ranking-Manipulationen von Google zum Einsatz gebracht werden, wie dies in dem Blogbeitrag „Wie Google SEO-Spammer entlarvt“ bei SEO-United skizziert wird, ist mehr als annehmbar und könnte teilweise auch ein Hintergrund für heftige Schwankungen im Index darstellen.

Exkurs: Was passiert zeitgleich bei nicht betroffene Seiten im gleichen Themenumfeld?
Beim unserem Bewertungsportal KennstDuEinen.de wurde bei einer verhältnismäßig stabil bleibenden Anzahl an rankenden Suchbegriffen allerhand „Midtail“-Keywords von hinten nach vorne auf Seite 2 ff. durchgereicht. Der Hauptgrund hierfür war schlichtweg frei gewordener Platz auf den Google Suchergebnissen.

Keyword-Verteilung Google Top 100: Vorwoche – 19.11.2012
19.11.

Keyword-Verteilung Google Top 100: Aktuelle Woche – 26.11.2012
26.11.

Schaut man sich zum Vergleich mal die gleichen Diagramme der Bewertungsplattform GoLocal an, dann zeigt sich dem Betrachter ein sehr ähnliches Bild. Auch hier wurden in den letzten beiden Wochen etliche Keywords von hinten nach vorne auf Seite 2 ff. geschoben.

Keyword-Verteilung Google Top 100: Vorwoche – 19.11.2012
GoLocal 19.11.

Keyword-Verteilung Google Top 100: Aktuelle Woche – 26.11.2012
GoLocal 26.11.

Fazit: „Der SEO, der mit dem Pony tanzt“

Google schickt sich an beide großen Algorithmus-Updates zusehends als kontinuierliche Iteration auf den Index loszulassen. Der Google Caffeine-Index macht dies technisch möglich. Beide Algorithmen weisen einen starken Bezugspunkt zur Auswertung von Nutzersignalen auf, weil es diese erst ermöglichen quantitative Signale auf Grundlage menschlicher Verhaltensmuster qualitativ aufzuwerten.

Die Suchergebnisse sollen – vor allem im Sinne von Google – „besser“ werden und wer sich dagegen sträubt, der wird kein einfaches Spiel haben… bei Google nicht, aber in etlichen Fällen auch nicht beim Nutzer.

Wer daher glaubt eines der letzten Google Updates, bei dem er heil davongekommen ist, einfach aussitzen zu können, der hat keine gute Karten – auch wenn er das Gefühl hat, nicht den Qualitätsanforderungen aus dem o.g. Blogpost zu entsprechen. Google sammelt mit der Zeit einfach noch mehr Signale, bis diese schließlich den Ausschlag darüber geben können, ob der Ranking-Dämpfer nun zur Anwendung kommt, oder nicht. Bei Optimierungsmaßnahmen daher vor allem zuerst an den Nutzer und dessen Umfeld zu achten könnte grundsätzlich nicht schaden.

Besser man schnürt also seine Tanzschuhe und achtet ein wenig auf den Takt, den Google in groben Zügen vorgibt. In den letzten 8 Jahren zeichneten sich die allermeisten Signale bereits mindestens ein Jahr im Vorfeld ab, bevor Google begann gewisse „Regelverstöße“ mit mehr Nachdruck zu ahnden. Genug Zeit also, um ein paar Tanzschritte einzuüben, damit das nächste „Pony“ einem nicht auf die Füße tritt. Wer dazu auch noch ein wenig Gelassenheit mitbringt, der lässt sich übrigens auch nicht so leicht aus dem Rhythmus bringen…

Bildquelle: 123rf.com


17 Antworten zu “Von einem „Pony“, das keine Werbung mag & einem Google Update, das keines war…”

  1. Jan sagt:

    Ein interessanter Post! Vielen Dank! „Ab in den Stall mit dem Pony!“ :)

  2. Valentin sagt:

    Der Artikel spricht aus was ich mir auch schon gedacht habe. Danke für die ausführliche Analyse.

  3. Christian sagt:

    Top recherchierter und wirklich gut geschriebener Artikel!

  4. Melanie sagt:

    Wenn man sich aber z.B. die Seiten auf den Top-Positionen im Bereich PC-Games ansieht, dann scheint Google dort noch nicht vorbei gesehen zu haben, den dort muß man auch erst mal fliegende Werbung überwinden, um dann zwischen den Bannern überhaupt noch die Inhalte finden zu können…

    Qualität der Artikel ist auch das letzte…zu kurz, oberflächliche Infos…

    Somit macht auch Google unterschiede bei der Einhaltung von Qualitätsrichtlinien!

  5. Witali sagt:

    Danke für deinen ausführlichen Beitrag. Besonders die Rankingverteilung auf den Ergebnisseiten von Google zeigt gut, wie viele Spam-Seiten da schon entsorgt wurden.

    Und wer eine saubere gute Seite baut hat weiterhin nichts zu befürchten und kann von den Updates profitieren :)

  6. Andreas sagt:

    Ich möchte um den Artikel abzurunden, nur folgenden Beitrag emfehlen:

    http://pip.net/monopoly

    Danei auch insbesondere dieses Bild beachten :)
    http://pip.net/wp-content/uploads/2012/11/kfz.png

    • Hi Andreas,

      Den Artikel von Philipp habe ich bereits als „Draft“ zur Hälfte schon vor zwei Tage vor dessen Veröffentlichung gelesen. Ein großartiger Beitrag, der die Bigotterie und Heuchelei von Google hervorragend auf den Punkt bringt.

      Selbstverständlich gelten für Google noch mal gaaaaaaaanz andere Spielregeln, als für diejenigen die bei Google mitspielen wollen. Man wird sehen, wie inwieweit sich Google auf dieser Grundlage nicht noch ein eigenes Grab schaufelt…

      Gruß,
      Sebastian

      P.S. ergänzend zu meinem Beitrag auch noch:
      http://searchengineland.com/confirmed-google-panda-refresh-22-happened-on-november-21st-141098

      … es war demnach tatsächlich ein „Panda“-Update das letzte Woche stattfand…

  7. […] Von einem Google Update, das keines war – Vergangene Woche machten als Google Pony-Update titulierte Ranking-Schwankungen in allen größeren SEO-Blogs und auf Social Media Kanälen die Runde. Dem wurde von John Mueller widersprochen. Weiter… […]

  8. Fabian sagt:

    Hallo,

    ich habe eine Frage hierzu:
    „Sie weisen in der Regel nur sehr geringfügigen unique content auf (oftmals nur die Adressinformationen ohne zusätzliche Informationen), der lediglich aufgrund der hohen internen Verlinkungsdichte im Rahmen einer “aufgeblähten” Seiten-Struktur (z.B. zahllose Tag-Seiten mit keiner oder nur geringer Variation der Inhalte) zu ranken imstande war.“

    Ich habe in letzter Zeit bei meinem privaten Musikblog die länge der Beiträge massiv erhöht, aber auch vor geraumer Zeit Tag-Seiten für den Index freigegeben. Hat anfangs super geklappt, diese Seiten ranken auch ganz gut und ich nutze sie um den Nutzern in Beiträgen einen Mehrwert zu bieten, wenn sie zu einem Thema mehr wollen.

    Habe Angst, dass es sich auch bei mir um eine aufgeblähte Seitenstruktur mit zu vielen Tag-Seiten handelt. Sollte ich bei den Tags mit noindex und/oder nofollow arbeiten?

    Allgemein vielen Dank für den Artikel. Mich hats auch fein erwischt, hat sich auch beim Traffic massiv ausgewirkt.

    Viele Grüße
    Fabian

    • Hallo Fabian,

      Der Punkt ist folgender:
      Mann muss sich beim Anlegen von „Tag“-Seiten generell fragen, wieviel Mehrwert der Inhalt auf der „Tag_1“-Seite gegenüber den Inhalten von „Tag_2“-Seite aus Sicht der Suchenden aufweist. So ist bspw. vollkommen sinnlos ein „Singular“-Tag UND ein „Plural“-Tag zu verwenden…

      Meine Faustregel lautet:
      Eine Kategorie verwenden, die für den Nutzer im Blog die Navigation erleichtert und dabei das Haupt-Keyword für die Thematik des Beitrags gut auf den Punkt bringt. So kommt man am Ende dann auf 5 bis 10 Kategorien pro Blog.

      Zusätzlich sollte man pro Artikel 2-4 Tags verwenden. Tendenziell muss dabei darauf geachtet werden, dass bei weiteren Beiträgen GENAU DIESE Tags immer wieder verwendet werden. Eine „Tag“-Seite auf der nur ein Artikel ist, ist sinnlos aus SEO-Sicht.

      Am Ende verwendet man idealerweise so ca. 20-40 Tag-URLs, auf die die Inhalte zielgerichtet verteilt werden. Je weniger Tags man die Beiträge dabei zuordnet, desto weniger DUplicate Content wird generiert. Auf unserem Schwestern-Blog WinLocal.de/Blog nutzen wir bspw. sehr strikt EINE Kategorie und ZWEI Tags pro ARtikel und fahren sehr gut damit.

      Weniger ist mehr…!

      Gruß,
      Sebastian

      P.S. Viel Erfolg!

  9. Fabian sagt:

    Hallo Sebastian,

    vielen Dank für die Info, dann schaue ich mir das mal an und baue meinen Blog dahingehend um. Viel schlimmer kann es aktuell eh nicht werden. 😉

    Viele Grüße
    Fabian

  10. Florian sagt:

    Hallo Sebastian,
    glaubst du hierbei jetzt immer noch an Panda/Pinguin/Pony oder vermutest du eine Neuordnung der lokalen Suchergebnisse zur Vorbereitung auf den Launch vom Knowledge Graph in der lokalen Suche?
    LG,
    Florian

  11. […] hat Sebastian Socha vom Kennstdueinen.de-Blog eine interessante Analyse vorgenommen, die auf das Google Update näher eingeht und eventuelle […]

  12. Monika sagt:

    Ja es hat auf jeden Fall ein panda stattgefunden
    http://drivenowfan.wordpress.com/

Einen Kommentar schreiben