KennstDuEinen Blog

Google Panda Update – Visits, Bounce Rate & Page Impressions als Rankingsignale?

Geschrieben am von

Bieten Alexa Daten einen Ausblick auf vom Panda Update betroffenen Branchen- und Bewertungsportale?

Johannes Beus, Geschäftsführer des SEO-Tool Anbieter SISTRIX, hat in einem heutigen Blogbeitrag erste Überlegungen angestellt, welche Metriken als mögliche Ranking-Signale des Google Panda Updates von SEOs im Auge behalten werden sollten, wenn es darum geht eventuell gefährdete Kandidaten des auch hierzulande anstehenden Algorithmus Updates bereits im Vorfeld zu analysieren.

Da ich mich ebenfalls in dem Beitrag „SEO-Herausforderung: Google Panda VS. Branchenverzeichnisse“ zu dieser Thematik geäußert habe, möchte ich mit Johannes‘ Artikel diesen Faden erneut aufgreifen, um der Diskussion um das Google Panda Update noch mehr Raum zu geben…

Welche Metriken stehen zur Analyse öffentlich zur Verfügung?

Um mit Daten zu hantieren, die allen SEOs öffentlich zur Verfügung stehen, stützt sich der Autor vorrangig auf Daten des Webanalyse Diensts Alexa. Zur „Methodik“ daher noch rasch ein Zitat aus dem Blogartikel:

„(…) Für einen näheren Blick finde ich qype.co.uk sowie yelp.co.uk recht interessant: beide haben das gleiche Geschäftsmodell, doch Yelp blieb in UK von Panda verschont, während es Qype getroffen hat. Viele Daten der beiden Domains sind recht ähnlich, doch schaut man sich Verweildauer, PageView pro Nutzer und Bounce-Rate an, fallen Unterschiede auf. (…)“

Johannes kommt in seinem Artikel zu dem Schluss, dass bei Betrachtung der drei Metriken Seitenaufrufe pro Besucher (PV/ User), Absprungrate (Bounce %) und Aufenhaltsdauer (Time on Site) recht offensichtlich wird, wie bei den Gewinnern angesichts des Panda Updates in den UK alle drei Werte grundlegend besser als bei den Wettbewerbern waren, die rapide an Sichtbarkeit verloren haben.

Bei Qype.co.uk als Verlierer des aktuellen Google Updates fallen die Nutzersignale auffallend niedriger aus, als bei Yelp.co.uk, was möglicherweise einen Faktor unter verschiedenen Signalen darstellt, die im Rahmen das Panda Updates algorithmisch ausgewertet werden.

Alexa Daten – Übersicht deutscher Branchen- & Bewertungsportale

Um auf das Panda Update vorbereitet zu sein, bzw. um eine erste Grundlage zur Analyse der bald auch auf dem deutschen Suchmarkt stattfindenden Änderungen des Google Algorithmus zu bieten, möchte ich anknüpfend an den Beitrag bei SISTRIX heute einfach mal eine kleine Übersicht erstellen.

Im folgenden findet man nun ein paar kleine Tabellen mit verhältnismäßig bekannten, wie auch weniger bekannten Branchen- und Bewertungsportalen, inklusive der dazu gehörigen Alexa Daten. Mal schauen, ob sich so ggf. halbwegs stimmige Prognosen treffen lassen, wer zu den Gewinnern und wer zu den Verlieren des Panda Updates gehören könnte. Zur Info: Sämtliche Daten sind auf die vergangenen drei Monate extrapoliert.

Alexa Daten Bewertungsportale

Alexa Daten „große“ Branchenportale

Alexa Daten „kleine“ Branchenportale

Ausgehend von Johannes‘ These fallen bei genauerer Betrachtung der hier veröffentlichten Zahlen nämlich durchaus ein paar Muster auf – ganz besonders, wenn man sich die einzelnen Seiten mal live anschaut!

Unter den Kandidaten, die sich – lediglich angesichts der obigen Daten – als vom Google Panda Update „bedroht“ bezeichnen können, wären m.E. möglicherweise folgende:

Ganz sicher kann man die Aussagekraft von Alexa grundsätzlich bezweifeln. Wenn es jedoch möglich ist – und das kann man angesichts der gezeigten Daten wohl kaum bezweifeln – übergreifende Muster bei der Betrachtung der einzelnen Websites und ihrer Datenpunkte zu erkennen, dann haben die hier zusammengetragenen Informationen durchaus ihre Relevanz aus Sicht der Suchmaschinenoptimierung.

Nimmt man dann noch die von Google mit dem Algorithmus Update anvisierten Ziele bei der Betrachtung der Daten hinzu, dann zeigen sich doch erhebliche Parallelen zwischen „wertvollen Seiten“ und deren Nutzersignalen, gegenüber „minderwertigen Seiten“ und deren Benutzerdaten…

Bildquelle:
pixelio.de / Blumix


21 Antworten zu “Google Panda Update – Visits, Bounce Rate & Page Impressions als Rankingsignale?”

  1. Johannes sagt:

    Ja, ist in der Tat interessant, dass selbst die schlechten Daten von Alexa da schon ein Bild zeichnen. Man sollte das allerdings nicht auf diese 3 Werte jeweils beschränken, sondern im besten Fall noch mit 50 weiteren Werten (die häufig nur Google hat) machen :-)

  2. Hi Johannes,

    Ist klar, dass das nur ein extrem reduzierter Ansatz ist.

    Falls aber nach dem Panda Update ein paar der hier negativ aus dem Rahmen fallenden Portale unter den Verlierern dabei sind, dann bieten diese Daten durchaus Optimierungsansätze, von denen einige ggf. bereits mit ein paar Design-Umstellungen erschlagen werden könnten 😉

  3. Vielleicht sollten diese Websites einfach mal in ein paar nützliche Inhalte investieren? Ganz im Sinne von: „Der Tag, an dem die On-Page-Optimierung ihre Bedeutung verloren hat“. Es wird höchste Zeit.

  4. Markus sagt:

    Mag durchaus sein, dass PVs, BR und ToS Signale sind, die Google berücksichtigt. Dass diese nutzerbasierten Metriken gerade bei Verzeichnissen eine „verlässliche“ Annäherung mit Blick auf den Nutzwert erlauben, möchte ich aber bezweifeln. Aus Sicht eines Verzeichnisnutzers ist schnelles Finden und ein entsprechend kurzer Aufenthalt nicht unbedingt von Nachteil. Ich denke daher, dass Google die genannten Parameter – wenn überhaupt – in der Tat nur als „3 von 50“ heranzieht. Möglich wäre auch, dass diese nutzerbasierten Parameter zwar mit der Veränderung durch das Panda Update korreliert sind, aber dass die eigentlichen Ursacher noch tiefer liegen.

  5. @Markus:

    Wie ich ja Johannes zustimmend betont habe, ist die hier vorgestellte „Methode“ in jedem Fall ein extrem reduzierter Ansatz, der im Idealfall selbstverständlich um weitere Signale (Brand, Offpage, Technik, DC, etc.) erweitert werden muss.

    Aber erkläre mir doch bitte die auffällige Korrelation der Daten z.B. bei…

    – Branchenbuchsuche.de
    – Teleauskunft.de
    – Exilon.de

    … und wieso Du glaubst, dass diese Werte „nicht unbedingt von Nachteil“ sind?

    @Sasa:
    Da stimme ich Dir zu… wobei manche Portale durchaus nützliche Inhalte vorweisen können, nur werden diese grundsätzlich irgendwo im Design versteckt, damit der Nutzer auf Ads klickt.

  6. Andreas sagt:

    Ich zweifle auch, ob die ToS entscheidend ist. Testet doch mal selbst: Suche eine Firma bei Google und klicke auf einen Treffer. Wie lange brauchst du, um die Informationen zu diesem Treffer die du benötigst, herauszusuchen: In der Regel können das doch nur die Adresse, Rufnummer oder Webadresse sein – das dauert keine 30 Sekunden.

    Ich frage mich eher warum die Leute fast 4 Minuten bei gelbeseiten.de verbringen – dort gibt es nichtmal Bewertungen.

    Selbes bei PV: Wenn der User schnell sein Ziel erreicht benötigt er wenige PV. Auch hier habe ich mich schon immer bei den Gelben Seiten gefragt, warum ein *durchnschnittlicher* User 5 Seitenaufrufe benötigt um endlich das zu finden, wonach er suchte.

    Um das Ganze noch zu verdeutlichen: Ich habe in den Ländern in denen das Update schon war eine Bounce Rate über 80% und ToS unter einer Minute – der Traffic hat sich seit Panda um 30% erhöht und die Seite ist keine Brand.

    Leider kann ich außer Spekulationen auch nichts konkretes Beitragen. Bei Qype fällt mir aber auf, dass unzählige Seiten einfach keine Inhalte haben und ich glaube dass wenn dies zu viel wird, die komplette Domain abgestraft wird.

    http://www.qype.co.uk/place/777715-O-I-Fleischhauer-KG-Ahrensburg

    Diese Inhalte gibt es bei Qype für JEDES Land und JEDE Domain – also zigfach dupliziert.

    • Hi Andreas,

      Ich glaube, dass es auch entscheidend ist, in welcher Suchphase des gesamten Suchzyklus sich der Suchende befindet. (Überblick verschaffen, Vorabrecherche, engere Auswahl, Top Kandidaten, etc.)

      Zur Anregung mal ein paar spontane Fragen/ Überlegungen von mir dazu:

      – Schaut der Nutzer erst mal, was es überhaupt in einer bestimmten Stadt und/oder in einer bestimmten Branche an Anbietern gibt?

      – Ist dem Suchenden zunächst die Qualität der Anbieter egal, weil sich in der betreffenden Branche sowieso alle gleichen? Klar ruft man bei einem Schlüsseldienst einfach an, weil Not am Mann ist. Dann brauche ich auch nur 30 Sekunden für das Raussuchen der Rufnummer… was ist aber, wenn ich eine Zimmerei suche, die mir mein Dach aufstocken soll? Oder einen unabhängigen Finanzberater? Da reicht eine Rufnummer oder Adresse einfach nicht aus…

      – Auf Gelbeseiten.de gibt es seit einer Weile Videos: Könnte das der Grund für die lange Verweildauer sein? Dies wären dann Nutzer, die bereits einen engeren Kreis an Anbietern in Betracht ziehen und sich nun weiterführende Informationen anschauen… Darüber hinaus sind die Gelben Seiten ja auch eine bekannte Offline Marke – sind deswegen ToS und PV so hoch, weil die Nutzer der Marke vertrauen? (Um hochwertige Backlinks müssen sich die übrigens auch nicht zwingend sorgen…)

      – Was die von Dir erwähnte Seite in den US anbelangt: Vermutlich liegt hier ja auch kein externes wie internes DC-Problem vor, oder? Ggf. füllt Deine Seite thematisch auch eine Nische? Wie hoch ist der Anteil an Boilerplate-Texten? Mehr als 100-150 interne Links auf einer Seite? Thematisch passende, wertvolle Backlinks vorhanden?

      – Das mit Qype habe ich so auch schon im Kommentarbereich von Johannes‘ vorherigem Artikel zum Panda Update aufgeführt – das ist halt Content-Recycling der eher verantwortungslosen Art…

  7. Andreas sagt:

    Hi Sebastian,

    sorry hatte vergessen, dass es sich bei den von mir angesprochenen Seiten um Branchenbuch Seiten in Australien, Canada und UK handelt

    Also 1:1 vergleichbar.

    • Hmm… dann habt ihr wohl sinnvolle Backlinks, nur wenig Boilerplate-Content, vermutlich auch noch ein paar Brand-Searches, keinen internen wie externen DC…

      … und profitiert damit am Ende wohl einfach vom Sichtbarkeitsverlust der Verlierer 😉

      P.S. Spaß beiseite… das Thema ist ziemlich komplex und erst recht als Prognose nur schwer in seiner Fülle zu behandeln, ich wollte ja auch nur ein paar kleinere Aspekte aus dem Bereich der Nutzersignale aufgreifen, die man als SEO im Blick behalten sollte… denn Wettbewerbs-Benchmarks sind immer interessant!

  8. Andreas sagt:

    Klar, wir wollen doch alle möglichst schnelle rausfinden was da los ist :)

    Was ist denn mit den früher genannten Faktoren:

    – übermäßige Einbindung von Werbung
    – zeitgemäßes Layout
    – Geschwindigkeit der Seiten

    Irgendwie finde ich nichts konkretes obwohl schon über 2 Monate ins Land gegangen sind

  9. Markus sagt:

    @Sebastian: a) Auffällige Korrelation der Werte der 3 von Dir im Kommentar explizit genannten Verzeichnisse mit was? Diese könnte es mit Blick auf das Thema erst nach dem Panda-Update geben. Und nochmal: Correlation doesn’t equal Causation. b) Bei VERZEICHNISSEN (Dein Beispiel) weisen wenig Views und kurze Aufenthalte nicht zwingend auf geringen Nutzwert hin – und wären deshalb als negatives Panda Signal für Google m. E. eher ungeeignet.

  10. @Markus:
    „Auffällige Korrelation der Werte“ bezieht sich auf die angegebenen Alexa-Daten angesichts der inhaltlichen/visuellen Machart der drei erwähnten Domains. Ist ja logisch, dass wir noch keine Post-Panda-Korrelation aufstellen können…

    Und klar: Korrelationen müssen nicht zwangsläufig in den gleichen Faktoren begründet liegen. Manchmal hilft jedoch die Isolation einzelner Signale bei anschließendem Benchmarking Muster zu erkennen. Ganz sicher müssen noch deutlich mehr Faktoren hinzugerechnet werden, dann wäre aber eine solche Tabelle nur für umfassende, interne Analyse-Zwecke geeignet – nicht aber für einen öffentlichen Blogpost.

    Ich möchte keinesfalls irgendwelche Vermutungen als Fakten aussehen lassen, gerade auch aus Respekt den Betreibern der o.g. Portale gegenüber – ich stelle hier lediglich Überlegungen auf Grundlage eines Vergleichs zwischen Wettbewerbern dar…

    @Andreas:
    – Zeitgemäßes Layout hat viel mit Nutzersignalen zu tun (Vertrauen in die Optik bzw. in die Brand, Verweildauer, Nutzungstiefe, etc.)
    – Übermäßige Werbung haut in die selbe Kerbe…
    – Geschwindigkeit von Seiten ebenfalls, denn eine Seite die ewig lädt, wird viele Bounces aufweisen, bzw. zu Nutzerabsprüngen bei dem Versuch, sich durch die Seite zu navigieren…

  11. Google Panda Update – Benutzerdaten als Rankingfaktor?…

    Taugen aktuelle Alexa-Daten zu Nutzersignalen wie Bounce-Rate, Verweildauer & PageViews zur (Vorab-)Analyse des Google Panda Updates? [+ aktuelle Daten deutscher Branchen- und Bewertungsportale]…

  12. Christian sagt:

    Mal eine ganz bescheidene Frage:

    wie werden eigentlich die drei Werte (PV/User, bounce, time on site) ermittelt und wer ermittelt diese?

    • Das ist ja der Witz an der Angelegenheit… Krass vereinfacht gibt es eben die Perspektive der Suchmaschine, die lediglich User-Sessions tracked und dabei das Nutzerverhalten im Rahmen der sukzessiven Verfeinerung der Suchanfragen misst. Und es gibt die Perspektive der Webmaster, die mit irgendwelchen Tools Web-Controlling beitreiben und dabei selbstverständlich weitaus umfassendere, aber dazu noch gänzlich andere Daten sammeln.

      Was nun tatsächlich rein algorithmisch bzgl. PV/User, bounce und time on site ein guter Wert ist, steht in den Sternen, da diese letztendlich nach Seiten-Typus stark auseinanderklaffen können.

      Mehr dazu hier:
      http://www.bertschulzki.de/mythos-absprungrate-als-rankingkriterium/
      http://www.baynado.de/blog/panda-update-welche-signale-google-fuers-ranking-nutzt

      P.S. Alexa misst diesen Wert über die Nutzerdaten der Alexa-Toolbar und hierbei stellt sich eben die Frage, ob das ein repräsentativer Querschnitt ist…

  13. […] Google Panda Update – Nutzersignale als Rankingsignale […]

  14. Christian sagt:

    Vielen Dank für deine Antwort. Und danke auch für die beiden Links.

  15. 121WATT sagt:

    @Andreas – ich sehe das genauso wie Sebastian. Nutzer die nach Informationen auf einen Branchenbuch suchen, werden immer einen Suchpfad zurücklegen. Wenn Sie wüssten was und wenn Sie suchen, würden Sie ja direkt bei Google abfragen. Also längere Verweildauern, das Bewerten verschiedener Suchergebnisse und eine höhere Anzahl von PI/Visit erscheint als sehr natürlicher Weg. Auch wenn nicht direkt im Zusammenhang zu lokalen Suchabfragen, sieht man bei „Full Value of Search“ von Google Untersuchungen, bei denen Nutzer Suchpfade von 10-15 Suchen bis zu einer Transaktion zurücklegen – siehe hier http://www.full-value-of-search.de/
    Beste Grüße aus München
    Alexander

  16. Hi Alexander,

    Danke für den interessanten Link!

    Das Thema „Suchzyklen“ ist m.E. noch nicht hinreichend in die meisten Online-Marketing Überlegungen eingeflossen, was auch dem Umstand geschuldet sein könnte, dass i.d.R. nur IR-Companys hierzu relevante Informationen zur Verfügung stehen. Weitreichende externe Messungen stehen in diesem Zusammenhang m.E. leider noch aus.

  17. […] Google Panda Update – Visits, Bounce Rate & Page Impressions als Rankingsignale? | Kennst… Bieten Alexa Daten einen Ausblick auf vom Panda Update betroffenen Branchen- und Bewertungsportale? Source: blog.kennstdueinen.de […]

  18. […] Wie immer schwieg Google darüber, was genau verändert wurde. Für betroffene Webseitenbetreiber wurden im Firmenblog einige Fragen veröffentlicht, die einem dazu verhelfen sollten, die Seite zu verbessern. Es ging um die Werbung und die Qualität der Inhalte. Die Fragen waren aber ziemlich unkonkret. Man vermutete außerdem, dass Google stärker benutzerbezogene Faktoren wie durchschnittliche Verweildauer und die Absprungrate berücksichtigte. Oder auch die Tatsache ob User häufig nach einer kurzen Zeit zurück zur Google-Ergebnisliste zurückkehrte, weil er wohl nicht gefunden hat, wonach er suchte. Solche Seiten konnten unter Umständen auch als minderwertig eingestuft worden sein87. […]

Einen Kommentar schreiben