KennstDuEinen Blog

Warum das Feature “Links entwerten” blanker Wahnsinn ist…

Geschrieben am von

Vier Gründe, die gegen eine systematische Einführung eines “Link-Entwertungs Tools” sprechen

y u no discount these links?Das Penguin Update hat eine neue Zunft an SEOs hervorgebracht, die sich um den Abbau von “schlechten” Links bei Domains kümmern, die es mit dem Linkbuilding übertrieben haben und im Zuge des letzten Google Updates eine algorithmische Zurückstzufung ihrer Rankings erfahren mussten.

Gleichzeitig tauchten etliche Artikel auf, die über erfolgreiches “Negativ-SEO” zu berichten wussten – einer Maßnahme, bei der von Wettbewerbern in einem kurzen Zeitraum etliche Spam-Links mit wenig variantenreichen Link-Texten gesetzt werden, was unter Umständen entweder zu einem echten Link-Penalty oder zu einer Abstufung beim nächten Penguin Update führen kann.

Im Zuge dessen geriet die Diskussion unter Webmastern und SEOs in Bereiche, in denen sich verzweifelte Domain-Inhaber ein Feature von Google wünschen, mit dem sie Links entwerten können, von denen sie ausgehen, dass sie ihrer Domain schaden können (weil diese womöglich von Konkurrenten mit böser Absicht gesetzt wurden).

Als ich mich gestern nach langer Zeit mal wieder ausführlich mit den überarbeiteten Bing Webmastertools befasst habe, ist mir – neben einem allgemein erheblich erweiterten Funktionsumfang und einer viel größeren Detailtiefe bei der Aufbereitung der Daten – die neue Funktion “Disavow Links” aufgefallen, was dann auch der Grund für mich war, diesen Beitrag zu schreiben.

disavow links mit Bing

Denn das Feature “Links entwerten” ist blanker Wahnsinn …

… weil man es nicht von allen Webmastern & Domain-Inhabern verlangen kann

Friseur Wunderschön in Mannheim hat eine tolle Website. Zumindest meint er das und hin und wieder ruft auch ein Kunde an, um einen Termin in einer der drei Mannheimer Filialen zu vereinbaren. Auf Nachfragen am Telefon erfährt man auch immer wieder, dass der Kontakt über die Website zustande gekommen sei.

In letzter Zeit ist es jedoch sehr ruhig um Friseur Wunderschön geworden. Das Telefon steht still und auch die Laufkundschaft, von denen einige sich auch über die Website informiert haben, bleibt zusehends aus.

Ein Blick “ins Internet” offenbart dem Inhaber Schreckliches: Google “mag” die Website nicht mehr. Es ist kaum noch ein Ranking auf der ersten Suchergebnisseite für die wichtigen Suchbegriffe zu finden. Was ist da los?

Szenario 1 – mit externer Hilfe:
Friseur Wunderschön beauftragt eine SEO-Bude, die sich der Angelegenheit annimmt. Diese findet heraus, dass ein Wettbewerber das lustige Tool xRumer in Kombination mit ScrapeBox für sich entdeckt hat und nun schon seit geraumer Zeit Foren, Blogs und andere Free Domains mit Links zuballert – zahllose Links auf schäbigen Domains, die eindeutig das Signal liefern, dass hier exzessiv am Google Ranking herum manipuliert wird.

Die SEO-Bude bietet nun an, die Links zurückzubauen, was jedoch extrem zeitaufwändig und nur selten von Erfolg gekrönt ist, wodurch das viele liebe Geld in etlichen Fällen zum Fenster hinausgeworfen wird.

In jedem Fall macht Friseur Wunderschön nun eine Zitterpartie in den nächsten 3-6 Monaten durch, das Geld in der Kriegskasse wird immer leerer und vielleicht, wirklich nur vielleicht sind hinterher die Rankings wieder in Ordnung und der ganze finanzielle Aufwand hat sich durch ein Wachstum an Zugriffen und damit auch Kunden langfristig wieder gelohnt. Es hat lange gedauert, zwischendurch lagen die Nerven auf allen Seiten auch mal blank und auch die finanziellen Mittel wurden bei dieser “Rettungs-Aktion” überstrapaziert.

Wie Bitte? Das soll also Google von Webmastern verlangen?

Szenario 2 – ohne externe Hilfe:
“Hey! Da gibt es doch das neue Feature “Links entwerten”. Super, das mach ich mal.” denkt sich der Friseur WunderschönNICHT!

Wirklich: Auf KEINEN FALL!

In 90% aller Fälle, wird Friseur Wunderschön weder Zugriff auf den Server haben, um die Domain für die Webmastertools zu verifizieren, noch dass er überhaupt auch nur ein Fünkchen Ahnung hat, wie er dieses Tool bedient, welche Link-Kriterien es beim Abwerten der Links zu beachten gilt, was das ganze überhaupt soll und woher überhaupt die Zeit nehmen?

Wie soll man als Friseur ohne SEO-Kenntnisse gegen 1.000 Links, die ein entsprechende Tools im globalen Web täglich auf die Websites schaufeln kann, manuell ankämpfen? Macht es wirklich Sinn von Webmastern zu verlangen, sich auf ein derartiges Niveau herabzulassen?

Im Umkehrschluss treibt Google auf diese Weise nichtsahnende Webmaster und Domain-Inhaber in eine ungewisse Zukunft mit einer SEO-Agentur, die wiederum selbst einem Trend aufsitzt, bei dem sich alles darum dreht, der Suchmaschine die Arbeit in diesem Bereich abzunehmen (ganz abgesehen von dem absolut zweifelhaften Erfolg derartiger “Link-Abbau” Maßnahmen bei Projekten, deren Linkgraph in den letzten Jahren auf Teufel komm raus verbogen wurde, wenn man bedenkt, was für ein zeitlicher und finanzieller Aufwand dagegen steht).

Links entwerten

… weil man als Webmaster oder Domain-Inhaber nicht den Job der Suchmaschinen machen muss!

Es ist nicht die Aufgabe von Webmastern, Domain-Inhabern oder SEO-Agenturen clevere Algorithmen, zielgerichtete SPAM-Erkennung sowie eine zuverlässige Auswertung von Qualitäts-Signalen der Link-Quellen auf Seite der Suchmaschine durch die Verwendung eines “Links entwerten” Features zu ersetzen.

Hey Google! Das ist Dein Job, denn Du jeden Tag besser machen musst, denn selbstverständlich will da draußen jeder an den Rankings “herumfummeln”. Das ist doch nichts neues…

Bei Google sind tausende hochbezahlter, intelligenter Spezialisten angestellt. Diese werden dafür bezahlt, die beste aller Suchmaschinen zu entwickeln und stetig zu verbessern. Selbstverständlich klappt das nicht immer, da selbst hochentwickelte Algorithmen “Fehler machen” können. Google wäre nicht Google, wenn es sich dessen nicht absolut bewußt wäre und hält daher mit etlichen unterschiedlichen Feedback-Schleifen dagegen, die es ermöglichen die Qualität der Suchergebnisse aus Sicht der Nutzer zu eruieren.

Da kann es nicht sein, dass diese Veranwortung nun auf die Webmaster, Domain-Inhaber und SEOs abgewälzt wird.

Angesichts dessen mutet es außerdem als ein technologisches und auch soziales Armutszeugnis an, algorithmische Defizite bei Google nunmehr mit Hilfe einer Blockwart-Mentalität und der Förderung von Denunziationen unter den Webmastern, Domain-Inhabern und SEOs auszugleichen.

Das zeugt nicht nur von Faulheit auf der Seite von Google, sondern ist aufgrund der sich daraus ergebenden negativen emotionalen Zustände, die sich hieraus unter entwickeln Webmastern, Domain-Inhabern und SEOs ausbreiten, auch geradezu verantwortunglos.

… weil man kein unproduktive sondern produktive Arbeit machen sollte!

Google darf kein “Links entwerten” Feature anbieten, weil es zu viel Zeit frißt, die man als Webmaster, Domain-Inhaber oder SEO besser anders investiert:

Nämlich in Content-Marketing, in Social Media Aktivitäten, in den Aufbau neuer Geschäftsbeziehungen und Kooperationen, in klassische Werbe-Kampagenen und von mir aus auch in Suchmaschinenwerbung wie bspw. Google AdWords.

Hauptsache es entwickelt sich etwas neues, positives und erschöpft sich nicht in rückwärtsgerichteten Tätigkeiten!

Google kann eine derart negativ konnotierte Aufgabe doch nicht einfach auf die Schultern derer abwälzen, die eigentlich für unternehmerisches Wachstum, neue Kundschaft und positive Image- und Reputationspflege sorgen sollten.

… weil Google sich sonst selbst ins Knie schießt

Wenn Google Webmastern, Domain-Inhabern und SEOs nicht mitteilt, welche Links einer Website beim Ranking schädigen, dann ist ein “Link entwerten” Feature auch vollkommen sinnlos. Schließlich kann man nicht 100%ig wissen, ob ein Link nun schädlich, oder einfach nur nutzlos ist. Man wäre beim “Link entwerten” auf herkömmliche SEO-Tools zur Link-Evaluation und den gesunden Menschenverstand angewiesen, was jedoch selbstverständlich auch dazu führen kann, dass die falschen Links entwertet werden.

Um Umkehrschluss würde eine Offenlegung der Qualitätskriterien für Links in den Webmastertools dafür sorgen, dass Google sehr wichtige Betriebsgeheimnisse veröffentlicht, die der Linkbuilding-Industrie selbstverständlich immens in die Hände spielen würden:

Es wäre nunmehr nämlich ziemlich klar, welche Links sich positiv auf das Ranking einer Website auswirken und eine “Rettung des globalen Linkgraphen” wäre nicht mehr denkbar, Manipulation wäre nochmehr, als bisher Tür und Tor geöffnet, wodurch sich Google selbst ins Knie schießen würde.

Doch Google wird einen Teufel tun und Informationen darüber in den Webmastertools anzeigen, welcher Link negative Auswirkungen hat. Google will, dass Webmaster, Domain-Inhaber und SEOs diesen Job durchführen, denn Google ist am Ende mit seinem Latein…

Ein “Links entwerten” Feature dient am Ende nämlich nur Google, indem ausgewertet wird, welche Muster und Strukturen bei den Domains vorliegen, deren Links häufig entwertet wurden.

Ich möchte dabei gar nicht mal bestreiten, dass es auf diese Weise für Google künftig besser möglich sein wird, Negativ-SEO zu unterbinden…

… was aber angesichts dessen auch allen klar sein sollte, ist das Google noch ein gutes Stück davon entfernt ist, gemietete oder gekaufte Links, bzw. automatisiert gespammte Links zuverlässig als solche zu erkennen und entsprechend für das Ranking zu bewerten.

Wer sich ein “Links entwerten” Feature wünscht, der ist – konsequent zu Ende gedacht – auch vollkommen gegen gezielten Link-Aufbau.

Ein zielgerichteter Aufbau von relevanten Links in passenden Themenumfeldern ist jedoch ganz normal, denn “Klappern gehört zum Handwerk” und muss im Web, wo man täglich Gefahr läuft von konkurrierenden Projekten marginalisiert zu werden, in jedem Fall gestattet sein.

“Links entwerten” – Fazit

Ich halte die Entwicklung eines Tools zur Entwertung von Backlinks unter den oben skizzierten Voraussetzungen für unsinnig, wenn nicht gar schädlich.

Zum einen kann es nicht sein, dass Google die Entwicklung von zuverlässigen Link-Algorithmen auf die Schultern der Webmaster, Domain-Inhaber und SEOs abwälzt. Zum anderen haben zahllose Domain-Inhaber weder ausreichend Know-How noch überhaupt genug Zeit oder Geld, sich mit dieser Thematik ausreichend zu befassen.

Hinzu kommt die soziale Verantwortungslosigkeit seitens Google, mit einem “Links entwerten” Tool für ein Klima des Denunziantentums zu sorgen, was auch noch durch ein technologische Armutszeugnis gekrönt wird, daß nämlich so etwas wie Negativ-SEO überhaupt möglich ist, denn damit gibt Google unumwunden zu, dass gekaufte Links selbstverständlich ebenfalls wirken.

Suchmaschinenoptimierung über gezielten Linkaufbau ist damit zu einem gewissen Grad noch immer eine Budgetfrage, was ich keinesfalls gutheiße und tatsächlich ein echtes Problem darstellt, was aber in jedem Fall durch Google und nicht durch die Webmaster, Domain-Inhaber oder SEOs gelöst werden sollte. Diese drei Gruppen sollten sich um wirtschaftliches Wachstum, eine gute PR und zielgerichtetes Social Media Marketing kümmern und nicht um die Weiterentwicklung des Ranking-Algorithmus…

… oder was meint ihr?


35 Antworten zu “Warum das Feature “Links entwerten” blanker Wahnsinn ist…”

  1. Nikolas sagt:

    Danke für diese wichtigen Argumente! Deinen vorletzten Absatz halte ich sogar fast für den wichtigsten: Es wäre ein Armutszeugnis von Google auf Denunziantentum zu setzen, anstatt ihre Spam-Filter zu optimieren.

    Abgesehen davon, ließe es sich wunderbar einsetzen, um die eigene Spam-Strategie iterativ zu entwickeln. Ich setze einfach einen Haufen Spam-Links auf meine Seite. Sie wird für ein paar Tage gut ranken, dann stürzt sie ab. Danach entwerte ich die Links einen nach den anderen und schaue, bei welchen sich die Seite erholt und bei welchen nicht. Irgendwann habe ich alle faulen Links aussortiert und meine Seite rankt alleine mit den übriggebliebenen wunderbar.

    • Hallo Nikolas,

      Top! Dein Hinweis auf die iterative Optimierung mit Hilfe eines solchen Tools, ist ein super Ergänzung zu den Argumenten, die gegen die Einführung eines “Link entwerten” Tools sprechen.

      Gruß,
      Sebastian

  2. Markus sagt:

    Was hier vergessen wird:

    Das Feature macht in der Praxis doch erheblichen Sinn, wenn Google eine Website wg. der Links abstraft, es dem Kunden aber nicht mehr möglich ist, diese Links zu entfernen.

    Auch gibt es ja nach wie vor die zumindest theoretische Bedrohung durch Negative SEO, bei der jemand einfach für einen Konkurrenten schädliche Links kauft.

    Um aus der Abstrafung herauszukommen, muss man die Links ja entfernen, was aber manchmal einfach nicht möglich ist.

    Deswegen halte ich das für ein sinnvolles Tool, das allerdings nur in einigen wenigen Fällen zum Einsatz kommen sollte. Man sollte das Tool nicht als Pflichtübung ansehen, um dort täglich Links auszuknipsen, die ein bisschen seltsam sein könnten.

    • Hi Markus,

      Danke für Deinen Einwand!

      Ja… solange Google zugibt, nichts gegen Negativ-SEO unternehmen zu können, solange könnte ein derartiges Tool in Einzelfällen und Ausnahmen Sinn machen.

      Hierfür benötigt der Webmaster/ Domain-Inhaber/ SEO aber zuverlässige Informationen darüber, welche Links aus Sicht von Google tatsächlich schädlich sind, denn nur die Qualitätsrichtlinien allein sagen noch nicht alles darüber aus. Das aber wird Google aus o.g. Gründen bei einem solchen Tool nicht mitliefern, weshalb eine pro-aktive Markierung “womöglich schädlicher” Links nun wirklich eine hirnrissige Aufgabe darstellt, die keinen Mehrwert generiert, wenn noch nicht ein mal gesichert ist, dass die Entfernung der Links am Ende etwas bringt.

      U.a. deswegen bewerte ich ein “Links entwerten” Tool als fragwürdig…

      Gruß,
      Sebastian

      P.S. vermutlich macht es Sinn, ein derartiges Tool bei einem Verdacht auf Negativ-SEO nur im Rahmen eines Reconsideration Requests zu ermöglichen, damit das – wie Du zutreffend anmerkst – nicht zu einer “Pflichtübung (…) um dort täglich Links auszuknipsen” gerät…

  3. Jason sagt:

    Toller Artikel, vielen Dank!

    Ich glaube nicht, dass sich ernsthaft jemand eine solche Funktion wünscht. Derzeit ist es jedoch leider so, dass man absolut keine Möglichkeit hat, gegen “schlechte” Links etwas zu tun. Negative SEO funktioniert und wird in der Praxis auch eingesetzt. Es macht keine Sinn das Thema schön zu reden oder gar unter den Teppich zu kehren. Für einen SEO, eine SEO Agentur oder gar den Website-Betreiber, gibt es aktuell keine Möglichkeit, sich davor zu schützen.

    • Hallo Jason,

      ich glaube schon, dass es viele gibt, die sich eine solche Funktion wünschen ;-) Deswegen habe ich den Beitrag verfasst, um darauf aufmerksam zu machen, was für Implikationen sich daraus ergeben und was einfach in diesem Kontext nicht sein kann/darf…

      Du hast Recht: Das Problem ist da und darf nicht unter den Teppich gekehrt werden, aber ein solches Tool löst das Problem “Negative-SEO” ganz sicher nicht.

      Gruß,
      Sebastian

      P.S. Hier übrigens noch ein aktueller Artikel von den SEO-Trainees zum Stichwort “Negative SEO”: http://www.seo-trainee.de/negative-seo-die-dunkle-seite/

  4. Danny sagt:

    Denke auch nicht das Google dieses feature bringt. Insgesamt würde das dafür sorgen das SEO’s noch mehr Spamen mit dem gedanken “Egal, kann Sie wieder raus nehmen”.

    Bing scheint sich dagegen bei den SEO’s einschleimen zu wollen da Sie bei “Usern” nicht an beliebtheit gewinnen.

    • Hi Danny,

      Wollen wir’s hoffen, dass es so kommt, dass Google Negative-SEO in den Griff bekommt und sowohl Webmaster, als auch Domain-Inhaber oder SEOs sich nicht mit so einem Blödsinn befassen müssen…

      Gruß,
      Sebastian ;-)

  5. Jason sagt:

    Das negative Links schaden, dafür gibt es genügend Beispiele. Das Fazit im Artikel bei SEO-Trainee teile ich nicht. Auch großen Brands wird man schaden können. Nur dazu bedarf es sicherlich etwas mehr als ein paar tausend Links aus Foren innerhalb von 4 Wochen.

    Wie in diesem Artikel so schön beschrieben, werde ich den Teufel tun und Googles Job machen. Leider macht Google diesen seit Monaten mehr als schlecht. So ist es ja kein Wunder, dass sich der ein oder andere SEO so einen Unfug wie “Links abwerten” wünscht.

  6. Malte sagt:

    Hallo Sebastian,

    schöner Artikel, wie ich finde, da Du meiner Meinung nach den wichtigsten Punkt überhaupt getroffen hast:

    Selbstverantwortung!

    In diesem Fall von Google. Es kann nicht sein, dass aufgrund von technischen Hindernissen, die anscheinend derzeit nicht lösbar sind, die Verantwortung auf die Webmaster/ Domain-Inhaber/ SEOs abgewälzt wird.

    Auch die neueste Diskussion zu Infografiken macht deutlich, dass im Moment wohl mehr Baustellen aufgemacht werden, als abgearbeitet.

    Negative SEO und Spam sind selbstverständlich ein Problem, aber es gibt noch so viele andere Lücken die ausgenutzt werden im Web. Im Fall von negative seo wäre es sicherlich schön eine Möglichkeit zu haben eine penalty zu umgehen.

    Eine Lösung dazu habe ich leider auch nicht parat, vielleicht eine Meldung im Sinne von “illegale Linkaktivitäten” auf meine Seite … Da ein Urheber kaum zu ermitteln sein wird gibt es rechtlich praktisch keine Handhabe dagegen.

  7. Andreas sagt:

    Hallo Sebastian,
    guter Artikel, gute Argumente. Ach und danke für den Verweis auf unseren Artikel.
    Natürlich sollten bei dieser Problematik die Suchmaschinen in der Verantwortung stehen und nicht den Webmaster quasi in Zugzwang bringen. Aber das scheint gegenwärtig wohl einfach noch nicht möglich zu sein. Denn einerseits sollen ja quasi gute Links schon positive Auswirkungen haben, aber gleichzeitig schlechte Links keinen negativen Einfluss. Wäre das der Fall, dann könnte ja jeder an seinem Backlinkprofil rumoptimieren, wie er lustig ist, ohne negative Konsequenzen befürchten zu müssen… schwieriges Thema.

    Gruß
    Andreas

    • Hallo Andreas,

      Auf jeden Fall… sehr schwieriges Thema.

      Man kann es aber einfach lösen:
      “Schlechte”, offensichtlich manipulative Links könnte man einfach entwerten und deren Wirkung verpuffen lassen.
      “Gute”, organisch generierte Links zahlen positiv auf das Ranking ein.

      Klar wird Google hin- und wieder Probleme damit haben, “Schlechte”, offensichtlich manipulative Links stets zuverlässig als solche zu erkennen. Dann wirkt halt der ein oder andere Link aus einem Netzwerk doch noch, oder ein gekaufter Content-Link, aber man zwingt Webmastern, Domain-Inhabern und SEOs nicht auf, diese wieder zu entwerten oder abzubauen.


      Am Backlink rumoptimieren tut doch ohnehin fast jeder, warum sollte man dafür auch negative Konsequenzen befürchten? Google ist nicht die Internetpolizei! Es sollte einfach nur nichts bringen und nicht mehr und nicht weniger muss ein verbesserter Google-Algorithmus in diesem Bereich künftig leisten.

      Gruß,
      Sebastian

  8. Sabrina sagt:

    Hallo Sebastian,

    ein toller Artikel, der einem die Augen öffnet. Im ersten Moment, wo Bing das neue Feature eingestellt hat, waren alle begeistert. Doch keiner hat bis zu diesem Zeitpunkt weiter gedacht.

    Wenn man Webmastern diese Möglichkeit gibt, dann muss man damit rechnen, dass entweder unwissende sie nutzen und damit mehr Schaden anrichten, als das es was nutzt. Oder das Feature wird von SEOs genutzt. Wenn Bing jetzt genauso drauf wäre, wie Google und SEO-Seiten doof findet, dann könnte man anhand dieser Nutzung SEO-Seiten finden und komplett aus dem Index sperren.

    Anstatt Links zu sperren, sollte man eher versuchen, sie durch gute Links zu ersetzen, sie zu verwässern, etc. Soll ja bei Pinguin betroffenen Seiten gut geholfen haben.

    LG, Sabrina

    • Hallo Sabrina,

      Genau: Besser man baut noch mehr qualitativ hochwertige Links auf, als dass man an dem Müll rumpfuscht, denn man ohnehin schon verbockt hat. Mit autoritären Links kann man sehr viel wieder sauber waschen, weil die miesen Links ohnehin schon vorher auch nicht sehr positiv auf das Ranking eingezahlt haben…

      Zumindest ist das eine produktivee Tätigkeit und keine destruktive :-)

      Gruß,
      Sebastian

  9. Falko sagt:

    “Man kann es aber einfach lösen:
    “Schlechte”, offensichtlich manipulative Links könnte man einfach entwerten und deren Wirkung verpuffen lassen.”

    Wenn ich das recht verstehe willst du die Penalty für schlechte Links aufheben?! Das würde aber dazu führen, dass jeder Webseitenbetreiber/SEO einfach nur noch auf Quantität spielt. Einfach massig Links setzen, denn man hat ja nichts zu verlieren. Entweder es wird besser oder bleibt wie es ist. Andere Unternehmen, die nicht so viel Zeit ins Linkbuilding investieren wären dadurch u.U. im Nachteil. Zumal das Internet dann ziemlich geflutet werden dürfte.

    • Hallo Falko,

      Das Internet wird bereits geflutet.
      Wer mag, der kann ja, wenn es so kommt, wie ich es mir wünsche, dann seine Zeit damit verschwenden auf Masse zu gehen – er wird gegenüber denjenigen, die einschätzen können, bzw. über Tools eruieren, was ein sinnvoller Link ist und die ihre Zeit nur auf solche Links verwenden, in jedem Fall verlieren, weil er mit dem Massen-Prinzip keine guten Links bekommt. Zumal auch kein Traffic über Massen-Links kommt.

      Gute Links kommen (fast) von alleine… man muss nur ein wenig nachhelfen :-)

      Gruß,
      Sebastian

  10. André sagt:

    Hallo Sebastian,

    ich gebe Dir Recht, die einfachste Lösung des Problems ist:

    Google darf keine Links mehr als negativ, schlecht oder böse bewerten.

    Links sind entweder wertvoll oder wertlos.

    Ein Linkentwertungstool ist meiner Meingung nach ein Linktesttool für SEOs und ich weiß nicht, ob Google so etwas möchte.

    Gruß, André

  11. Falko sagt:

    Hallo Sebastian!

    “weil er mit dem Massen-Prinzip keine guten Links bekommt.”

    Keine Guten, da gebe ich Dir natürlich Recht, aber er bekommt welche mit (wenn auch geringem) Wert. Kleinvieh macht ja bekanntermaßen auch Mist. ;)
    Ich denke, es besteht dabei ein Risiko, da sich Links ohne Weiteres automatisiert setzen lassen und eine fantastillionen gesetzte Crap-Links eben vielleicht doch etwas zur (vermeintlich positiven) Wertung beisteuern würden.

    Gruß

    – Falko

    • Hallo Falko,

      Ja… dieses Risiko wird womöglich weiterbestehen.
      Einen guten Eindruck hinterlässt man mit dieser Methode aber nicht im Web.

      Dann heißt es wieder am Ende:
      “Außer Ranking nüscht jewesen…!”

      Darüber hinaus ist mir dieses Risiko, mich ggf. dem Wettbewerb mit ScrapeBox-/ xRumer-Spassvögeln auszusetzen allemal lieber, als dass alle sich fortwährend mit der Markierung womöglich schädlicher Links befassen. Ich will mich jedenfalls nicht damit befassen.

      Gruß,
      Sebastian

  12. Falko sagt:

    Auch wieder wahr. Wenn nur diese Optionen zur Wahl stehen, würde ich auch das Risiko, anstelle der Sisyphus-Arbeit bevorzugen.
    Hoffen wir einfach, dass Google etwas anderes hervorzaubert.

  13. […] Warum das Feature “Links entwerten” blanker Wahnsinn ist… var szu=encodeURIComponent(location.href); var […]

  14. tobi sagt:

    Google führt dieses Feature nicht zum Wohl der Webmaster ein sondern zum eigenen Wohl. Und damit erklärt sich das auch. Das Entwertungstool liefert super Trainingsdaten für manipulierte Links.

    Webmaster sind Google aus geschäftlicher Sicht zu Recht egal. Denn von denen gibts genug.

    Ich kann das gejammer der SEOs nicht mehr hören. Manche SEOs scheinen zu meinen, sie hätten ein Anrecht auf Fairness. Das gibts im Leben aber nicht.

  15. […] es da wohl noch ein paar Bugs im Algorithmus…Danke Sebastian Socha! Unter anderem für den Reality Check in seinem Artikel “Warum das Feature ‘Links entwerten’ blanker Wahnsinn ist…”. Denn […]

  16. Dominik sagt:

    Hallo Sebastian,

    was ich nicht ganz verstehe ist, dass in dem Artikel Google so schlecht wegkommt. Zumindest ist das mein Eindruck. In der Hinleitung ist zunächst die Rede davon, dass sich viele Domain-Inhaber ein Feature zur Linkentwertung wünschen – nun ist es aber gerade Bing, das dem Wunsch nachgekommen ist. Also sollte das Beispiel so konstruiert sein, dass Bing vielleicht auf dem Holzweg ist – oder Suchmaschinen allgemein. Bei der späteren Argumentationskette wird Bing aber nicht einmal erwähnt sondern es wirkt so als hätte Google die “Disavow Links” Funktion eingeführt.

    Ansonsten Hut ab! Grundsätzlich ist das ein super Artikel der eine wichtige Diskussion anstößt!

    Gruß
    Dominik

    • Hallo Dominik & Chris,

      Danke für Euer Feedback!

      Ihr habt schon Recht, es war BING, dass dieses Feature bereits eingeführt hat und daher kommt Google evtl. etwas ungerecht kritisiert in dem Text weg. Aber es sucht nun mal niemand bei BING in Deutschland und Google ist für alle SEOs hierzulade einfach viel relevanter.

      Darüber hinaus hat sich auch Google schon an mehreren Stellen dazu geäußert, dass in dem Unternehmen mit einer solchen Funktion für die Webmastertools geliebäugelt wird. Daher der stärkere Fokus im Verlauf meines Beitrags auf Google… vielleicht ein wenig zu heftig “gebashed”? ;-)

      Gruß,
      Sebastian

  17. Chris sagt:

    Hi Sebastian,

    grundsätzlich stimme ich Dir und Deinen Ausführungen zu…ABER…

    Hier ist im ganzen Artikel von Google die Rede…Google bietet dieses Feature aber doch gar nicht an, sondern !!!Bing!!!

    Vielleicht sollte zur Abwechslung hier auch mal über das Armutszeugnis von Bing gesprochen werden und nicht fiktiv über ein Google Feature, welches es noch gar nicht gibt…

    Nur meine Meinung… ;-)

  18. Marko sagt:

    Schön auf den Punkt gebracht, auch wenn es sich eigentlich um ein Tool bei Bing handelt. Es gibt Aufgaben, die in den Bereich der Suchmaschinenbetreiber fallen und dazu gehört auf jeden Fall die Entscheidung Links beziehungsweise Portale als Linkgeber entwertet werden und welche sogar einen negativen Einfluss haben.

    Das Tool bei Bing ist nett gemeint aber da hat man wohl ein wenig zu kurz gedacht.

  19. Gernot sagt:

    Vielen Dank Sebastian für diesen Artikel. Du sprichst mir aus der Seele. Ich bin auch dafür, dass Google die Wirkung der “Bad-Links” einfach verpuffen lassen sollte und gut ist. Bevor der Zahnarzt um die Ecke, der gerade einmal ein CMS mit Müh’ und Not bedienen kann, nicht mehr gelistet wird weil der Zahnarzt um die andere Ecke ne “böse” Agentur hat ist es mir lieber die Links werden einfach nicht gewertet.

    Es ist von BING doch Blödsinn zu denken, dass durch diese Maßnahmen die Suchergebnisse auch nur ansatzweise verbessert werden können. Für mich absolut ein Schritt in die falsche Richtung.

    Gruß
    Gernot

  20. […] Was hier passiert, heißt negatives SEO bzw. negatives Linkbuilding. Die Absicht steht hier auf der gezielten Abwertung einer Webseite in den Suchergebnisseiten durch den Aufbau von sehr vielen schwachen Spamlinks in ziemlich kurzer Zeit. Während SEOs Google vertrauen müssen, dass die Suchmaschinen die schlechten Links erkennt und entwertet, ohne das die Webseite negative Folgen davon trägt, bietet Bing einen bisher einzigartigen Service an. Disavow Links nennt er sich und stellt die Möglichkeit dar Links von Hand zu entwerten. Auf diese Weise können zum Beispiel Links von Aggregatoren entfernt werden. Mehr dazu gibt es hier. […]

  21. […] also in jedem Fall: mehr Umsatz! Ein Tool um “böse” Links zu entwerten wird nicht kommen und würde auch nur 1 von 1.000 Problemen […]

  22. Phil sagt:

    Aus aktuellem Anlass hab ich deinen Artikel nochmal gelesen. Jetzt ist das disavow Tool da und ich persönlich sehe da auch einiges im Argen liegend. Es zeigt mMn aber auch, dass Google immer noch nicht weiter ist, wirklich zuverlässig alle fragwürdigen Links zu erkennen, sonst würden Sie wie seinerzeit bei den blauen Briefen nicht die Webmaster im Dunkeln tappen lassen, welche Links denn schädlich sind, sondern diese kommunizieren oder direkt rauskicken.

    • Hi Phil,

      Auf jeden Fall! Das ist eine klare Absage an einen technologie-basierten Algorithmus. Welche Heerschaar von Quality-Ratern soll sich mit diesem ganzen Kram befassen?

      Gruß,
      Sebastian

  23. […] Unstimmigkeiten kommen kann, was nun wirklich schlecht ist und was nicht. Hier ist ein interessantes Statement von Sebastian Socha zu diesem […]

  24. Abego sagt:

    Das war ja wohl nichts mit der Voraussage :)

Einen Kommentar schreiben