Hallo, Bastian und willkommen bei LEAP/. Was reizt dich an den Themen Link-Risikomanagement und am Konzipieren internationaler Linkbuilding-Strategien?
Ich glaube, es ist essenziell zu verstehen, dass effektiver Linkaufbau immer nur dann funktionieren kann, wenn man das eigene Inventar (sprich Linkprofil) nahezu „aus dem Effeff“ kennt. Nur so kann ich antizipieren, was für Auswirkungen neue Links auf Rankings haben oder auch nicht. Es geht ja im Grunde um Effektmaximierung: Für mein investiertes Budget (Arbeitszeit von Personal) will ich ja immer eine möglichst hohe Anzahl (von guten!) Links generieren. Wenn diese Links aber gar keine Wirkung haben können, weil der Rest des Linkprofils nur aus minderwertiger Qualität besteht, so ist das Ganze zum gegebenen Zeitpunkt reine Geldverschwendung. Ein fortlaufendes Aufräumen des Linkprofils gehört für mich schlicht zum guten Handwerk. Alles andere ist grob fahrlässig. Der internationale Kontext ist insofern super spannend, als dass die unterschiedlichen Google-Indizes und Länderversionen aber immer noch unterschiedlich aggressive Vorgehensweisen zulassen, insbesondere für Kunden in den super kompetitiven Verticals, bedeutet das, dass Linkbuilding-Strategien eben auch pro Markt unterschiedlich aussehen sollten, um maximale Wirkung zu erreichen.
In deinem Vortrag bei uns ging es um das Thema Negative SEO. Was versteht man darunter und welche Arten gibt es?
Gemeinhin wird der Begriff Negative SEO im Zusammenhang mit link-basierten Angriffen auf eine fremde Domain bspw. eines Wettbewerbes verwendet. Korrekter wäre hier, von link-basiertem Negative SEO zu sprechen. Eine Präsentation, die ich dazu auf der SEOkomm gehalten habe, gibt’s bei Interesse hier. Andere Varianten von negativem SEO wären beispielsweise:
- der Abbau von guten Links der entsprechenden Wettbewerber,
- das gezielte Kaufen von hochwertigen, Anchortext-lastigen Links für Wettbewerber und das sofortige Melden selbiger über einen entsprechenden Spam Report an Googles Search Quality Team,
- das gezielte Triggern von Safe Search (und anderen Filtern) für Wettbewerber Domains,
- Meta, Canonical ,Takeovers
- das Verwenden kompromittierter Seiten ((Link-) Injection etc.) und vieles mehr.
Wie hat sich der Bereich Negative SEO entwickelt und warum ist deiner Meinung nach die Nachfrage nach dieser Dienstleistung so gestiegen?
Link-basiertes Negative SEO gibt es schon sehr, sehr lange, insbesondere in den Bereichen der Erwachsenenunterhaltung, im Glücksspielsegment und einigen anderen, etwas stärker umkämpften Bereichen. Das Ganze ist dann insbesondere Anfang 2012 stark in den Mainstream übergeschwappt, insbesondere, weil Google mit dem ersten Penguin Roll-out nicht nur Linkspammer getroffen, sondern vielmehr auch gezieltes Spammen einfacher gemacht hat. Betrachtet man das einmal von der anderen Seite, so könnte man möglicherweise zu dem Schluss kommen, dass es gerade für kleine Websites fast einfacher ist, Wettbewerbern zu schaden, als selber solides und langfristig erfolgreiches SEO zu betreiben.
Bing hat als First Mover das pro-aktive Entwerten von Links eingeführt. Warum hat Google damit so lange gewartet, wo doch der Bedarf sehr groß zu sein scheint?
Spannende Frage, ehrlich gesagt: keine Ahnung. Ich glaube, man tut sich bei Google möglicherweise schwer damit, Qualitätsprobleme einzugestehen, insbesondere, wenn es um die Bewertung von Links geht. In der Regel müssen Dinge erst einmal von SEOs hart gegamed werden, bevor man reagiert. Ansonsten scheint es aber ein relativ smarter Zug, den SEOs jetzt die Aufgabe aufzuerlegen, die seinerzeit generierten Links auch wieder entwerten zu lassen, insbesondere, da man augenscheinlich nicht dazu in der Lage ist, dies 100-prozentig automatisiert zu tun.
Mit dem Penguin Update von Google im Jahr 2012, sollte versucht werden, Webspam einzudämmen. Welchen Einfluss hatte/hat dieses Update auf Negative SEO?
Penguin arbeitet ja unter anderem mit einer regelbasierten Komponente, die gewisse Muster gegen entsprechende Schwellwerte (immer im Themen-/Vertikal-Kontext) prüft. Ein simples Beispiel wäre die übermäßige Verwendung von kommerziellen Anchortexten. Reagiert also ein Update auf sowas extremer als noch früher, so macht es tendenziell ein gezieltes Auslösen auch leichter.
Kann man eine Seite einfach mit vielen schlechten Links aus dem Google-Index katapultieren oder braucht es da mehr, um vielleicht einen oder mehrere Filter auszulösen?
Ganze Domains: Nein, das wäre tatsächlich deutlich zu einfach und vermutlich wäre dann tatsächlich nicht mehr sonderlich viel im Index übrig. Für einzelne Unterseiten sieht es allerdings schon anders aus. Grundsätzlich gilt aber: Gutes link-basiertes Negative SEO ist, sofern es sich um einen professionellen Angreifer handelt, immer eine Kombination aus multiplen Komponenten. Sicherlich ist die pure Linkmenge ein Faktor und wir reden hier nicht von 100, 1.000 oder 10.000 Links. Ich habe Angriffe mit 7 und 8-stelliger Menge (pro Tag) gesehen; und das ist nur das, was die Linkdatenbanken erfassen, also vermutlich ein Bruchteil von dem, was tatsächlich gesetzt wurde. Alles in allem lässt sich aber feststellen, dass solche Größenordnungen wohl eher die Ausnahmen sind bzw. von nur wenigen Individuen oder Gruppierungen überhaupt realisiert werden können. Häufiger sehen wir derzeit eher intelligente Kombinationen (u. a. Quellen, Herkunft, Themenumfeld), die gezielt häufig zu hart optimierte Unterseiten angreifen und deren Rankings vorübergehend eliminieren.
Für betroffene Webmaster sicher eine wichtige Frage: Was kann ich bei link-basiertem Negative SEO machen und wie kann ich mich pro-aktiv davor schützen?
Das allerwichtigste ist ein effektives Monitoring des Linkprofiles. Da ich faktisch nichts dagegen tun kann, dass meine Domain willkürlich von extern verlinkt wird, bleibt mir nur möglichst schnell zu bemerken, was passiert und dann zu reagieren. Dabei empfiehlt sich u. a. der regelmäßige Blick in die verschiedenen Linkdatenbanken dieser Welt. Außerdem sind die LRT LinkAlerts hier extrem hilfreich. Ein paar weitere Tipps gibts ebenfalls in meinem Deck auf Slideshare. Google empfiehlt die Verwendung des Disavow-Tools, was allerdings bei großen Linkmengen nicht praktikabel ist. Bei Unterseiten könnte man selbige theoretisch 404en, was aber wohl auch nur begrenzt charmant ist, denn a) verliere ich damit auch meine guten Links und b), natürlich auch jedwedes Ranking. Beides nicht wirklich eine Lösung.
Das Disavow-Tool ist ja in aller Munde. Wie kann man das Tool zum Beispiel bei einem Reconsideration-Request sinnvoll einsetzen und worauf sollte man unbedingt achten?
Das Disavow-Tool kann immer dann eingesetzt werden, wenn Links einer minderwertigen Linkquelle nicht entfernt werden können. Beispielsweise also für Links, die in der Vergangenheit aufgebaut wurden und nicht mehr den aktuellen Qualitätskriterien genügen (hier sollte vorher immer ein Kontaktversuch stattfinden) oder aber für Verzeichnisse, Scraper Sites usw., wo ich eh niemals einen Betreiber erreichen kann. Wichtig ist darüber hinaus, dass in der Regel ein Domain-Disavow die richtige Maßnahme ist, um auch alle Links einer schlechten Quelle zu erwischen. Weiterhin sollte unbedingt darauf geachtet werden, dass die Datei als UTF-8 gespeichert wird und mind. 48h live ist, bevor der eigentliche Reconsideration-Request gestellt wird.
Neben dem link-basierten gibt es auch noch das technische Negative SEO. Was sind hier die Probleme, die auf Webseitenbetreiber zukommen können? Was wird vielleicht zukünftig das größere Problem darstellen?
Was ich aktuell immer häufiger sehe, sind kompromittierte WordPress-Sites, denen mittels entsprechender Code-Injection dann veränderte Crawling-Direktiven verpasst werden. In der einfachsten Form wird hier die robots.txt-Datei ausgetauscht bzw. mit einem disallow: / versehen. Die Folge ist, dass die entsprechende Domain komplett aus dem Index verschwindet, zumindest für einige Zeit. Was ich bisher erst ein einziges Mal gesehen habe, waren manipulierte X-Robots Rel-Canonical Header, die dann in großer Masse auf eine andere Domain gezeigt haben, welche wiederum versuchte, sehr fragwürdige Dinge zu verkauften. Hier ist das Debugging extrem aufwendig. Die wenigsten Seitenbetreiber schauen auf serverseitige Header-Anweisungen, von einer permanenten Kontrolle ganz zu schweigen. Es bleibt also auch an dieser Stelle extrem spannend, professionelles Monitoring scheint demnach absolute Pflicht!
Vielen Dank für diese Einblicke, Bastian!