Negatives SEO ohne Backlinks – eine Fallstudie

Nichts war zu sehen bei den Seiten. Sie waren nicht von den Pinguin oder Panda Updates betroffen und liefen voll funktionsfähig weiter. Sie waren sogar besser optimiert und eingestellt als viele andere Seiten zu dem Thema. Es ließ sich dennoch nichts an der Stellung in den SERPS machen trotzt etlicher Bemühungen über mehrere Monate. Da war klar, dass es etwas anderes und ganze Neues sein musste, das die Sichtbarkeit in den Suchergebnissen derart verschlechtert.

So wurde jeder mögliche Faktor untersucht, der im SEO eine Rolle spielte. Die Backlinks zeigten keine Fehler, ihre Ankertexte waren passend und deren Onpage-Faktoren waren auch gut optimiert.

Was war es also? Es half, zu den Grundlagen der Backlinks abzutauchen.

Backlinks bergen das Geheimnis

Man muss sehen, was hinter den Backlinks und dem Linkprofil steckt und dann sind zwei ungewöhnliche Sachen zu sehen:

Nach allen möglichen Tests wurde ein stündlicher Crawl eingerichtet für die betreffenden Webseiten und das stellt sich als ziemlich intelligente Vorgehensweise heraus. Damit konnte das Geheimins gelüftet werden.

Viele Crawler blockieren den Server

Eine der getesteten Seiten zeigte eine starke Belastung in den Morgenstunden, die von vielen Crawlern verursacht wurden. Allerdings entsprach das noch keiner DDoS Attacke.

Es kann nur spekuliert werden, woher diese Crawler stammen. Der Server jedoch wird durch viele unterschiedliche IPs belastet, die große Bilder laden und so das Trafficvolumen extrem auslasten. Diese Attacken kamen immer zwischen 2 und 5 Uhr Nachts und daher waren diese großen Abfragen nie wirklich sichtbar.

So sehen die Crawler aus:

Negatives SEO Tabelle

Schlechte Usability wurde durch Manipulation absichtlich herbeigeführt

Bei einem anderen Fall zeigte sich eine Attacke durch manipulierte Klickraten. Dabei zeigte sich ein Bild, dass Seiten mit sehr guten Rankings bei Google mit sehr vielen eher unnatürlich aussehenden Zugriffen angegriffen werden. Denn bestimmte Seiten blieben verschont. Als Folge verwischen die Effekte das Brand-Building und andere Seiten werden natürlich in den SERPs bevorzugt.

Um diese Erscheinungen erstmal zu entdecken, bedarf es eine gewisse Zeit, aber wenn erstmal eine gute Lösung mittels eines CTR bot gefunden ist, kann sich eine betroffene Seite nach vielleicht 3 bis 4 Wochen wieder erholen. Vielleicht auch mit einer Panda Behandlung.

 

Schlechte Rankings trotz sehr guter SEO Umsetzung

Theoretisch sollten sich solche Situationen einfach nicht ereignen. Dafür sprechen mehrere Gründe:

  • Weder hatte die Seite ein negatives SEO, das die Backlinks betrafen.
  • Die betroffenen Seiten waren technisch SEO optimiert.
  • Die betroffenen Seiten waren besser als die Seiten des Wettbewerbes und bieten ihren Kunden einen einzigartigen Wert
    • Zusätzlich haben die betroffenen Seiten hochwertige SEO Bedingungen, Anleitungen für Inhalte, die Inhalte werden immer wieder überarbeitet, die Titel werden öfter umgeschrieben und andere Maßnahmen werden getroffen. Sogar die Beschreibungen wurden überarbeitet um doppelten Content zu vermeiden.
  • Die Seiten sind relativ neu. Neu bedeutet hier zwischen 1 und 3 Jahre und sind bis jetzt auch keine etablierten Marken, was es womöglich einfacher machte die Signale für Google zu manipulieren.

 

War es nun negatives SEO oder nur Zufall?

Unter einer Auswahl bekannter SEO Spezialisten besprochen zeigten einige die Idee eines gezielten Angriffes für möglich, während andere dies für völlig ausgeschlossen hielten.

Ist es möglich, eine Seite ohne Backlinks anzugreifen?

Das herauszufinden half ein Experiment auf einer speziell dafür ausgesuchten Seite, die natürlich im eigenen Portfolio stand.

Negatives SEO selber testen

Der Blog dafür war jünger als 1 Jahr und hatte noch nie Linkaufbau erfahren. Er liefert aber positive Signale und natürliche Links und das liegt allein am guten Content. Soviel zu den Voraussetzungen von dem Testblog.

 

Das Opfer von negativem SEO

Zuerst ein Keyword wählen, an dem versucht wird die Angriffe zu testen. Das Keyword war lange Zeit auf den ersten Plätzen und die Seite war auch eine der ersten, die über das Thema schrieb. Das brachte einige gute natürliche Links ein von hoher Qualität.

 

Software für negatives SEO

Zuerst baut man sich einen Bot, der nach dem Keyword sucht und dann ganz wahllos auf verschiedene Seiten klickt. Alle Seiten, bis auf eine Ausnahme: die eigene Testseite. Genau das verringert die Klickrate.

Die Erkenntnis aus dem Test:

Auswirken von Negativ SEO

Der Bot tat seine Aufgabe und brachte das gewünscht Ergebnis. Schon wenige Tage nachdem der Bot alle Seiten klickte, außer der Testseite, verlor diese mit dem ausgewählten Keyword an Sichtbarkeit in den SERPs, während alle anderen Seiten aufstiegen.

Es konnte auch ausgeschlossen werden, dass andere Faktoren wie neuer Content für den Aufstieg der Konkurrenzseiten verantwortlich sind. Nur der Bot mit seinen Klickraten kann in diesem Fall für das neue Ranking verantwortlich sein.

 

Neue Rankingsignale verursachen eine Gefahr für SEO

Während der Auswertung der Untersuchungen ergeben sich weitere bedeutende Hinweise. Es gibt weitere Arten von negativem SEO. Seiten können auf ganz unterschiedliche Weise mit negativem SEO attackiert werden. Diese Arten und Möglichkeiten sollen hier aber nicht weiter diskutiert werde, um eine Verbreitung zu verhindern. Damit Sie aber sicher vor solchen Angriffen sind, sollten Sie folgende Maßnahmen treffen:

  • Überwache deine neuen Links
  • Überwache sehr genau alle Daten bei den Google Webmaster Tools
  • Sehr gutes Onpage SEO betreiben
  • Keinen Index manipulieren

Es dient nicht nur zur Erkennung und Vermeidung von negativem SEO. Die regelmäßige Überwachung auf wöchentlicher oder monatlicher Basis ist auch wichtig für hohe Positionen in den Suchergebnissen.

 

Usability ist ein starker SEO Faktor

Usability ist ein wichtiger SEO Faktor. Dies wird durch verschiedene Untersuchungen und Tests bestätigt. Von Yandex ist zu erfahren, dass diese keine Links von kommerziellen Anfragen mehr verfolgen. Eine ganz neue Seite muss sich erstmal beweisen und von anderen Seiten verlinkt werden, bevor sie in den SERPs aufgenommen wird. Zumindest bei Yandex.

Geht diesen Weg Google ebenfalls? In den Foren von Black Hat SEOs wird der Ranking Faktor diskutiert und einige der Teilnehmer dort scheinen ähnliche Muster bei Google zu bestätigen. Wenn das so ist sollte sich SEO der neuen Vorgehensweise mit der Zeit anpassen, das Stichwort heißt dann:

Negatives SEO ohne Linkaufbau

 

Negatives SEO ohne Backlinks scheint erstmal attraktiv

Die gemachten Erfahrungen könnten einen Hinweis auf den zukünftigen Umgang mit negativem SEO sein:

  • Es ist leist
  • Es ist unsichtbar
  • Kaum aufzuspühren
  • Basiert auf einer extrem langsamen Technik
  • Es ist LEGAL

Das ist sehr bedenklich. SEOs sitzen hier zwischen zwei Stühlen. Denn einerseits ist da Google und auf der anderen Seite die Saboteure. Google macht es sowieso schon schwer, gute Rankings zu erhalten, indem sie ihren Algorithmus immer wieder ändern. Die Konkurrenz dagegen nutzt negatives SEO um gegen andere Firmen vorzugehen.

Linkloses negatives SEO ist aus diesen 6 Gründen attraktiv:

  1. Einfach Links auf Seiten zu setzen wird kalkulierbar
  2. Betroffene Seiten können leicht schlechte Backlinks finden
  3. Die Webseitenbetreiber werden sehr schnell diese Backlinks entkräften lassen
  4. Attackierte Seiten können daher die eigene Seite beschädigen
  5. Sie können Ihnen letztlich helfen
  6. Sie arbeiten gut zusammen mit „alten Methoden“ die als Werkzeug funktionieren

 

Fazit

Nach dem Pinguin Update wurden die SEOs nicht nur für die aufgebauten Links verantwortlich, sondern auch für den Schutz der eigenen Seite und der Backlinks. Nun sind sie noch angreifbarer als vorher und linkloses negatives SEO stellt eine Gefahr dar. Es hat das Potenzial, eines der gefährlichsten Ereignisse zu werden, die einer Webseite und der ganzen SEO Szene passieren kann.

Negatives SEO wurde benutzt um XRumer abzuschießen und schlechte Links auf Seiten zu setzen. Es war eine ganz miese Art Geschäfte zu machen, aber es ist auch einfach herauszufinden, wie man damit umgeht. Man muss einfach tausende Links jede Woche für ein paar Seiten dann disqualifizieren lassen.

Schlechte und nicht mehr funktionierende Links zu finden ist zeitintensiv, aber all die Probleme der Usability zu beheben ist noch komplizierter und virtuell fast nicht aufzufinden, bis man wirklich weiß worauf man achten muss.

Wenn man diese neue Erscheinung betrachtet, müssen SEOs sehr genau auf linkloses negatives SEO achten, wenn sie weiterhin im Geschäft bleiben und online Geld verdienen wollen.

2 Antworten
  1. Felix Ledmayr
    Felix Ledmayr says:

    Der Eintrag ist zwar schon alt, bin aber jetzt durch gutes Ranking in Google drauf gestoßen =)

    Also diese Art von SEO ist schon so alt wie das Gewerbe an und für sich, dessen ist sich aber auch Google bewusst. Für alle die den Artikel lesen und sich Fragen was macht man nun dagegen: Google bietet wenn man betroffen ist seine Hilfe an! Man kann über die Webmasterkonsole sich an Google wenden und das Problem schildern. Aus eigener Erfahrung kann ich sagen das diese Emails nicht ins Leere laufen, ganz im Gegenteil uns wurde damals sehr gut geholfen.

    Danke für den Artikel und schöne Grüße!

  2. Svenny
    Svenny says:

    Eine tolle Studie. Ja da lernt man dazu. Wenn man alles über die SEO weiss ist das mit Sicherheit kein Problem. Aber scheinbar steckt Google auch dann immer wieder voller Überraschungen.

Kommentare sind deaktiviert.