Manche Webpräsenzen können dadurch nach vorne gebracht werden, dass man die vorne stehenden nach hinten bringt. Es gibt Techniken der negativen Suchmaschinenoptimierung (Negativ-SEO), die das kritische Verhalten von Google und Co. bei Überoptimierung nutzen, um die Konkurrenz gezielt auf Suchmaschinen-Ergebnisseiten zu benachteiligen. Welche Techniken das im Einzelnen sind und was man dagegen tun kann, soll im Folgenden kurz erläutert werden.
Wichtig ist für das Ranking bei Google und Co. die externe Verlinkung von anderen Webseiten. Aber nicht alle Links sind gute Links. Insbesondere das schnelle Gewinnen von vielen Links von fremdsprachigen Webseiten mit dubiosen Inhalten kann dazu führen, dass Google und Co. sich für das Abstrafen der jeweils verlinkten Webseiten entscheiden. Also könnte es eine Taktik der Negativ-SEO sein, durch das Kaufen von solchen Links den Webseiten von Konkurrenten diesen Schaden zuzufügen. Allerdings ist diese Taktik recht aufwendig und nicht in jeden Fall von einem Erfolg gekrönt. Denn es ist unklar, wie stark Google solche ungünstigen externen Links berücksichtigt, um eine Webpräsenz schließlich abzuwerten. Allerdings ist es auch kein Fehler, wenn man die externe Verlinkung der eigenen Webpräsenz im Blick behält, um zeitnah von solchen Negativ-SEO-Attacken zu erfahren.
Aber es gibt auch Spezialisten, die die On-Page-Suchmaschinenoptimierung nutzen, um Negativ-SEO zu betreiben. Man braucht dazu natürlich Hacker, die versuchen, Zugriff auf die eigene Webseite zu nehmen, um dort Inhalte abändern. Das muss man nicht unbedingt schnell merken, wenn diese Änderungen sich im Verborgenen abspielen. So ist es bei Hacker-Vorgehensweisen üblich, dass man auf weniger beachteten Teilen der Webseiten zusätzlich ein paar Links unterbringt. Aber es ist auch denkbar, dass man verstecken Text auf Webseiten unterbringt, der dann von Suchmaschinen-Robots aber bemerkt wird. Google und Co. strafen Webseiten ab, die versteckte Texte oder Links beinhalten. Auch das aktive Verlinken auf dubiose fremde Webseiten ist ein Grund, warum man im Ranking zurückfallen kann.
Ansatzpunkte für Schwachstellen in Webpräsenzen sind veraltete Content-Management-System oder veraltete PlugIns. Man sollte also regelmäßig die Komponenten seiner Webpräsenz auf Aktualität prüfen und jeweils die neuste Variante des Content-Management-Systems verwenden. Zusätzlich sorgt die Aufnahme in die Google Webmaster Tools dafür, dass man zeitnah einen Hinweis bekommt, wenn Schadsoftware auf der eigenen Webpräsenz aktiviert wurde.
Ob Google inzwischen das Thema Negativ-SEO auf dem Schirm hat, ist unklar. Immerhin bietet Google den Webmastern an, dass man falsche Links auf die eigenen Webseiten beim Ranking herausnehmen lassen kann. Von diesem Angebot kann man allerdings nur Gebrauch machen, wenn man die eigene externe Verlinkung gut überwacht. Bevor man zu Google geht und einen Link unwirksam macht, sollte man aber versuchen, mit dem jeweiligen Webmaster zu sprechen. Vielleicht ist dieser ja ganz unkompliziert bereit, einen unerwünschten Link zu löschen.
Google bemüht sich auch stark darum, doppelte Inhalte aus seinen Suchergebnissen zu verbannen. Auch dies ist ein Ansatzpunkt für Negativ-SEO, denn man kann einfach durch vielfaches Kopieren der Inhalte des Eindrucks erwecken, dass die jeweilige Webseite nur minderwertigen Content zu bieten hat. Außerdem ist es schwierig für Suchmaschinen den Originalinhalt noch zu finden, wenn es zu viele Kopien gibt. Um hier etwas gegen Negativ-SEO zu unternehmen, muss man Dienste nutzen, die das Kopieren der eigenen Inhalte erkennen können.
Negativ-SEO ist ein neuer Trend, dessen Relevanz gegenwärtig noch nicht abschließend beurteilt werden kann. Für Webmaster ist es aber wichtig, dass sie die Verlinkungen und die Inhalte der eigenen Webpräsenz sorgfältig im Auge behalten, um rechtzeitig gegen Negativ-SEO gewappnet zu sein.