Kostenlose Erstberatung
+49 (0)30 69 20 6347

Doppelte Inhalte vermeiden

Doppelte Inhalte (duplicate content) sind Inhalt, der an mehr als einem Ort im Internet erscheint. Als Ort ist hier die eindeutige Website-Adresse (URL) gemeint. Finden Suchmaschinen an mehreren Orten identischen oder weitgehend identischen Inhalt, dann behandeln sie diesen als doppelten Inhalt und zeigen bei einer Suchanfrage normalerweise nur eine Adresse als relevant an. Für die Suchmaschinen-Optimierung ist es also wichtig, doppelte Inhalte zu erkennen bzw. diese zu vermeiden.

Obwohl doppelte Inhalte nicht verboten sind, können diese recht häufig die Suchmaschinen-Rankings beeinflussen. Wenn es mehrere Varianten des Contents gibt, wird es für Suchmaschinen schwierig zu entscheiden, welche Version für eine gegebene Suchanfrage relevanter ist.

Duplizierter Inhalt kann mehrere Hauptprobleme für Suchmaschinen bringen. Google und andere Suchmaschinen wissen nicht, welche Versionen aus ihren Indizes ausgeschlossen werden sollen, weil sie als irrelevant (da nicht neu oder einzigartig) einzustufen sind. Ebenso wissen sie nicht, welche Abfrageergebnisse gerankt werden sollen, wenn eine bestimmte halbwegs passende Anfrage von Nutzern erfolgt. Für die Website-Inhaber folgenden dann daraus typische Probleme mit Ranking und Traffic (Besucherzustrom). Insgesamt droht die Sichtbarkeit der Webseiten Schaden zu erleiden.

Doppelte Inhalte sind selten erwünscht und treten in vielen Fällen nicht absichtlich auf. Allerdings zeigen Untersuchungen, dass viele Webseiten doppelt vorkommen, ein Drittel aller registrierten Adressen könnte doppelter Content sein. So treten recht häufig URL-Varianten auf, die durch Zusatzparameter wie eigene Webseiten aussehen, tatsächlich aber nur den gleichen Inhalt unter einer weiteren Adresse bieten. Ähnliche Effekte ergeben sich, wenn unterschiedliche Sitzungs-Identifikationen verwendet werden, um Besucherinteraktionen besser zu berücksichtigen. Werden diese Effekte auch bei Suchmaschinen-Robots wirksam, dann wird hier einer schon vorhandene Webseite eine neue Adresse zugeordnet.

Manche Webseiten bieten auch druckfreundliche Versionen von Inhalten an, wo dann weitgehend der gleiche Text und die gleichen Bilder vorkommen, was ebenfalls als doppelter Content interpretiert wird. Gegenwärtig im Trend ist die Umstellung von http auf https; kann man unter beiden Protokollvarianten die Webseiten eines Angebots aufrufen, dann interpretiert Google dies auch als doppelt. Denkbar ist auch, dass Webseiten als ersten Adressbestandteil www übermitteln, wobei bei Weglassen dieser Komponente die gleiche Webseite angezeigt wird.

Die letzten Beispiele sind alles Beispiele für interne doppelte Inhalte. Gibt es Kopien des Inhalts unter einer anderen Domain-Adresse, dann ist das auch doppelter Inhalt und Google und Co. müssen sich überlegen, welcher der Inhalte der primäre ist. Relevant in diesem Zusammenhang ist nicht nur die gestohlene Kopie einer Webseite oder eines kompletten Webangebots. Viel häufiger in der Praxis sind Kopien, die durch Pressemitteilungen oder ähnliche Vorgehensweisen entstehen. Wirbt ein Unternehmen für ein Angebot und macht gleichzeitig mit der neuen Webseite per Pressemitteilung oder Blogbeitrag auf einer fremden Webseite darauf aufmerksam, dann ist die Wahrscheinlichkeit hoch, dass Texte und Bilder weitgehend identisch sind. Während man interne doppelte Inhalte sehr gut mit dem canonical-Tag abfangen kann, ist dies bei externen Seiten schwieriger bis unmöglich. Man kann sich die Mühe machen, nach doppelten Inhalten auf fremden Webseiten zu suchen. Ebenfalls viele Mühe verursacht es, bei dem Verfassen von Pressemitteilungen darauf zu achten, dass nicht schon vorhandene Webseiten kopiert werden.

Ergänzend zur Vermeidung internen doppelten Contents sollte man die Google Search Console nutzen. Mit der Google Search Console kann man die bevorzugte Domain einer Website festlegen (also mit oder ohne www) und angeben, ob der Googlebot verschiedene URL-Parameter unterschiedlich crawlen soll (verbesserte Parameterbehandlung zur Vermeidung von Dubletten). Der Hauptnachteil bei der Verwendung dieser Vorgehensweise besteht darin, dass die vorgenommenen Änderungen nur für die Suchmaschine Google funktionieren. Alle Regeln, die so eingeführt werden, wirken sich nicht darauf aus, wie die Crawler anderer Suchmaschinen die Website interpretieren. Man kann die Webmaster-Tools für andere Suchmaschinen nutzen oder setzt darauf, dass die Mehrzahl der Nutzer sowieso dominant auf Google vertraut.

Schreibe einen Kommentar

fünf + 14 =

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.