Die Google Guidelines sind wichtig, um die SEO voranzubringen. Hauptthema der Suchmaschinen-Optimierung früher und heute ist die Berücksichtigung der Qualität des Contents für die Suchmaschinen-Optimierung. Das hängt im Wesentlichen damit zusammen, wie Google die Veränderungen der Suchalgorithmen promotet. Die Google Guidelines geben Hinweise darauf, wie man konkret vorgeht, um heutzutage die SEO besser zu machen.
Erst war es der Panda, dann war es der Pinguin und schließlich sollte es der Kolibri sein, der für Qualität in den Suchergebnissen sorgen sollte. Relevant in diesem Zusammenhang ist, dass Google nur Qualität in der Form von Algorithmen bestimmen kann, einfach weil für die Vielzahl der Webseiten keine persönliche Qualitätskontrolle möglich ist. Was man bei Google aber versucht: Es werden Qualitätskontrolleure (Quality Rater) eingestellt, die Webseiten hinsichtlich der Qualität bewerten sollen, damit man Prinzipien der Ergebnisse für die Verbesserung des Analyse-Algorithmus nutzen kann. Für die Arbeit der Quality Rater gibt es Richtlinien (Google Quality Rater Guidelines bzw. Google Guidelines), die für die Arbeit der Suchmaschinen-Optimierung natürlich auch interessant sind.
Leider kann man wohl gegenwärtig keine aktuelle Ausgabe der Google Guidelines offiziell beim Marktführer bekommen, aber es wird in amerikanischen und deutschen SEO-Blogs über die Inhalte der Qualitätsrichtlinien berichtet bzw. spekuliert. Für die Umsetzung dieser Ideen in die Suchmaschinen-Optimierung ist aber zu reflektieren, inwieweit sich die Qualitätsrichtlinien für Menschen in Algorithmen umsetzen lassen. Schneidet eine einzelne Webseite oder eine ganze Website schlecht bei der menschlichen Qualitätskontrolle ab, dann wird dies nur Auswirkungen auf das maschinenberechnete Ranking haben, wenn diese schlechte Qualität in gewisser Weise systematisch erkennbar ist. Auch umgekehrt ist zu reflektieren, dass gute Qualität von einem Algorithmus nur erkannt werden kann, wenn sie systematischen Vorgehensweisen entspricht. Bisher wurde meines Wissens noch nicht untersucht, ob die Kriterien für die Qualitäts-Experten bei Google so von Computer-Algorithmen umsetzbar sind.
Nach den Überlegungen aus dem oben verlinkten amerikanischen Blog soll mit den Google Guidelines der menschliche Quality Rater bei der Qualität von Websites verstärkt auf ganz bestimmte Webseiten der Webpräsenz sein Augenmerk legen: Hier soll untersucht werden, ob
- Fachkompetenz hinsichtlich des Themas der Webpräsenz vorliegt
- ob Kontakt-Informationen gegeben werden, wenn das Thema der Webseiten für eine enge Vertrauensbindung spricht
- die Reputation der Website bei anerkannten Gruppen zu dem Thema passend ist
- die Webseiten durch aktuelle Informationen geprägt sind.
Verwiesen wird im Zusammenhang mit den Google Guidelines gerne auf Beispiele aus dem medizinischen Umfeld. Eine gute Website mit medizinischen Inhalten sollte durch fachkompetente Aussagen glänzen, Kontaktmöglichkeiten zu fachkompetenten Personen anbieten, bei Fachkräften (Ärzten) anerkannt sein und mit aktuellen und zutreffenden Informationen überzeugen.
Diese Kriterien für Qualität der Google Guidelines überzeugen unmittelbar, doch es ist völlig unklar, wie sie so umgesetzt werden können, dass ein vorbestimmt arbeitender Computer-Algorithmus sie zutreffend erfassen kann:
- Fachkompetenz ist eine inhaltliche Frage, die nur durch Fachleute zu entscheiden ist. Jedes Thema unterschiedlicher Websites erfordert eine unterschiedliche Fachkompetenz.
- Ob mehrere Kontaktmöglichkeiten geboten werden, kann untersucht werden, ob diese Möglichkeiten zu Fachleuten oder zu Verkäufern führen, könnte nur festgestellt werden, wenn man die entsprechenden Kontaktmöglichkeiten testen würde.
- Reputation kann annähernd gemessen werden, wenn man von einem TrustRank-Verfahren ausgeht. Es wird schon sehr lange vermutet, dass Google ergänzend zum PageRank bei der Verlinkung von Webseiten prüft, ob diese Verlinkungen von besonderen Webseiten kommen, die hinsichtlich ihrer Inhalte über Trust oder Vertrauen verfügen. Allerdings müssten die Trustverlinkungen themenspezifisch berücksichtigt wird. Wird eine medizinische Webseite von einer Webseite verlinkt, die hohen Trust bei Finanzthemen hat, dann dürfte dieser Trust NICHT auf die medizinische Webseite übertragen werden.
- Relevante Aktualität von Webseiten kann man nicht direkt daran messen, ob die Webseiten häufig aktualisiert und durch neue Informationen angereichert werden. Es fällt auf, dass bei medizinischen und anderen populären Themen recht häufig Foren angezeigt werden. Foren werden sehr häufig aktualisiert, zeichnen sich aber nicht unbedingt durch relevante Aktualität aus.
Es macht Sinn, sich bei den eigenen Webseiten um Qualität, Reputation und Anerkennung bei Fachleuten zu bemühen, aber man sollte sich keinen Illusionen hingeben, dass dies sofort zu Ranking-Verbesserungen führt.
Es gibt aber bei der Qualitätskontrolle von Webseiten noch andere Indikatoren, die durchaus besser für algorithmische Prüfverfahren geeignet sind:
- Der Anteil von Werbung auf der Webseite sollte nicht dominieren, insbesondere sollte der inhaltliche Content im Fokus stehen und auch sofort erkennbar sein. Man sollte sich also nicht unbedingt Google als Vorbild nehmen, wenn man dieses Ziel umsetzen möchte. Insbesondere auf der Startseite sollte man das Thema der Webpräsenz sofort erkennen, ohne die Scroll-Möglichkeiten zu nutzen.
- Die Webpräsenz sollte einige Unterseiten anbieten, die sowohl zum Thema passen wie auch weitere thematisch ergänzende Informationen liefern. Dies verweist auf eine klassische Anforderung der Suchmaschinen-Optimierung: die fundierte Keyword-Analyse und Keyword-Umsetzung für den Content aller Webseiten.
Qualität und Quantität von Content auf geschickt aufeinander verweisenden Webseiten wird noch lange im Fokus der Suchmaschinen-Optimierung stehen müssen. Das machen nicht nur die Google Guidelines hinreichend deutlich.