von Rainer Meyer
Insbesondere wenn es ans Kaufen oder Bestellen geht, dann muss der User sich irgendwann an der Website anmelden und wird nun über personalisierte Webseiten zum Warenkorb geführt. Dies gibt dann phantastische Möglichkeiten, um mit zielgruppengenauen Content-Angebote den Kunden stärker an sich zu binden und ihm laufend für ihm passende Waren oder Dienstleistungen anzubieten. Über Cookies kann dies auch bei späteren Besuchen aufgegriffen werden.
Für die Suchmaschinen-Optimierung schient dies aber ein schwieriges Thema zu sein, denn Robots akzeptieren keine Cookies (zumindest nicht über mehrere Sessions) und melden sich auch nicht auf über Anmeldeformulare an, um tiefer gehende Infos auf der Website zu crawlen. Bei Verkaufsplattformen wie Amazon ist das personalisierte Ausliefern von Content besonders intensiv zu erleben. Damit die Vielzahl der Angebote auch hier vom Suchmaschinen-Robot gefunden werden kann, hat man auf Verkaufs-Websites auch Seiten im Angebot, die ohne Personalisierung auskommen. Das entspricht in etwa dem, was der Besucher dann sieht, wenn er keine Cookies erlaubt.
Bei der Content-Erstellung solcher Seiten muss aber der Webmaster darauf achten, dass er kein Cloaking betreibt.
Cloaking ist eine sogenannte Black-Hat-SEO-Technik zur Suchmaschinenoptimierung, bei die Website dem Robot der Suchmaschinen andere Inhalte liefert als einem menschlichen Besuchern, allein mit dem Ziel, das Ranking dieser Seiten zu steigern. Wann Cloaking anfängt und Benutzer-Freundlichkeit aufhört, ist schon mal strittig. So sperrte Google vor einigen Jahren BMW vorübergehend aus, weil die Website der Suchmaschine völlig andere Inhalte lieferte als dem normalen Besucher.
Probleme kann man dann erwarten, wenn die Angebote auf den personalisierten Seiten in eine völlig andere Richtung gehen als auf den optimierten Seiten. Ergänzende und kurze Infos, die dann angezeigt werden, wenn eine Flash-Animation nicht lauffähig ist, sind sicherlich unproblematisch, wenn die Flash-Inhalte ähnliche Texte enthalten. Aber lange Texte, die keiner lesen kann, gehören zu den Maßnahmen, die zu einer Abstrafung führen können.
Zur Erschwerung von Cloaking kommen auch die Webcrawler schon mal inkognito vorbei und vergleichen dann das Ergebnis einer Adresse mit dem früher bei offiziellen Crawler-Besuch ausgelieferten Content.