Immer noch strittig ist die Frage, ob sich Aktivitäten in sozialen Netzwerken positiv auf die Suchmaschinen-Optimierung auswirken. Es scheint naheliegend zu sein, dass die häufige Verwendung von Markenbegriffen und Webseiten innerhalb sozialer Netzwerke, auf denen diese unternehmensbezogenen Begriffe (mit oder ohne Verlinkung) vorkommen, bessere Rankings bekommen sollten. Aber ein neues Google-Patent zu Robots in sozialen Netzwerken verstärkt die Zweifel daran, ob Google und Co. Signalen aus sozialen Netzwerken große Bedeutung zumessen.
Die Kollegen vom Google-Wachtblog berichteten kürzlich über ein neues Google-Patent zur Unterstützung der Tätigkeit des Nutzers in sozialen Netzwerken. Dieses Programm soll in der Art eines Software-Agenten oder Robots für den Nutzer in sozialen Netzwerken tätig werden. Zunächst erkennt die Software, welche sozialen Aktivitäten der Benutzer überwiegend betreibt und analysiert diese hinsichtlich Schwerpunkten und Trends. Das ist eigentlich nichts neues, denn die Robots von Google, die Webseiten hinsichtlich ihrer Bedeutung und ihrer Verlinkung untersuchen, haben auch kein anderes Ziel als die Schwerpunkte und Trends von Webseiten und Webpräsenzen zu erkennen. Allerdings soll der neue Robot für soziale Netzwerke „vielleicht“ noch einen Schritt weitergehen: Der Software-Agent soll in die Lage versetzt werden, Likes und Kommentare im Auftrag des Nutzers „selbstständig“ zu verfassen. Manche Nutzer, die von der Vielzahl der Aufgaben in sozialen Netzwerken überfordert sind, könnten sich entlasten, indem sie das Liken und Kommentieren an den Robot delegieren. Der Robot kann auch genutzt werden, um lästige Chat-Abfragen abzuwehren oder Standard-Mails zu beantworten.
Wie genau die Umsetzung später mal aussieht, kann gegenwärtig nur spekuliert werden. Denkbar ist „vielleicht“, dass man als Nutzer dem Robot Regeln an die Hand gibt, in der Art wie folgt:
- Wenn eine Kontaktperson Geburtstag hat, dann gratulieren!
- Immer, wenn es Bilder von engen Freunden gibt, dann liken!
- Chatanfragen von Egon und Rita in zwei von drei Fällen mit „Mit geht es gut, habe gerade viel zu tun (Smiley)“ beantworten!
- Kontaktanfragen von weiblichen Nutzern nur bestätigen, wenn diese ein gutes Profilbild haben!
An diesen Beispielen wird schnell deutlich, dass die neuen Robots von Google erhebliche Probleme aufwerfen:
- Wer ist eigentlich für das Verhalten der Robots verantwortlich: Ist für deren Verhalten der Nutzer verantwortlich, der den Robot aktiviert hat; oder Google als Hersteller des Software-Agenten?
- Wie wirkt es sich auf meine Reputation aus, wenn mein Verhalten als schematisch empfunden wird? Kommen dann Anfragen, ob denn ich oder mein Robot für meine immer ähnlichen Antworten verantwortlich ist? Oder wird man von seinen Freunden gleich in die Gruppe „Robots“ eingeordnet, der sowieso alle Handlungsmöglichkeiten auf meine Startseite entzogen wurden?
- Werden Facebook und andere soziale Netzwerke gezwungen, einen neuen Premium-Linke-Button einzuführen: „Garantiert persönlich geliked – keine Software genutzt!“?
Das ganze Thema scheint zunächst nichts mit Suchmaschinen-Optimierung zu tun zu haben. Aber das könnte täuschen. Für Suchmaschinen wie Google ist es höchst relevant, aus welchen Gründen eine Webseite erstellt wird und aus welchen Gründen auf sie verlinkt wurde. Beides soll nicht zum Zweck der Suchmaschinen-Optimierung erfolgen, sondern aus anderen Gründen; z.B. um eine Idee oder ein Produkt zu promoten oder zu sagen, dass man eine Idee oder ein Produkt gut findet. Software-Agenten oder Robots, die diese Aufgaben teilweise übernehmen, lassen natürlich Zweifel daran aufkommen, ob damit noch ein echter Handlungswunsch eines echten Menschen verbunden ist.
Eigentlich müsste Google gegen diese Automatismen eingestellt sein. Aber möglicherweise hat man in der Konzernzentrale die Einschätzung, dass man den Trend zum „Robot im Nutzerauftrag“ nicht aufhalten kann. Unter dieser Prämisse ist es dann besser, wenn man seine eigenen Robots vor der Konkurrenz ins Rennen schicken kann. Denn die Analyseleistung der Robots kann man auf jeden Fall gut gebrauchen, um das Ranking der Webseiten auf eine bessere Entscheidungsbasis zu stellen.
Zum gegenwärtigen Zeitpunkt kann man noch keine direkten Empfehlungen abgeben, wie man denn mit die Robots in seine Strategie der Suchmaschinen-Optimierung einbezieht. Allerdings ist es kein Fehler darüber nachzudenken, ob man denn nicht im Online-Verhalten generell zu gewissen schematischen Verhaltensweisen neigt. Diese kann man sich bewusst machen, um sie später als Robot-Regel zu verwenden. Man könnte aber auch darüber nachdenken, wie man sein Verhalten so abändert, dass ein Schema nur schwer zu finden ist.