Google Webseite mit Suchfeld

Onlinemarketing Wenn Google seltener zu Besuch kommt
Nach verschiedenen Medienberichten plant Google, Webseiten weniger häufig mit seinem Bot besuchen. Was bedeutet das für Online-Händler?
Wie so viele Unternehmen will Google nachhaltiger werden. Nach eigenen Angaben arbeitet das Unternehmen zwar bereits seit 2007 klimaneutral. Das bedeutet indes natürlich nicht, dass der CO2-Abdruck des Unternehmens nicht weiter reduziert werden könnte.
Weniger Crawling = weniger Emissionen
Über eine der Ideen, die zur Reduzierung von Emissionen beitragen sollen, berichtete der Google-Podcast «Search Off the Record». Dabei geht es um unnötiges «Crawlen» von Webseiten, also den Besuchen des Google-Bots, um den Inhalt der Seite in den Index zu Google zu übertragen. Mit anderen Worten denkt Google darüber nach, die Zahl der Besuche des Bots auf Webseiten zu reduzieren.
Nun scheint zunächst die Idee überraschend, dass der Besuch eines Computerprogramms auf einer Webseite messbaren Einfluss auf das Klima haben könnte. Hier zählt allerdings die schiere Masse. Wie jede Software beansprucht der Google-Bot Rechenzeit und verbraucht damit Strom. Zudem muss der Datenverkehr ja über das globale Datennetz verteilt werden. So gering der Energieverbrauch jeder einzelnen Anfrage auch sein mag. Am Ende addiert sich das doch zu beachtlichen Energiemengen.
Viele Besuche des Google-Bots sind zudem unnötig, weil sich auf der Seite nichts verändert hat. Das liegt bei fast jedem Internetauftritt auf der Hand. Während sich beispielsweise Produkt-, Shop-, Karriere- und Blogseiten regelmässig ändern, werden Unternehmen den Bereich «Historie» oder auch das Impressum wohl selten überarbeiten.
Wie die Suchspezialisten von Google im Podcast ausführen, bieten sich aus ihrer Sicht noch Optimierungen, um solche unnötigen Besuche zu reduzieren. Es geht also um die Frequenz des Crawling insgesamt.
Seltenes Crawling = schlechteres Ranking?
Berechtigterweise machen sich SEO-Strategen in Unternehmen aufgrund der Meldung nun Gedanken darüber, dass sich damit das Ranking ihrer Seiten in den Ergebnisseiten von Google verschlechtern könnte. Dies dürfte allerdings aus zwei Gründen nicht der Fall sein.
Wer die Ergebnisse der Search-Console von Google einmal genau untersucht, wird bereits heute erkennen können, dass der Google Bot einige Seiten deutlich seltener aufruft. Das ist ein eindeutiges Signal dafür, dass Google diesem Dokument eine geringere Bedeutung für die Suche zuweist. Genau zu dieser Frage bezieht auch der Podcast Stellung. Es ist ein Mythos, dass eine Seite, die häufiger vom Crawler besucht wird, auch ein besseres Ranking erhält. Sofern sich nichts Grundlegendes an der Site verändert hat, ist es somit also auch unnötig, Google manuell um den erneuten Besuch der Site zu bitten. Das Ranking unterliegt anderen Faktoren als der Zahl der Bot-Zugriffe.
Zum anderen handelt es sich aktuell zunächst lediglich um interne Überlegungen von Google. Wie genau die Zahl der unnötigen Bot-Zugriffe reduziert werden soll, steht noch nicht fest. Auf aktuelle SEO-Strategien haben diese frühen Überlegungen also keinen unmittelbaren Einfluss.
Bewährte Mittel weiter nutzen
Somit ergibt sich für Online-Händler aktuell keine Notwendigkeit, etwas an ihren Strategien zu verändern. Nach wie vor gilt es, Google die Aufnahme von Inhalten möglichst zu erleichtern. Bewährte Instrumente wie «robots.txt» und Sitemaps funktionieren auch weiterhin. Gerade die Sitemap-Datei sollte immer wieder daraufhin überprüft werden, ob sie noch aktuell ist. Und um Kundinnen und Kunden über aktuelle Produkte, Preise und Verfügbarkeiten zu informieren, ist der Einsatz von Google-Shopping und eines gepflegten Produktdatenfeeds immer noch eine der besten Optionen, um für die Suchenden sichtbar zu sein.