Für bessere Daten: Erkennung rendernder Bots bei serverseitigem Tracking
„Bekennende Bots“ wie der GoogleBot und andere sind nichts Neues. SEO-Tools, Crawler von Consent-Anbietern, Preisvergleichstools und zahlreiche Suchmaschinen (nicht nur Google und Bing) besuchen mehr oder weniger häufig die eigene Website. Zum Teil werden rendernde Bots zusätzlich in Form von KI-Crawlern, SEO-Tools, Google Pagespeed oder anderen auf die eigene Website losgelassen. Das war vor ein paar Jahren noch kein großes Problem, aber heute kommt dadurch mitunter ein nennenswertes Rauschen in den Webanalyse-Daten zustande. Während es für clientseitige Bot-Erkennung zahlreiche Merkmale gibt, die man zur Verifikation realer Besucher nutzen kann, ist man auf dem Server i. d. R. auf den User Agent angewiesen. Dieser Beitrag zeigt den Umfang des evtl. Problems, die Rahmenbedingungen und Lösungsansätze zur Behandlung dieser Bots – mit Fokus auf serverseitiges Tracking mit dem Google Tag Manager. Weiterlesen... »