21.11.2016

Hinweis: Dieser Beitrag entstand im November 2016 und dokumentiert ein Experiment zu Referrer-Spam in eTracker und Piwik (heute Matomo). Der Ausgangspunkt - massives Spam-Aufkommen in Universal Analytics - ist mit der Abschaltung von UA im Juli 2023 hinfällig geworden; Google Analytics 4 hat diese Angriffsfläche über das Measurement Protocol nicht mehr in der gleichen Form. Wer heute Bot- und Spam-Traffic an der Datenquelle filtern will, findet aktuellere Hinweise im Beitrag zur serverseitigen Erkennung rendernder Bots. Der Beitrag bleibt als Zeitdokument erhalten.

Zugegeben: Referrer Spam ist ein Google Analytics Problem. Dort finden sich in vielen ungefilterten Datenansichten solche künstlich generierten Einträge in der Liste der verweisenden Websites.

Referrer Spam in Google Analytics

Ebenso hinterlassen Spammer automatisiert erzeugte Spuren in anderen Reports zur Webanalyse: Event-Spam, Page-Spam... und sogar im Language Report werden Daten erzeugt, die im weitesten Sinne der "Bewerbung" zweifelhafter Angebote im Web dienen sollen. Wenngleich es zahlreiche Möglichkeiten zur Behandlung dieses Leids gibt, bleibt Analytics-Spam ein Ärgernis.

Weiterlesen... »

23.08.2016

Seit fast genau 4 Jahren kenne und nutze ich den Google Tag Manager (GTM) für verschiedenste Aufgaben; hauptsächlich auf Websites von Agenturkunden. In den letzten Monaten ist mir dabei (zu meiner Freude) aufgefallen, dass man den GTM verstärkt bereits implementiert findet, statt zuerst von A wie Analytics bis Z wie Zauberei den ganzen Evangelisierungsschmus runterleiern zu müssen.

Mehr (unterforderte) Implementierungen in KMUs

Zugegeben: Die meisten Implementierungen, die mir dabei unterkommen, sind simpel und tun selten mehr, als einen Analytics-Code auszuspielen; der dataLayer ist i. d. R. ungenutzt und das Potential nicht mal da angekratzt, wo es nicht nur technisch möglich, sondern aus der Businessperspektive wirklich erforderlich wäre. Trotzdem scheint die "gefühlte Menge" der Installationen in B2B- und B2C-Websites kleiner Unternehmen, Nischen-Shops und den anderen eher "kleineren Kandidaten", die unser Agenturgeschäft prägen, durchaus angestiegen zu sein.

Weiterlesen... »

14.06.2016

Seit gestern war meine Website einige Stunden bis gerade eben offline. Untypisch. Das ist zwar immer ärgerlich - aber besonders dann, wenn man in einem Shared Hosting Paket unterwegs ist und daher eigentlich kaum etwas tun kann, um das Problem selbst zu beseitigen.

Kontakt bei meinem Lieblingshoster 2 Minus 2 ergab dann, dass auf deren Seite alles OK ist. Das war auch zu vermuten, weil andere Sites, die im gleichen Paket, aber nicht über Cloudflare laufen, keine Probleme gezeigt haben. Nach einigem Ping-Pong zwischen Hoster, Cloudflare und mir per Mail ergab sich dann eher nebenbei die Lösung: Meine IP-Adresse hatte sich von gestern auf heute geändert. Neuer Server, Umverteilung bei 1&1, was auch immer... man erfährt es eben leider nicht und es ist auch auf Nachfrage dort nicht nachvollziehbar, ob ein Umzug stattgefunden hat oder nicht. Klingt unlogisch? Ist es auch. Egal.

Weiterlesen... »

22.12.2015

Das hier im Blog gezeigte Verfahren zum Bot-Tracking nutzt die gewohnten Reports aus Google Analytics, um mehr über Häufigkeit und Tiefe der Besuche von Bots zu erfahren. Um herauszufinden, wie zuverlässig diese Methode ist, habe ich - konzentriert auf Besuche des Googlebot - exemplarische Daten einer Website von zehn Tagen aus Analytics mit den passenden Serverlogfiles verglichen. Das Ergebnis: Es besteht weniger als 2% Abweichung zwischen den Ergebnissen.

Weiterlesen... »

23.11.2015

Dieser Beitrag ist Teil einer Artikelserie zum Measurement Protocol. Diesmal geht es wieder um den Kern von Analytics: Echte Webanalyse. Nur schauen wir nicht (nur) auf reale Besucher, sondern primär auf Bots, die sich naturgemäß sonst aus der Sache gern heraushalten. Statt Spambots auszuschließen, laden wir diesmal also Crawler ein, sich von uns über die Schulter schauen zu lassen.

Weiterlesen... »

23.11.2015

Wer E-Commerce-Daten in der Webanalyse ernst nimmt, kommt um Stornos nicht herum. Solange nur gebuchte Umsätze in den Reports stehen, lügen die Zahlen - manchmal ein bisschen, manchmal erheblich. Und Entscheidungen auf Basis geschönter Umsatzzahlen pro Kanal sind ungefähr so hilfreich wie eine Wettervorhersage von gestern. Dieser Beitrag zeigt, wie man per GA4 Measurement Protocol Transaktionen sauber storniert - und warum das heute erfreulich wenig Aufwand ist.

Alle Teile dieser Serie

Weiterlesen... »

23.11.2015

Google Analytics dient primär dazu, Seitenaufrufe und Interaktionen auf Websites und in Apps messbar zu machen. Aber was ist mit Daten, die gar nicht aus einem Browser oder einer App stammen? Offline-Transaktionen, IoT-Geräte, Serverlogik, automatisierte Prozesse - all das fällt durch das Raster des klassischen Trackings. Genau hier wird es spannend: Das Measurement Protocol erlaubt es, Daten von jedem Client mit Internetzugang direkt an GA4 zu senden. Ein Raspberry Pi, ein Shell-Script, ein ERP-System - alles kann zum Datenlieferanten werden. Dieser Beitrag erklärt, wie das funktioniert, und liefert eine Anleitung für die ersten Gehversuche.

Der Titel lässt es vermuten: Dieser Beitrag ist der erste aus einer Serie von Artikeln rund um das Measurement Protocol. Im ersten Teil geht es um Zweck, Einsatzmöglichkeiten und eine Anleitung für erste Gehversuche.

Alle Teile dieser Serie

Weiterlesen... »

09.10.2015

Hinweis: Dieser Beitrag stammt aus Oktober 2015 und beschreibt die Datenansicht-Option "Bots und Spider ausschließen" in Universal Analytics. Seit Juli 2023 ist UA abgeschaltet, in Google Analytics 4 gibt es diese Option nicht mehr - Bot-Filterung läuft dort automatisch im Hintergrund und ist nicht konfigurierbar. Die grundsätzliche Erkenntnis, dass bekannter Bot-Traffic einen deutlichen Anteil des "Direct"-Topfs ausmacht, bleibt aber richtig. Wer heute mehr Kontrolle über die Bot-Filterung braucht, findet aktuellere Ansätze im Beitrag zur serverseitigen Erkennung rendernder Bots. Der Beitrag bleibt als Zeitdokument erhalten.

In den Einstellungen einer Datenansicht in Google Analytics findet sich schon seit einiger Zeit die Option "Alle Treffer von bekannten Bots und Spidern ausschließen". Ich muss zugeben, diese recht lange ignoriert zu haben. Vielleicht weil mich absolute Zahlen wenig interessieren und ich i. d. R. auf ein Rauschen ohne große Ausreißer hoffe. Also den idealen "Messfehler": Konstant und bei Betrachtung von Tendenzen und Kennzahlen im Kontext eher irrelevant. Aber stimmt das eigentlich?

Den letzten Schubser habe ich von Michael Janssen bekommen, als er sich mit den gängigen Mythen rund um Referral Spam auseinandergesetzt hat. Denn auch in diesem Zusammenhang liest man gern, dass die Option zum Ausschluss von Bots und Spidern hier helfen soll. Wirklich? Ich habe da eher auf "Nein" getippt und wollte es genauer wissen

Weiterlesen... »

15.09.2015

Schon am Titel wird man es merken können: Dieser Beitrag verfolgt keinerlei Rankingziele. Er will nur meckern. Es gibt allerdings im folgenden Extremfall auch reichlich Anlass dazu, denn er zeigt, wie krank manche Websites sind. Nicht, dass es ein besonders trafficstarkes Beispiel wäre... aber es ist dafür sagenhaft miserabel.

Der Anfang allen Übels

Alles fing mit einer “ganz normalen” Websuche an. Ich habe die folgende Seite im Zuge einer Recherche in einem sehr engen und vergleichsweise "unspannenden" Keywordbereich gefunden, so dass zu Googles Entschuldigung gesagt sei, dass es ganz einfach auch nur wenig passende Inhalte gibt. Außerdem war der Inhalt selbst gar nicht so übel. Gelandet bin ich jedenfalls bei forums.codescript.in und da auf einer Seite mit dem schönen Namen how-to-fetch-top-pages-and-top-query-data-from-google-webmaster-tool-by-usi-2543.html. Warum ich nicht einfach einen Link setze? Weil ich das nicht mal mit nofollow entwertet auf einer verschlüsselten Seite machen würde, die hinter einem Login auf einem Server ohne Internetverbindung vor allen Suchmaschinen dieser Welt versteckt wäre. Deshalb!

Dabei fing alles so "harmlos" an: Schon nach 3 Minuten war die Seite augenscheinlich erstmals mit dem Laden fertig. Für die, die es wissen wollen: DOMContentLoaded nach 31,15 Sekunden. Also nichts wirklich Ungewöhnliches. Leider.
Weiterlesen... »

11.09.2015

Besucher kommen, bleiben und gehen wieder. Auch heute passiert das erste und letzte noch oft über Links von A nach B. Daher ist es für jeden Webmaster nach wie vor interessant zu wissen, welche Seiten (und Domains) Traffic auf die eigene Website bringen.

Na und? Was ändert sich durch SSL?

Wenn Site A auf HTTPS umstellt - wozu es reichlich gute Gründe auch jenseits der Hoffnung auf bessere Rankings gibt -, dann kommt die Information der Quelle im Fall eines Links von A nach B nicht mehr unbedingt in der Webanalyse von B an. Vielmehr steigt dort im gleichen Maße, wie Verweistraffic sinkt, die Anzahl der Besucher an, die nun über "direct" kommen. Die Information geht also auf dem Weg verloren.

Weiterlesen... »

10.09.2015

Ähnlich wertvoll wie das Stipendium aus dem letzten Jahr für den glücklichen Gewinner sollte das in diesem Jahr angebotene Coaching von ConversionBoosting ausfallen.

Betreiber eines Onlineshops oder sonstigem Business im Web und ausreichendem Budget (mind. 10.000,-- / Monat für Marketing) können sich in diesem Jahr bewerben, um umfangreiche Unterstützung über drei Monate zu erhalten.

Wer sich angesprochen fühlt, sollte sich beeilen, denn die Anmeldefrist endet schon am 30.09. Weitere Infos zum Coaching und Anmeldung.

10.09.2015

Jedenfalls bei mir. Ich kann mich mit dem neuen Namen nicht anfreunden. Weder in der Kommunikation mit anderen (auch wenn ich es muss), noch in Form des Anblicks bei der Verwendung der Webmaster Tools. Der Webmaster Tools. Webmaster Tools, nicht Search Console. Ich mag den Namen nicht. Hatte ich das schon erwähnt?

Name doof? Einfach umbenennen!

Ein Plugin war mir dann doch ein wenig zu übertrieben, aber da ich ohnehin gern und viel mit Greasemonkey bzw. Tampermonkey "nachbessere", habe ich zahllose schweißtreibende Stunden in eine umfangreiche Lösung investiert 😉

Wer meine Abneigung gegen den neuen Namen teilt, kann sich also mit den o. g. Erweiterungen für den Browser seiner Wahl Abhilfe verschaffen. Sowohl in der Anwendung als auch in der Hilfe. Einfach hier klicken und das Script in Greasemonkey oder Tampermonkey installieren oder herunterladen. Schon sieht das wieder so aus:

Search Console als Webmaster Tools rerebranded

Wem es noch fehlt: Hier sind Greasemonkey für Firefox oder Tampermonkey für Chrome zu bekommen.

Happy Re-Rebranding & Webmaster-Tooling 😉

28.05.2015

Gähn, schon wieder ein Recap? Ja, aber aus Gründen. Weil es diesmal keine Veranstaltung mit lokalem Charakter war, sondern ein Onlinemarketing Branchentreffen mit weitem Einzugsgebiet und Teilnehmern aus allen Ecken Deutschlands... und darüber hinaus.

(K)eine Konferenz

Weil ich normalerweise nur Stammtische und Konferenzen in der Nähe besuche, war der OMTalk für mich vor allem eine Möglichkeit, auch Onliner kennenzulernen, die nicht aus dem direkten Umfeld kommen; in einem kleinen und überschaubaren Kreis. Das war auch der Grund, warum ich mich sehr kurzfristig und ohne große Gegenwehr habe überreden lassen, ein freigewordenes Ticket zu übernehmen und ohne lange Nachdenkzeit mitzufahren.

Weiterlesen... »