Markus Baersch

Software · Beratung · Lösungen

15.09.2017

Mit Supermetrics für Google Drive lassen sich Daten aus Analytics und anderen Quellen in Google Drive nutzen. Als ich zum ersten Mal darüber gestolpert bin, habe ich mir die Funktionen angesehen, ein paar Daten aus verschiedenen Quellen abgerufen und nach Ablauf der Testphase entschieden, dass es auch ohne geht. Das stimmt auch... jedenfalls für die meisten Fälle. Für Google Analytics, die Search Console gibt es AddOns für Google Drive (GA AddOn bzw. Search Analytics for Sheets) und für Google AdWords gibt es Wege wie AdWords Scripts, um Daten für manuelle oder automatisierte externe Weiterverarbeitung in Google Drive zu bekommen.

Spätestens seit dem Start des Google Data Studio hatte ich Supermetrics mehr oder weniger komplett vom Schirm verloren, wenn es um Reporting, Dashboards o. Ä. geht. Im Einsatz blieb es nur in Projekten, bei den Datenquellen relevant sind, die das Data Studio bisher nicht abgedeckt hat. Wozu also Supermetrics? Hier ein paar Argumente:

Weiterlesen... »


08.08.2017

Von einem aufmerksamen Anwender wurde ich darauf hingewiesen, dass nicht alle Konfigurationen für die Quellen der organischen Suche, die bei Analytrix in der Verweistraffic-Analyse untersucht werden, zum gewünschten Ergebnis führen. Während ich mir bei DuckDuckGo nicht sicher bin, ob es jemals anders war, habe ich beim Check zumindest für ecosia.org und ein paar andere Einträge festgestellt, dass sich das Verhalten der Suchmaschinen offenbar seit Erstellung der Liste im vergangenen Jahr geändert hat: Der Suchparameter schafft es nicht mehr bis in die Webanalyse und so ist eine Auswertung als Suchmaschine nicht (mehr) in allen Fällen möglich. Abhilfe schaffen erweiterte Filter auf der Arbeitsdatenansicht.
Weiterlesen... »


17.03.2017

Wer in den letzten Wochen bereits über den Spam-Check bei analytrix.de gestolpert ist, sollte die Analyse noch einmal wiederholen. Denn die Liste der Spam-Domains wurde deutlich erweitert.

Durch den sehr hilfreichen Analytics-"Megapost" von Alexander Holl bei 121WATT bin ich auf eine umfangreiche Referrer-Blacklist gestoßen (Update 10/2017: Tool inzwischen eingestellt), mit deren Daten ich die eigene Spam-Domain-Liste um knapp 150 neue Einträge erweitert habe. Da diese die Basis des Spam-Checks bildet, finden sich nun je nach Property deutlich mehr potentielle Spammer als vorher. Weiterlesen... »


13.02.2017

Nachdem Analytics Spam in einigen Konten Ende des letzten Jahres deutlichen Aufwind zeigen konnte, während andere Analytics-Benutzer einen deutlichen Rückgang oder gar komplettes Ausbleiben von Spam beobachtet haben, ist es nach der Welle von unerwünschten Nachrichten rund um das Finale des US Wahlkampfs offenbar allgemein ruhiger geworden.

Da ich in anderem Zusammenhang wieder über das Thema gestolpert bin, wollte ich herausfinden, ob sich ein allgemeiner Trend auch anhand von Daten belegen lässt. Aus verschiedenen Gründen ist die Klassifizierung von Webanalyse-Spam in "normalen" Google Analytics Konten ohne entsprechende Filter und gesonderte "Spam-Datenansichten" zwar nicht einfach bzw. besonders zuverlässig, aber dennoch wollte ich zumindest wissen, ob sich eine grobe Richtung erkennen lässt.

Weiterlesen... »


21.11.2016

Zugegeben: Referrer Spam ist ein Google Analytics Problem. Dort finden sich in vielen ungefilterten Datenansichten solche künstlich generierten Einträge in der Liste der verweisenden Websites.

Referrer Spam in Google Analytics

Ebenso hinterlassen Spammer automatisiert erzeugte Spuren in anderen Reports zur Webanalyse: Event-Spam, Page-Spam... und sogar im Language Report werden Daten erzeugt, die im weitesten Sinne der "Bewerbung" zweifelhafter Angebote im Web dienen sollen. Wenngleich es zahlreiche Möglichkeiten zur Behandlung dieses Leids gibt, bleibt Analytics-Spam ein Ärgernis.

Weiterlesen... »


23.08.2016

Seit fast genau 4 Jahren kenne und nutze ich den Google Tag Manager (GTM) für verschiedenste Aufgaben; hauptsächlich auf Websites von Agenturkunden. In den letzten Monaten ist mir dabei (zu meiner Freude) aufgefallen, dass man den GTM verstärkt bereits implementiert findet, statt zuerst von A wie Analytics bis Z wie Zauberei den ganzen Evangelisierungsschmus runterleiern zu müssen.

Mehr (unterforderte) Implementierungen in KMUs

Zugegeben: Die meisten Implementierungen, die mir dabei unterkommen, sind simpel und tun selten mehr, als einen Analytics-Code auszuspielen; der dataLayer ist i. d. R. ungenutzt und das Potential nicht mal da angekratzt, wo es nicht nur technisch möglich, sondern aus der Businessperspektive wirklich erforderlich wäre. Trotzdem scheint die "gefühlte Menge" der Installationen in B2B- und B2C-Websites kleiner Unternehmen, Nischen-Shops und den anderen eher "kleineren Kandidaten", die unser Agenturgeschäft prägen, durchaus angestiegen zu sein.

Weiterlesen... »


22.12.2015

Das hier im Blog gezeigte Verfahren zum Bot-Tracking nutzt die gewohnten Reports aus Google Analytics, um mehr über Häufigkeit und Tiefe der Besuche von Bots zu erfahren. Um herauszufinden, wie zuverlässig diese Methode ist, habe ich - konzentriert auf Besuche des Googlebot - exemplarische Daten einer Website von zehn Tagen aus Analytics mit den passenden Serverlogfiles verglichen. Das Ergebnis: Es besteht weniger als 2% Abweichung zwischen den Ergebnissen.

Weiterlesen... »


23.11.2015

Dieser Beitrag ist Teil einer Artikelserie zum Measurement Protocol. Diesmal geht es wieder um den Kern von Analytics: Echte Webanalyse. Nur schauen wir nicht (nur) auf reale Besucher, sondern primär auf Bots, die sich naturgemäß sonst aus der Sache gern heraushalten. Statt Spambots auszuschließen, laden wir diesmal also Crawler ein, sich von uns über die Schulter schauen zu lassen.

Weiterlesen... »


Dieser Beitrag ist Teil einer Artikelserie zum Measurement Protocol. Der Artikel zeigt auf, wie man bereits in der Webanalyse vermerkte Transaktionen sauber rückgängig macht und was genau dabei mit den Daten in Analytics passiert.

Weiterlesen... »


Dieser Beitrag ist Teil einer Artikelserie zum Measurement Protocol. Jetzt geht es ans Eingemachte: Endlich empfängt Google Analytics mehr als nur Testdaten. Wir werden WLAN-Logins, Ladevorgänge, Anrufe und jede Menge anderen Kram in der Webanalyse versenken 😉

Weiterlesen... »


Dieser Beitrag ist Teil einer Artikelserie zum Measurement Protocol. Nach einigen Anwendungsmöglichkeiten und Denkanstößen folgt ein technischer Praxisteil mit Hinweisen zum Einsatz.

Weiterlesen... »


Der Titel lässt es vermuten: Dieser Beitrag ist der erste aus einer Serie von Artikeln rund um das Measurement Protocol. Im ersten Teil geht es um Zweck, Einsatzmöglichkeiten und eine Anleitung für erste Gehversuche.

Alle Teile dieser Serie

Weiterlesen... »


09.10.2015

In den Einstellungen einer Datenansicht in Google Analytics findet sich schon seit einiger Zeit die Option "Alle Treffer von bekannten Bots und Spidern ausschließen". Ich muss zugeben, diese recht lange ignoriert zu haben. Vielleicht weil mich absolute Zahlen wenig interessieren und ich i. d. R. auf ein Rauschen ohne große Ausreißer hoffe. Also den idealen "Messfehler": Konstant und bei Betrachtung von Tendenzen und Kennzahlen im Kontext eher irrelevant. Aber stimmt das eigentlich?

Den letzten Schubser habe ich von Michael Janssen bekommen, als er sich mit den gängigen Mythen rund um Referral Spam auseinandergesetzt hat. Denn auch in diesem Zusammenhang liest man gern, dass die Option zum Ausschluss von Bots und Spidern hier helfen soll. Wirklich? Ich habe da eher auf "Nein" getippt und wollte es genauer wissen

Weiterlesen... »


11.09.2015

Besucher kommen, bleiben und gehen wieder. Auch heute passiert das erste und letzte noch oft über Links von A nach B. Daher ist es für jeden Webmaster nach wie vor interessant zu wissen, welche Seiten (und Domains) Traffic auf die eigene Website bringen.

Na und? Was ändert sich durch SSL?

Wenn Site A auf HTTPS umstellt - wozu es reichlich gute Gründe auch jenseits der Hoffnung auf bessere Rankings gibt -, dann kommt die Information der Quelle im Fall eines Links von A nach B nicht mehr unbedingt in der Webanalyse von B an. Vielmehr steigt dort im gleichen Maße, wie Verweistraffic sinkt, die Anzahl der Besucher an, die nun über "direct" kommen. Die Information geht also auf dem Weg verloren.

Help Me, Meta Referrer!

Um dem entgegenzuwirken, ist Site A gefragt. Hier kann aktiv entschieden werden, ob und welche Informationen weitergegeben werden sollen. Dazu dient eine entsprechende Angabe im Header der Seite. Die verschiedenen Optionen und der Aufbau werden z. B. hier in der Spezifikation bei w3.org beschrieben. Prinzipiell reicht es, in die Metadaten folgende Zeile aufzunehmen.

<meta name="referrer" content="unsafe-url">

Hierbei wird mehr oder weniger genau das an die den Traffic empfangende Website übermittelt, was auch vor der SSL Umstellung übergeben wurde. Es mag (wenig valide) Gründe dafür geben, diese Variante mit der vollständigen URL nicht umsetzen zu wollen (einfach nur Angst für dem "unsafe" im Namen zählt nicht!). Für diese Ausnahmen sollte aber auf jeden Fall ein

<meta name="referrer" content="origin">

akzeptabel sein - eine Variante, bei der es zumindest noch Schema und Host (also z. B. //www.markus-baersch.de bei einem Verweis von einer URL wie //www.markus-baersch.de/impressum.html) bis in die Webanalyse der verlinkten Site schaffen und so die Quelle wieder identifizierbar machen.

Unterstützung im Browsermarkt: Ja, schon...

Natürlich machen nicht alle Browser mit bei der Unterstützung dieser Anweisung. Es ist sicher keine Überraschung, dass ausgerechtet der IE (inkl. Edge) die meiste rote Farbe zur Visualisierung der Unterstützung nach Browser bei caniuse.com beisteuert:

Referrer Policy Unterstützung
Quelle: caniuse.com

Mit heute knapp 65% aller Browser weltweit und fast 75% der in DE verwendeten Browser bedeutet eine Implementierung des Tags aber sicher mehr, als nur die Unterstützung ein Exotenfeatures.

Bringt es also was?

Ja, unbedingt! Die mitunter enormen Auswirkungen auf die Zahlen in der Trafficzuordnung zeigt man am besten an einer anschaulichen Grafik. Leider habe ich aber keine zur Hand ;). Zum Glück gibt es aber ein schönes Beispiel aus der realen Google Analytics - Welt hierzu im Moz-Blog.

Warum "unsafe-url"?

"Warum nicht?" frage ich zurück. In den meisten Fällen hat man sich vorher auch keine Gedanken darüber gemacht. Ganz im Gegenteil wird oft eher vollkommen ungeniert gegen die Nutzungsbedingungen von Webanalysesystemen inkl. Google Analytics verstoßen, indem persönliche Informationen wie Mailadressen, Namen etc. mit der URL an die eigene Webanalyse gesendet werden. Wer jetzt plötzlich Bedenken entwickelt, sollte erst prüfen, wie es im eigenen System aussieht. Vielleicht mag es Szenarien geben, in denen ein Besucher einen für ihn auf irgendeine Weise wertvollen ausgehenden Link erst durch Ausfüllen eines (warum dann GET?) Formulars mit seinen Angaben "freischaltet"... aber selbst dann hilft eine interne Linkbrücke viel besser gegen Einblicke in das eigene System oder die Weitergabe persönlicher Daten als eine Beschneidung des Referrers durch https.

Erst meckern alle über das (not-provided)-Desaster und verschlimmern das Problem dann auch noch selbst? Wenngleich das - selbst bei großen Sites - im Vergleich zu Google "in viel kleinerem Stil" erfolgen mag, erscheint mir dieses Verhalten bestenfalls gedankenlos (oder wissend: scheinheilig).

Außer einer Anwendung, in der über in der Referrer-URL enthaltenen Pfade auf der verlinkten Website Rückschlüsse über den internen Aufbau, das Nutzerverhalten oder (wenngleich dann meist anonym; z. B. durch Mandantenkennungen o. Ä.) die Nutzungshäufigkeit für einzelne User erlaubt, kann ich keinen Grund sehen, warum man der Webanalyse seiner "Trafficnehmer" nicht wieder alles zurückgibt, was man ihr durch die SSL-Einführung zuvor genommen hat. In einer URL (nicht als Parameter) direkt enthaltene kritische Angaben wie Username und Passwort werden - genau wie Fragmente - ohnehin vor der Weitergabe ausgefiltert - egal ob bei einer HTTP - Verbindung oder via Metatag reaktivierter Übergabe bei HTTPS-Verweisquellen. Und o. g. Grenzfälle werden sich mit origin statt kompletter Beschneidung ganz sicher kein Bein brechen.

Die Einführung von SSL wird; auch getrieben durch die Hoffnungen auf bessere Rankings, die Google in vielen Webmastern weckt, weiter fortschreiten. Auch bei Sites, bei denen es eigentlich keinen wirklichen Grund dazu gibt. Die Browserhersteller (inzwischen ja nicht mehr nur Chrome) treiben den Ball ebenfalls weiter in diese Richtung. Wenn es aber nicht irgendwie gelingt, die Implementierung von Meta Referrer Tags in Checklisten für eine erfolgreiche SSL-Einführung zu bekommen, wird die Webanalyse darunter recht bald deutlich mehr leiden, als es jetzt schon der Fall ist. Das wäre ebenso schade wie unnötig, finde ich. Realistisch betrachtet wird eine bewusst gesteuerte Reaktivierung der Referrer-Information aber wohl leider der Ausnahmefall bleiben. Schade eigentlich.


10.09.2015

Ähnlich wertvoll wie das Stipendium aus dem letzten Jahr für den glücklichen Gewinner sollte das in diesem Jahr angebotene Coaching von ConversionBoosting ausfallen.

Betreiber eines Onlineshops oder sonstigem Business im Web und ausreichendem Budget (mind. 10.000,-- / Monat für Marketing) können sich in diesem Jahr bewerben, um umfangreiche Unterstützung über drei Monate zu erhalten.

Wer sich angesprochen fühlt, sollte sich beeilen, denn die Anmeldefrist endet schon am 30.09. Weitere Infos zum Coaching und Anmeldung.


© 2001 - 2017