Markus Baersch

Software · Beratung · Lösungen

04.07.2018

Kommen Besucher über Google oder Bing auf die eigene Website, ist dies in Google Analytics problemlos dem Kanal des organischen Traffic zuzuordnen. Und auch für viele andere Suchmaschinen funktioniert dies - die Liste der unterstützen Quellen ist lang... leider aber auch sehr alt. Schon bei den internationalen Fassungen von Yahoo hört der Spaß auf und lokale Quellen wie Suchfunktionen bei T-Online oder web.de landen ohne Eingriff in die Konfiguration im falschen Topf. Dieser Beitrag zeigt eine Lösung, die mit einmaligem und überschaubarem Aufwand für eine Korrektur sorgt.
Weiterlesen... »


02.07.2018

So sperrig, wie der Titel es vermuten lässt, ist das Thema diesmal wirklich. Mir ist aufgefallen, dass ich die Anleitung zur Messung eines Teils der vielzitierten "User Signals" aus "Sicht" der Google Suchergebnisse bisher noch nicht verbloggt habe, sondern diese nur in Form der Session - Folien zur CAMPIXX 2018 (ab Folie 31) zu haben ist. Da hier die fehlende Tonspur eine eigene Umsetzung nicht wirklich einfach macht, liefere ich diese hier für alle nach, die das erweiterte Rezept zur Messung der SERP Bounce Time von Simo Ahava selbst implementieren wollen.  Weiterlesen... »


01.07.2018

Exit Intent Banner sind nicht immer und überall eine gute Idee. Dennoch mag es im Einzelfall zumindest sinnvoll sein, den Versuch des Verlassens einer Seite in der Webanalyse zu vermerken. Und sei es nur zur "Verbesserung" der Messung der Verweildauer auf einer Landingpage... solange es dann wenigstens als Ersatz für stumpf implementiertes und gern direkt schon beim Seitenaufruf erste Events feuerndes Scrolltracking dient 😉
Weiterlesen... »


07.04.2018

Auf der CAMPIXX habe ich in Diskussionen im Anschluss an mehrere Sessions gehört, dass die Untersuchung der eigenen Website mit Tools wie dem Screaming Frog SEO Spider zunehmend Spuren in der Webanalyse hinterlässt, seit deren Crawler in der Lage sind, nicht nur den Quelltext einer Seite herunterzuladen und zu analysieren, sondern auch wie ein normaler Browser zu rendern. Ganz nach dem Vorbild von Google.

Aber stimmt das wirklich? Als “Webanalyse-Spam-Fan” bin ich darauf natürlich angesprungen und wollte es genauer wissen. Für eine Antwort muss also überprüft werden, ob sich in Google Analytics Hits nachweisen lassen, die durch Crawl-Vorgänge mit gängigen SEO- und OnPage-Tools entstehen, wenn deren Crawler die untersuchten Seiten auch rendern und nicht nur den Quellcode abrufen. Weiterlesen... »


16.03.2018

Personenbezogene Daten wie Namen, Mailadressen, Anschriften etc. (AKA "PII" - Personally identifiable information) haben in Google Analytics nichts verloren. Das ist nicht erst seit der kommenden DSGVO so - aber viele Benutzer von Analytics kümmern sich gerade jetzt (leider) zum ersten Mal um das Thema. Davon inspiriert habe ich bei Analytrix einen neuen Datenschutz-Check umgesetzt, mit dem jeder nach Autorisierung des Zugriffs für das Tool anhand verschiedener Muster in seinen Daten nach Spuren von problematischen Hits suchen kann.
Weiterlesen... »


05.02.2018

Knapp 40% aller Websites weltweit werden mit WordPress betrieben. Deren Betreiber nutzen in großer Anzahl Google Analytics zur Auswertung des Besucherverhaltens. Kein Wunder also, dass es zahlreiche Plugins rund um Integration, Reporting, Verfeinerung der Messung durch Events, E-Commerce-Transaktionen etc. gibt. Das Angebot wird dünner, wenn man sich um hiesige Besonderheiten wie IP-Anonymisierung, erweiterte Opt-Out-Funktionen oder den Dank der Anonymisierung nicht mit den üblichen IP-Filtern zu erledigende Ausschluss interner Besucher geht. Daher müssen wir uns auf verschiedenen Umwegen um Kennzeichnung interner Besucher bemühen, damit es etwas zu filtern gibt. Einen Überblick über einige Lösungen habe ich vor einiger Zeit unter www.gandke.de/ga-marker veröffentlicht, wo es auch einige Plugins für verschiedene Systeme - einschließlich WordPress - gibt.

Anreicherung des dataLayer für WordPress-Sites

Für eine vergleichsweise "kleine" Website mit einem oder wenigen Webmastern/Autoren habe ich im Sinne einer möglichst simplen Lösung ein weiteres Plugin erstellt, das im Zusammenspiel mit dem Google Tag Manager die Markierung anhand des Anmeldestatus ermöglicht. Davon ausgehend, dass i. d. R. genau dann viel "Datenmüll" entsteht, wenn man an der eigenen Website arbeitet und sonstige Aufrufe eher nicht ins Gewicht fallen, reicht dieses Merkmal vollkommen aus, um überflüssige selbstgemachte Hits ausreichend gut aus der Webanalyse zu filtern. Nebenbei wird der dataLayer des Tag Managers um ein paar weitere Informationen wie Autor, Monat und Jahr des Beitrags, Kategorien und Tags angereichert, um diese ebenfalls z. B. als benutzerdefinierte Dimension an Google Analytics zu senden.
Weiterlesen... »


15.09.2017

Mit Supermetrics für Google Drive lassen sich Daten aus Analytics und anderen Quellen in Google Drive nutzen. Als ich zum ersten Mal darüber gestolpert bin, habe ich mir die Funktionen angesehen, ein paar Daten aus verschiedenen Quellen abgerufen und nach Ablauf der Testphase entschieden, dass es auch ohne geht. Das stimmt auch... jedenfalls für die meisten Fälle. Für Google Analytics, die Search Console gibt es AddOns für Google Drive (GA AddOn bzw. Search Analytics for Sheets) und für Google AdWords gibt es Wege wie AdWords Scripts, um Daten für manuelle oder automatisierte externe Weiterverarbeitung in Google Drive zu bekommen.

Spätestens seit dem Start des Google Data Studio hatte ich Supermetrics mehr oder weniger komplett vom Schirm verloren, wenn es um Reporting, Dashboards o. Ä. geht. Im Einsatz blieb es nur in Projekten, bei den Datenquellen relevant sind, die das Data Studio bisher nicht abgedeckt hat. Wozu also Supermetrics? Hier ein paar Argumente:

Weiterlesen... »


08.08.2017

Von einem aufmerksamen Anwender wurde ich darauf hingewiesen, dass nicht alle Konfigurationen für die Quellen der organischen Suche, die bei Analytrix in der Verweistraffic-Analyse untersucht werden, zum gewünschten Ergebnis führen. Während ich mir bei DuckDuckGo nicht sicher bin, ob es jemals anders war, habe ich beim Check zumindest für ecosia.org und ein paar andere Einträge festgestellt, dass sich das Verhalten der Suchmaschinen offenbar seit Erstellung der Liste im vergangenen Jahr geändert hat: Der Suchparameter schafft es nicht mehr bis in die Webanalyse und so ist eine Auswertung als Suchmaschine nicht (mehr) in allen Fällen möglich. Abhilfe schaffen erweiterte Filter auf der Arbeitsdatenansicht.
Weiterlesen... »


08.05.2017

Fertig. Mein Blog hat den Weg von der ehemaligen Subdomain in einen Unterordner nebst Wechsel von dasBlog auf WordPress ganz gut überstanden. Zum Anfang des Monats hatte sich leider der Server verabschiedet, auf dem diese und weitere "technische Altlasten" der (dann auch eingetretene) Katastrophe geharrt hatten. Allerdings gibt es Opfer: Ein paar Kommentare sind vermutlich durch das Raster gerutscht. Auf der Haben-Seite konnte ich die meisten der alten URLs dank des Konverters von dasBlog auf BlogML weiterleiten. Weiterlesen... »


17.03.2017

Wer in den letzten Wochen bereits über den Spam-Check bei analytrix.de gestolpert ist, sollte die Analyse noch einmal wiederholen. Denn die Liste der Spam-Domains wurde deutlich erweitert.

Durch den sehr hilfreichen Analytics-"Megapost" von Alexander Holl bei 121WATT bin ich auf eine umfangreiche Referrer-Blacklist gestoßen (Update 10/2017: Tool inzwischen eingestellt), mit deren Daten ich die eigene Spam-Domain-Liste um knapp 150 neue Einträge erweitert habe. Da diese die Basis des Spam-Checks bildet, finden sich nun je nach Property deutlich mehr potentielle Spammer als vorher. Weiterlesen... »


13.02.2017

Nachdem Analytics Spam in einigen Konten Ende des letzten Jahres deutlichen Aufwind zeigen konnte, während andere Analytics-Benutzer einen deutlichen Rückgang oder gar komplettes Ausbleiben von Spam beobachtet haben, ist es nach der Welle von unerwünschten Nachrichten rund um das Finale des US Wahlkampfs offenbar allgemein ruhiger geworden.

Da ich in anderem Zusammenhang wieder über das Thema gestolpert bin, wollte ich herausfinden, ob sich ein allgemeiner Trend auch anhand von Daten belegen lässt. Aus verschiedenen Gründen ist die Klassifizierung von Webanalyse-Spam in "normalen" Google Analytics Konten ohne entsprechende Filter und gesonderte "Spam-Datenansichten" zwar nicht einfach bzw. besonders zuverlässig, aber dennoch wollte ich zumindest wissen, ob sich eine grobe Richtung erkennen lässt.

Weiterlesen... »


21.11.2016

Zugegeben: Referrer Spam ist ein Google Analytics Problem. Dort finden sich in vielen ungefilterten Datenansichten solche künstlich generierten Einträge in der Liste der verweisenden Websites.

Referrer Spam in Google Analytics

Ebenso hinterlassen Spammer automatisiert erzeugte Spuren in anderen Reports zur Webanalyse: Event-Spam, Page-Spam... und sogar im Language Report werden Daten erzeugt, die im weitesten Sinne der "Bewerbung" zweifelhafter Angebote im Web dienen sollen. Wenngleich es zahlreiche Möglichkeiten zur Behandlung dieses Leids gibt, bleibt Analytics-Spam ein Ärgernis.

Weiterlesen... »


23.08.2016

Seit fast genau 4 Jahren kenne und nutze ich den Google Tag Manager (GTM) für verschiedenste Aufgaben; hauptsächlich auf Websites von Agenturkunden. In den letzten Monaten ist mir dabei (zu meiner Freude) aufgefallen, dass man den GTM verstärkt bereits implementiert findet, statt zuerst von A wie Analytics bis Z wie Zauberei den ganzen Evangelisierungsschmus runterleiern zu müssen.

Mehr (unterforderte) Implementierungen in KMUs

Zugegeben: Die meisten Implementierungen, die mir dabei unterkommen, sind simpel und tun selten mehr, als einen Analytics-Code auszuspielen; der dataLayer ist i. d. R. ungenutzt und das Potential nicht mal da angekratzt, wo es nicht nur technisch möglich, sondern aus der Businessperspektive wirklich erforderlich wäre. Trotzdem scheint die "gefühlte Menge" der Installationen in B2B- und B2C-Websites kleiner Unternehmen, Nischen-Shops und den anderen eher "kleineren Kandidaten", die unser Agenturgeschäft prägen, durchaus angestiegen zu sein.

Weiterlesen... »


14.06.2016

Seit gestern war meine Website einige Stunden bis gerade eben offline. Untypisch. Das ist zwar immer ärgerlich - aber besonders dann, wenn man in einem Shared Hosting Paket unterwegs ist und daher eigentlich kaum etwas tun kann, um das Problem selbst zu beseitigen.

Kontakt bei meinem Lieblingshoster 2 Minus 2 ergab dann, dass auf deren Seite alles OK ist. Das war auch zu vermuten, weil andere Sites, die im gleichen Paket, aber nicht über Cloudflare laufen, keine Probleme gezeigt haben. Nach einigem Ping-Pong zwischen Hoster, Cloudflare und mir per Mail ergab sich dann eher nebenbei die Lösung: Meine IP-Adresse hatte sich von gestern auf heute geändert. Neuer Server, Umverteilung bei 1&1, was auch immer... man erfährt es eben leider nicht und es ist auch auf Nachfrage dort nicht nachvollziehbar, ob ein Umzug stattgefunden hat oder nicht. Klingt unlogisch? Ist es auch. Egal.

Weiterlesen... »


22.12.2015

Das hier im Blog gezeigte Verfahren zum Bot-Tracking nutzt die gewohnten Reports aus Google Analytics, um mehr über Häufigkeit und Tiefe der Besuche von Bots zu erfahren. Um herauszufinden, wie zuverlässig diese Methode ist, habe ich - konzentriert auf Besuche des Googlebot - exemplarische Daten einer Website von zehn Tagen aus Analytics mit den passenden Serverlogfiles verglichen. Das Ergebnis: Es besteht weniger als 2% Abweichung zwischen den Ergebnissen.

Weiterlesen... »


© 2001 - 2018 Markus Baersch