17.03.2019

Kurze Antwort: Nein.

Warum ich mich das überhaupt gefragt habe? Weil laut der Beschreibung im Chromium Blog "Google Server" im Spiel sind (wie auch sonst), die die Seiten optimieren und faktisch in veränderter Form ausliefern. Aber: Tun Sie das wie ein Proxy oder CDN oder ändert sich - wie im Fall von AMP - etwas am Tracking und den Rahmenbedingungen wie dem Host, der URL der Seite etc?

Damit in diesem Blogbeitrag dennoch etwas mehr Nutzen herauskommt als die kurze Antwort oben, beschreibe ich kurz meinen Weg zum "Nein", denn das Debugging von mobilen Seiten in Chrome auf einem Android Gerät mag dem einen oder anderen in ähnlichen Fällen helfen. Weiterlesen... »

03.03.2019

Hinweis: Mit der bei ITP inzwischen verwendeten, relativ willkürlich erscheinenden Definition von "First Party" sind die Spielregeln über die Jahre weiter verschärft worden. Wenn ein Cookie von einem Server gesetzt werden soll, der nicht in der ersten Hälfte der IP mit dem Server der besuchten Website übereinstimmt, gilt es als "fremdes" Cookie und ist den - ebenso inzwischen in Details veränderten - Spielregeln von ITP unterworfen. Dieser Austausch zwischen Trackingschutz und Trackinganbietern wird auch nie enden. Dennoch markiert speziell die Version 2.1 von ITP einen besonderen Wendepunkt, wenn es um Schutzmaßnahmen geht, die sich vor allem gegen Wiedererkennung und Profilbildung richten und nicht generell "Tracking verhindern" wollen. Diesen Punkt sollte man ITP zu Gute halten.

ITP ist ein Problem für Analytics

ITP ("Intelligent Tracking Prevention") als Schutz vor Tracking durch Drittparteien und domainübergreifende Profilbildung in Safari Browsern ist prinzipiell eine gute Idee. Das sage ich selbst als jemand, der in der Rolle eines Marketers bei Google Ads & Co. auf so erhobene Daten in gewisser Weise angewiesen ist. Aber was Safari mit der neuen Version 2.1 von ITP einführen wird, geht deutlich über diese ursprüngliche Intention hinaus. Im Kern werden dabei First Party Cookies, wie sie für die Webanalyse (und deren Opt Out! - siehe unten), Testing, Personalisierung und viele andere Funktionen jenseits von Tracking durch Dritte oder Profilbildung genutzt werden, auf eine Lebensdauer von 7 Tagen begrenzt. Mit Folgen für alle o. a. Systeme. Das ist nicht gut. Was alles betroffen ist und was man tun kann, um die Effekte abzumildern, zeigt dieser Beitrag. Weiterlesen... »

27.01.2019

Hinweis: Dieser Beitrag stammt aus Januar 2019 und beschreibt einen neuen Check für doppelte Transaktionen im damaligen UA-Audit bei analytrix.de. Mit der Abschaltung von Universal Analytics im Juli 2023 ist der seinerzeit verlinkte UA-Beispielreport nicht mehr nutzbar. Der Check selbst ist in das GA4-Audit uebergegangen und untersucht dort weiterhin Fundstellen doppelt gemessener Transaktionen.

Die mehrfache Messung von Transaktionen in einem Shop kann mehrere Ursachen haben. Im einfachsten Fall wird die Bestätigungsseite eines Shops neu geladen und führt dann nicht zum leeren Warenkorb, sondern enthält nochmals alle Daten der Transaktion, die dann ein zweites Mal an die Webanalyse gesendet wird. Auch in AJAX-Checkouts kann es - vor allem im Zusammenspiel mit dem Google Tag Manager - schnell passieren, dass Transaktionen mehrfach gemessen werden.  Weiterlesen... »

21.09.2018

Als ich vor ein paar Wochen erstmals den Namen "Nacho Analytics" gehört hatte, bin ich sowohl neugierig als auch skeptisch geworden. Das Tool verspricht dem Nutzer, in "jedermanns Analytics" schauen zu können. Einfach so. Revolutionäre Idee, mega-innovativ, Blabla.

Für diesen Claim werdet ihr brennen!

Zugegeben: Kaugummigestützt aus "Not Your Analytics" ein "Nacho Analytics" zurechtzunuscheln, ist schon mal eine kreative Idee (die nur ein Amerikaner haben konnte). Und die verfügbaren Daten in Analytics zu versenken, klingt im ersten Moment auch nicht dumm. Aber steckt mehr dahinter, als durch pluginverseuchte Browser gesammelte Daten wie im Fall von SimilarWeb? ich wollte es wissen und habe nach längerer, durch gutes Marketing und schlechte Skalierung beim Anbieter ausgelöster Wartezeit einen kurzen Test gemacht, um mir einen Eindruck zu verschaffen.  Weiterlesen... »

23.08.2018

Hinweis: Dieser Beitrag stammt aus August 2018 und aktualisiert die Zahlen aus der Spam-Studie auf Basis von Universal-Analytics-Daten und Events aus dem Spam-Check bei analytrix.de. Sowohl UA als auch der Spam-Check wurden mit der Abschaltung von Universal Analytics im Juli 2023 eingestellt. Das Ghost-Spam-Phänomen war eine UA-Eigenheit und existiert in Google Analytics 4 in dieser Form nicht mehr. Der Beitrag bleibt als Zeitdokument erhalten.

Anfang des letzten Jahres habe ich unter der Überschrift "ist Spam besiegt?" erstmals Zahlen zum Volumen von Spammern und Opfern, dem Anteil von Spam im Verweistraffic und der zeitlichen Entwicklung von Spam in Google Analytics veröffentlicht. Die Zahlen basierten auf der massenhaften Auswertung der Verweise für alle mir zur Auswertung selbst zur Verfügung stehenden Analytics - Properties von eigenen Websites und den Sites betreuter Kunden.

Diese Untersuchung habe ich seitdem monatlich fortgeführt. Zudem habe ich vor einiger Zeit damit begonnen, den Anteil an Spam im Verweistraffic als Event zu messen, wenn eine Spamanalyse mit Analytrix durchgeführt wurde - freilich ohne Bezug zur untersuchten Property oder gar Domain; nur den ermittelten Gesamtanteil an Spam, um eine von "meinen" Daten unabhängigere Messung zu ermöglichen. Hier nun zu beiden Methoden ein paar Zahlen als Update zur "Studie" aus dem letzten Jahr. Weiterlesen... »

04.07.2018

Hinweis: Dieser Beitrag stammt aus Juli 2018 und zeigt eine customTask-Lösung für Universal Analytics, die die Zuordnung des organischen Traffics bereits im Browser vor dem Senden der Hits korrigiert. Weder der customTask noch die "Quellen der organischen Suche" in den Property-Einstellungen existieren seit der Abschaltung von Universal Analytics im Juli 2023 noch. Google Analytics 4 hat das Keyword-Konzept komplett abgeschafft und klassifiziert Suchmaschinen über Custom Channel Groups mit einer anderen Logik. Das hier gezeigte Verfahren funktioniert nicht mehr; der Beitrag bleibt als Zeitdokument erhalten.

Kommen Besucher über Google oder Bing auf die eigene Website, ist dies in Google Analytics problemlos dem Kanal des organischen Traffic zuzuordnen. Und auch für viele andere Suchmaschinen funktioniert dies - die Liste der unterstützen Quellen ist lang... leider aber auch sehr alt. Schon bei den internationalen Fassungen von Yahoo hört der Spaß auf und lokale Quellen wie Suchfunktionen bei T-Online oder web.de landen ohne Eingriff in die Konfiguration im falschen Topf. Dieser Beitrag zeigt eine Lösung, die mit einmaligem und überschaubarem Aufwand für eine Korrektur sorgt.
Weiterlesen... »

02.07.2018

Hinweis: Dieser Beitrag stammt aus Juli 2018 und zeigt eine GTM-Lösung zur Messung von SERP-Bounce und Dwell Time mit Universal Analytics: Timing-Tags, Ereignis-Ziele und einen berechneten Messwert auf Datenansicht-Ebene. Seit der Abschaltung von UA im Juli 2023 existieren weder die Timings-Reports noch die berechneten Messwerte in dieser Form; Google Analytics 4 hat ein komplett anderes Event- und Conversion-Modell. Die grundsätzliche Idee (History-basierter Messpunkt beim Eintritt aus den SERPs) ließe sich in GA4 als benutzerdefiniertes Event nachbauen, ein Copy-Paste-Rezept ist dieser Beitrag aber nicht mehr. Der Beitrag bleibt als Zeitdokument erhalten.

So sperrig, wie der Titel es vermuten lässt, ist das Thema diesmal wirklich. Mir ist aufgefallen, dass ich die Anleitung zur Messung eines Teils der vielzitierten "User Signals" aus "Sicht" der Google Suchergebnisse bisher noch nicht verbloggt habe, sondern diese nur in Form der Session - Folien zur CAMPIXX 2018 (ab Folie 31) zu haben ist. Da hier die fehlende Tonspur eine eigene Umsetzung nicht wirklich einfach macht, liefere ich diese hier für alle nach, die das erweiterte Rezept zur Messung der SERP Bounce Time von Simo Ahava selbst implementieren wollen.  Weiterlesen... »

01.07.2018

Exit Intent Banner sind nicht immer und überall eine gute Idee. Dennoch mag es im Einzelfall zumindest sinnvoll sein, den Versuch des Verlassens einer Seite in der Webanalyse zu vermerken. Und sei es nur zur "Verbesserung" der Messung der Verweildauer auf einer Landingpage... solange es dann wenigstens als Ersatz für stumpf implementiertes und gern direkt schon beim Seitenaufruf erste Events feuerndes Scrolltracking dient 😉
Weiterlesen... »

07.04.2018

Hinweis: Dieser Beitrag entstand im April 2018 und dokumentiert eine Testreihe gegen Universal Analytics Properties. Seit Juli 2023 ist UA abgeschaltet, die gezeigten Datenansichten, Filter und Screenshots gibt es in dieser Form nicht mehr. Die Kern-Erkenntnisse - dass einige Crawler aktiv Tracking-Scripts blocken und andere nicht, und dass Filter nur gegen eigene Testcrawls helfen - sind als Prinzip weiter gültig. Wer heute rendernde Crawler aus den eigenen Daten halten will, findet einen aktuellen, tool-übergreifenden Ansatz im Beitrag zur serverseitigen Erkennung rendernder Bots. Der Beitrag bleibt als Zeitdokument erhalten.

Auf der CAMPIXX habe ich in Diskussionen im Anschluss an mehrere Sessions gehört, dass die Untersuchung der eigenen Website mit Tools wie dem Screaming Frog SEO Spider zunehmend Spuren in der Webanalyse hinterlässt, seit deren Crawler in der Lage sind, nicht nur den Quelltext einer Seite herunterzuladen und zu analysieren, sondern auch wie ein normaler Browser zu rendern. Ganz nach dem Vorbild von Google.

Aber stimmt das wirklich? Als “Webanalyse-Spam-Fan” bin ich darauf natürlich angesprungen und wollte es genauer wissen. Für eine Antwort muss also überprüft werden, ob sich in Google Analytics Hits nachweisen lassen, die durch Crawl-Vorgänge mit gängigen SEO- und OnPage-Tools entstehen, wenn deren Crawler die untersuchten Seiten auch rendern und nicht nur den Quellcode abrufen. Weiterlesen... »

05.02.2018

Hinweis: Dieser Beitrag stammt aus Februar 2018 und zeigt, wie interne Besuche auf WordPress-Sites über ein dataLayer-Plugin + GTM + Custom Dimensions in Universal Analytics markiert und per Datenansicht-Filter ausgeschlossen werden. Seit Juli 2023 ist UA abgeschaltet, die hier gezeigten Filter auf Datenansichten und die Custom-Dimension-Indizes gibt es so nicht mehr. Das beschriebene WordPress-Plugin und die dataLayer-Signale (wp_utype, wp_aut etc.) funktionieren aber weiter und lassen sich in GA4 über Event-Parameter, User Properties und Audiences analog nutzen. Der Beitrag bleibt als Zeitdokument erhalten.

Knapp 40% aller Websites weltweit werden mit WordPress betrieben. Deren Betreiber nutzen in großer Anzahl Google Analytics zur Auswertung des Besucherverhaltens. Kein Wunder also, dass es zahlreiche Plugins rund um Integration, Reporting, Verfeinerung der Messung durch Events, E-Commerce-Transaktionen etc. gibt. Das Angebot wird dünner, wenn man sich um hiesige Besonderheiten wie IP-Anonymisierung, erweiterte Opt-Out-Funktionen oder den Dank der Anonymisierung nicht mit den üblichen IP-Filtern zu erledigende Ausschluss interner Besucher geht. Daher müssen wir uns auf verschiedenen Umwegen um Kennzeichnung interner Besucher bemühen, damit es etwas zu filtern gibt. Einen Überblick über einige Lösungen habe ich vor einiger Zeit unter www.gandke.de/ga-marker veröffentlicht, wo es auch einige Plugins für verschiedene Systeme - einschließlich WordPress - gibt.

Anreicherung des dataLayer für WordPress-Sites

Für eine vergleichsweise "kleine" Website mit einem oder wenigen Webmastern/Autoren habe ich im Sinne einer möglichst simplen Lösung ein weiteres Plugin erstellt, das im Zusammenspiel mit dem Google Tag Manager die Markierung anhand des Anmeldestatus ermöglicht. Davon ausgehend, dass i. d. R. genau dann viel "Datenmüll" entsteht, wenn man an der eigenen Website arbeitet und sonstige Aufrufe eher nicht ins Gewicht fallen, reicht dieses Merkmal vollkommen aus, um überflüssige selbstgemachte Hits ausreichend gut aus der Webanalyse zu filtern. Nebenbei wird der dataLayer des Tag Managers um ein paar weitere Informationen wie Autor, Monat und Jahr des Beitrags, Kategorien und Tags angereichert, um diese ebenfalls z. B. als benutzerdefinierte Dimension an Google Analytics zu senden.
Weiterlesen... »

15.09.2017

Hinweis: Dieser Beitrag stammt aus September 2017. "Data Studio" heißt seit 2022 Looker Studio, Supermetrics hat sich seitdem erheblich weiterentwickelt und die UA-Datenansicht, die hier als Beispiel für automatisierte Audits erwähnt wird, gibt es seit Juli 2023 nicht mehr. Die Kern-These - dass Supermetrics auch neben einem Dashboard-Tool seine Berechtigung hat - bleibt aber gültig. Der Beitrag bleibt als Zeitdokument erhalten.

Mit Supermetrics für Google Drive lassen sich Daten aus Analytics und anderen Quellen in Google Drive nutzen. Als ich zum ersten Mal darüber gestolpert bin, habe ich mir die Funktionen angesehen, ein paar Daten aus verschiedenen Quellen abgerufen und nach Ablauf der Testphase entschieden, dass es auch ohne geht. Das stimmt auch... jedenfalls für die meisten Fälle. Für Google Analytics, die Search Console gibt es AddOns für Google Drive (GA AddOn bzw. Search Analytics for Sheets) und für Google AdWords gibt es Wege wie AdWords Scripts, um Daten für manuelle oder automatisierte externe Weiterverarbeitung in Google Drive zu bekommen.

Spätestens seit dem Start des Google Data Studio hatte ich Supermetrics mehr oder weniger komplett vom Schirm verloren, wenn es um Reporting, Dashboards o. Ä. geht. Im Einsatz blieb es nur in Projekten, bei den Datenquellen relevant sind, die das Data Studio bisher nicht abgedeckt hat. Wozu also Supermetrics? Hier ein paar Argumente:

Weiterlesen... »

08.08.2017

Hinweis: Dieser Beitrag stammt aus August 2017 und zeigt erweiterte Filter auf einer Universal-Analytics-Datenansicht, um Traffic von Suchmaschinen wie DuckDuckGo oder Ecosia korrekt als "organic" zu klassifizieren. Seit der Abschaltung von UA im Juli 2023 sind die gezeigten Filter und die Konfiguration der "Quellen der organischen Suche" in den Property-Einstellungen nicht mehr verfügbar. In Google Analytics 4 werden eigene Suchmaschinen über Custom Channel Groups mit einer ganz anderen Logik klassifiziert. Die Liste der problematischen Quellen ist aber weiterhin ein nützlicher Ausgangspunkt. Der Beitrag bleibt als Zeitdokument erhalten.

Von einem aufmerksamen Anwender wurde ich darauf hingewiesen, dass nicht alle Konfigurationen für die Quellen der organischen Suche, die bei Analytrix in der Verweistraffic-Analyse untersucht werden, zum gewünschten Ergebnis führen. Während ich mir bei DuckDuckGo nicht sicher bin, ob es jemals anders war, habe ich beim Check zumindest für ecosia.org und ein paar andere Einträge festgestellt, dass sich das Verhalten der Suchmaschinen offenbar seit Erstellung der Liste im vergangenen Jahr geändert hat: Der Suchparameter schafft es nicht mehr bis in die Webanalyse und so ist eine Auswertung als Suchmaschine nicht (mehr) in allen Fällen möglich. Abhilfe schaffen erweiterte Filter auf der Arbeitsdatenansicht.
Weiterlesen... »

08.05.2017

Fertig. Mein Blog hat den Weg von der ehemaligen Subdomain in einen Unterordner nebst Wechsel von dasBlog auf WordPress ganz gut überstanden. Zum Anfang des Monats hatte sich leider der Server verabschiedet, auf dem diese und weitere "technische Altlasten" der (dann auch eingetretene) Katastrophe geharrt hatten. Allerdings gibt es Opfer: Ein paar Kommentare sind vermutlich durch das Raster gerutscht. Auf der Haben-Seite konnte ich die meisten der alten URLs dank des Konverters von dasBlog auf BlogML weiterleiten. Weiterlesen... »

17.03.2017

Hinweis: Dieser Beitrag stammt aus März 2017 und aktualisiert die Spam-Domain-Liste für den Spam-Check unter analytrix.de. Mit der Abschaltung von Universal Analytics im Juli 2023 wurde der dort beschriebene Spam-Check eingestellt. Auch die im Beitrag verlinkte Blacklist von 121WATT existiert nicht mehr (Update 10/2017 im Text). Das Ghost-Spam-Phänomen war eine UA-Eigenheit und existiert in Google Analytics 4 in dieser Form nicht mehr. Der Beitrag bleibt als Zeitdokument erhalten.

Wer in den letzten Wochen bereits über den Spam-Check bei analytrix.de gestolpert ist, sollte die Analyse noch einmal wiederholen. Denn die Liste der Spam-Domains wurde deutlich erweitert.

Durch den sehr hilfreichen Analytics-"Megapost" von Alexander Holl bei 121WATT bin ich auf eine umfangreiche Referrer-Blacklist gestoßen (Update 10/2017: Tool inzwischen eingestellt), mit deren Daten ich die eigene Spam-Domain-Liste um knapp 150 neue Einträge erweitert habe. Da diese die Basis des Spam-Checks bildet, finden sich nun je nach Property deutlich mehr potentielle Spammer als vorher. Weiterlesen... »

13.02.2017

Hinweis: Dieser Beitrag stammt aus Februar 2017 und untersucht Referrer- und Ghost-Spam in Universal Analytics auf Basis eigener UA-Datenansichten. Seit Juli 2023 ist Universal Analytics abgeschaltet; das im Beitrag beschriebene Spam-Phänomen war eine UA-Eigenheit (offenes Measurement Protocol, Raten von Property-IDs) und existiert in Google Analytics 4 in dieser Form nicht mehr. Wer heute Bot- und Crawler-Traffic aus den eigenen Daten halten will, findet aktuellere Ansätze im Beitrag zur serverseitigen Erkennung rendernder Bots. Der Beitrag bleibt als Zeitdokument erhalten.

Nachdem Analytics Spam in einigen Konten Ende des letzten Jahres deutlichen Aufwind zeigen konnte, während andere Analytics-Benutzer einen deutlichen Rückgang oder gar komplettes Ausbleiben von Spam beobachtet haben, ist es nach der Welle von unerwünschten Nachrichten rund um das Finale des US Wahlkampfs offenbar allgemein ruhiger geworden.

Da ich in anderem Zusammenhang wieder über das Thema gestolpert bin, wollte ich herausfinden, ob sich ein allgemeiner Trend auch anhand von Daten belegen lässt. Aus verschiedenen Gründen ist die Klassifizierung von Webanalyse-Spam in "normalen" Google Analytics Konten ohne entsprechende Filter und gesonderte "Spam-Datenansichten" zwar nicht einfach bzw. besonders zuverlässig, aber dennoch wollte ich zumindest wissen, ob sich eine grobe Richtung erkennen lässt.

Weiterlesen... »