Markus Baersch

Software · Beratung · Lösungen

08.08.2017

Von einem aufmerksamen Anwender wurde ich darauf hingewiesen, dass nicht alle Konfigurationen für die Quellen der organischen Suche, die bei Analytrix in der Verweistraffic-Analyse untersucht werden, zum gewünschten Ergebnis führen. Während ich mir bei DuckDuckGo nicht sicher bin, ob es jemals anders war, habe ich beim Check zumindest für ecosia.org und ein paar andere Einträge festgestellt, dass sich das Verhalten der Suchmaschinen offenbar seit Erstellung der Liste im vergangenen Jahr geändert hat: Der Suchparameter schafft es nicht mehr bis in die Webanalyse und so ist eine Auswertung als Suchmaschine nicht (mehr) in allen Fällen möglich. Abhilfe schaffen erweiterte Filter auf der Arbeitsdatenansicht.
Weiterlesen... »


08.05.2017

Fertig. Mein Blog hat den Weg von der ehemaligen Subdomain in einen Unterordner nebst Wechsel von dasBlog auf WordPress ganz gut überstanden. Zum Anfang des Monats hatte sich leider der Server verabschiedet, auf dem diese und weitere "technische Altlasten" der (dann auch eingetretene) Katastrophe geharrt hatten. Allerdings gibt es Opfer: Ein paar Kommentare sind vermutlich durch das Raster gerutscht. Auf der Haben-Seite konnte ich die meisten der alten URLs dank des Konverters von dasBlog auf BlogML weiterleiten. Weiterlesen... »


17.03.2017

Wer in den letzten Wochen bereits über den Spam-Check bei analytrix.de gestolpert ist, sollte die Analyse noch einmal wiederholen. Denn die Liste der Spam-Domains wurde deutlich erweitert.

Durch den sehr hilfreichen Analytics-"Megapost" von Alexander Holl bei 121WATT bin ich auf eine umfangreiche Referrer-Blacklist gestoßen, mit deren Daten ich die eigene Spam-Domain-Liste um knapp 150 neue Einträge erweitert habe. Da diese die Basis des Spam-Checks bildet, finden sich nun je nach Property deutlich mehr potentielle Spammer als vorher. Weiterlesen... »


13.02.2017

Nachdem Analytics Spam in einigen Konten Ende des letzten Jahres deutlichen Aufwind zeigen konnte, während andere Analytics-Benutzer einen deutlichen Rückgang oder gar komplettes Ausbleiben von Spam beobachtet haben, ist es nach der Welle von unerwünschten Nachrichten rund um das Finale des US Wahlkampfs offenbar allgemein ruhiger geworden.

Da ich in anderem Zusammenhang wieder über das Thema gestolpert bin, wollte ich herausfinden, ob sich ein allgemeiner Trend auch anhand von Daten belegen lässt. Aus verschiedenen Gründen ist die Klassifizierung von Webanalyse-Spam in "normalen" Google Analytics Konten ohne entsprechende Filter und gesonderte "Spam-Datenansichten" zwar nicht einfach bzw. besonders zuverlässig, aber dennoch wollte ich zumindest wissen, ob sich eine grobe Richtung erkennen lässt.

Weiterlesen... »


21.11.2016

Zugegeben: Referrer Spam ist ein Google Analytics Problem. Dort finden sich in vielen ungefilterten Datenansichten solche künstlich generierten Einträge in der Liste der verweisenden Websites.

Referrer Spam in Google Analytics

Ebenso hinterlassen Spammer automatisiert erzeugte Spuren in anderen Reports zur Webanalyse: Event-Spam, Page-Spam... und sogar im Language Report werden Daten erzeugt, die im weitesten Sinne der "Bewerbung" zweifelhafter Angebote im Web dienen sollen. Wenngleich es zahlreiche Möglichkeiten zur Behandlung dieses Leids gibt, bleibt Analytics-Spam ein Ärgernis.

Weiterlesen... »


23.08.2016

Seit fast genau 4 Jahren kenne und nutze ich den Google Tag Manager (GTM) für verschiedenste Aufgaben; hauptsächlich auf Websites von Agenturkunden. In den letzten Monaten ist mir dabei (zu meiner Freude) aufgefallen, dass man den GTM verstärkt bereits implementiert findet, statt zuerst von A wie Analytics bis Z wie Zauberei den ganzen Evangelisierungsschmus runterleiern zu müssen.

Mehr (unterforderte) Implementierungen in KMUs

Zugegeben: Die meisten Implementierungen, die mir dabei unterkommen, sind simpel und tun selten mehr, als einen Analytics-Code auszuspielen; der dataLayer ist i. d. R. ungenutzt und das Potential nicht mal da angekratzt, wo es nicht nur technisch möglich, sondern aus der Businessperspektive wirklich erforderlich wäre. Trotzdem scheint die "gefühlte Menge" der Installationen in B2B- und B2C-Websites kleiner Unternehmen, Nischen-Shops und den anderen eher "kleineren Kandidaten", die unser Agenturgeschäft prägen, durchaus angestiegen zu sein.

Weiterlesen... »


14.06.2016

Seit gestern war meine Website einige Stunden bis gerade eben offline. Untypisch. Das ist zwar immer ärgerlich - aber besonders dann, wenn man in einem Shared Hosting Paket unterwegs ist und daher eigentlich kaum etwas tun kann, um das Problem selbst zu beseitigen.

Kontakt bei meinem Lieblingshoster 2 Minus 2 ergab dann, dass auf deren Seite alles OK ist. Das war auch zu vermuten, weil andere Sites, die im gleichen Paket, aber nicht über Cloudflare laufen, keine Probleme gezeigt haben. Nach einigem Ping-Pong zwischen Hoster, Cloudflare und mir per Mail ergab sich dann eher nebenbei die Lösung: Meine IP-Adresse hatte sich von gestern auf heute geändert. Neuer Server, Umverteilung bei 1&1, was auch immer... man erfährt es eben leider nicht und es ist auch auf Nachfrage dort nicht nachvollziehbar, ob ein Umzug stattgefunden hat oder nicht. Klingt unlogisch? Ist es auch. Egal.

Weiterlesen... »


22.12.2015

Das hier im Blog gezeigte Verfahren zum Bot-Tracking nutzt die gewohnten Reports aus Google Analytics, um mehr über Häufigkeit und Tiefe der Besuche von Bots zu erfahren. Um herauszufinden, wie zuverlässig diese Methode ist, habe ich - konzentriert auf Besuche des Googlebot - exemplarische Daten einer Website von zehn Tagen aus Analytics mit den passenden Serverlogfiles verglichen. Das Ergebnis: Es besteht weniger als 2% Abweichung zwischen den Ergebnissen.

Weiterlesen... »


23.11.2015

Dieser Beitrag ist Teil einer Artikelserie zum Measurement Protocol. Diesmal geht es wieder um den Kern von Analytics: Echte Webanalyse. Nur schauen wir nicht (nur) auf reale Besucher, sondern primär auf Bots, die sich naturgemäß sonst aus der Sache gern heraushalten. Statt Spambots auszuschließen, laden wir diesmal also Crawler ein, sich von uns über die Schulter schauen zu lassen.

Weiterlesen... »


Dieser Beitrag ist Teil einer Artikelserie zum Measurement Protocol. Der Artikel zeigt auf, wie man bereits in der Webanalyse vermerkte Transaktionen sauber rückgängig macht und was genau dabei mit den Daten in Analytics passiert.

Weiterlesen... »


Dieser Beitrag ist Teil einer Artikelserie zum Measurement Protocol. Jetzt geht es ans Eingemachte: Endlich empfängt Google Analytics mehr als nur Testdaten. Wir werden WLAN-Logins, Ladevorgänge, Anrufe und jede Menge anderen Kram in der Webanalyse versenken 😉

Weiterlesen... »


Dieser Beitrag ist Teil einer Artikelserie zum Measurement Protocol. Nach einigen Anwendungsmöglichkeiten und Denkanstößen folgt ein technischer Praxisteil mit Hinweisen zum Einsatz.

Weiterlesen... »


Der Titel lässt es vermuten: Dieser Beitrag ist der erste aus einer Serie von Artikeln rund um das Measurement Protocol. Im ersten Teil geht es um Zweck, Einsatzmöglichkeiten und eine Anleitung für erste Gehversuche.

Alle Teile dieser Serie

Weiterlesen... »


09.10.2015

In den Einstellungen einer Datenansicht in Google Analytics findet sich schon seit einiger Zeit die Option "Alle Treffer von bekannten Bots und Spidern ausschließen". Ich muss zugeben, diese recht lange ignoriert zu haben. Vielleicht weil mich absolute Zahlen wenig interessieren und ich i. d. R. auf ein Rauschen ohne große Ausreißer hoffe. Also den idealen "Messfehler": Konstant und bei Betrachtung von Tendenzen und Kennzahlen im Kontext eher irrelevant. Aber stimmt das eigentlich?

Den letzten Schubser habe ich von Michael Janssen bekommen, als er sich mit den gängigen Mythen rund um Referral Spam auseinandergesetzt hat. Denn auch in diesem Zusammenhang liest man gern, dass die Option zum Ausschluss von Bots und Spidern hier helfen soll. Wirklich? Ich habe da eher auf "Nein" getippt und wollte es genauer wissen

Weiterlesen... »


15.09.2015

Schon am Titel wird man es merken können: Dieser Beitrag verfolgt keinerlei Rankingziele. Er will nur meckern. Es gibt allerdings im folgenden Extremfall auch reichlich Anlass dazu, denn er zeigt, wie krank manche Websites sind. Nicht, dass es ein besonders trafficstarkes Beispiel wäre... aber es ist dafür sagenhaft miserabel.

Der Anfang allen Übels

Alles fing mit einer “ganz normalen” Websuche an. Ich habe die folgende Seite im Zuge einer Recherche in einem sehr engen und vergleichsweise "unspannenden" Keywordbereich gefunden, so dass zu Googles Entschuldigung gesagt sei, dass es ganz einfach auch nur wenig passende Inhalte gibt. Außerdem war der Inhalt selbst gar nicht so übel. Gelandet bin ich jedenfalls bei forums.codescript.in und da auf einer Seite mit dem schönen Namen how-to-fetch-top-pages-and-top-query-data-from-google-webmaster-tool-by-usi-2543.html. Warum ich nicht einfach einen Link setze? Weil ich das nicht mal mit nofollow entwertet auf einer verschlüsselten Seite machen würde, die hinter einem Login auf einem Server ohne Internetverbindung vor allen Suchmaschinen dieser Welt versteckt wäre. Deshalb!

Dabei fing alles so "harmlos" an: Schon nach 3 Minuten war die Seite augenscheinlich erstmals mit dem Laden fertig. Für die, die es wissen wollen: DOMContentLoaded nach 31,15 Sekunden. Also nichts wirklich Ungewöhnliches. Leider.
Weiterlesen... »


© 2001 - 2017