Markus Baersch

Software · Beratung · Lösungen

10.09.2015

Ähnlich wertvoll wie das Stipendium aus dem letzten Jahr für den glücklichen Gewinner sollte das in diesem Jahr angebotene Coaching von ConversionBoosting ausfallen.

Betreiber eines Onlineshops oder sonstigem Business im Web und ausreichendem Budget (mind. 10.000,– / Monat für Marketing) können sich in diesem Jahr bewerben, um umfangreiche Unterstützung über drei Monate zu erhalten.

Wer sich angesprochen fühlt, sollte sich beeilen, denn die Anmeldefrist endet schon am 30.09. Weitere Infos zum Coaching und Anmeldung.


29.03.2015

Am 21. April ist #MobileDay. Wer bis dahin nicht (endlich) seine Hausaufgaben gemacht und seine Website auf Mobilfreundlichkeit abgeklopft hat, wird bei Suchanfragen, die auf Mobilgeräten stattfinden (Wachstum: schnell und unaufhaltsam), nicht mehr gefunden, weil die „mobilen Rankings“ deutlich abfallen werden.

Eine Überraschung? Nein.

Nach all dem freundlichen „Du, mobile ist echt wichtig, Du – mach da doch mal gelegentlich was, ja?“, das seit 2010 immer wiederholt, aber meistenteils unbeachtet blieb, hat uns Google zuerst in seit Mitte 2014 rasant steigender Schlagzahl massenweise Infos und Werkzeuge an die Hand gegeben, dann per Webmaster Tools tonnenweise Warnungen per Mail versendet und schlussendlich mit dem konkreten Termin 21.4.2015 die Pistole auf die Brust gesetzt. Wer jetzt nicht aufwacht und die bestehenden Probleme aller Besucher mit Smartphones weiterhin missachtet, wird dort konsequenterweise bald auch nicht mehr angezeigt; darüber habe ich bereits an anderer Stelle geschrieben.

Der Mai ist gekommen – die Rankings schlagen aus?

Spätestens Anfang Mai wird man mit dem Ausrollen nach eigenen Aussagen bei Google fertig sein. Mobile Rankingverluste drohen. Das muss kein Problem sein… jedenfalls nicht sofort: Wer jetzt noch keinen nennenswerten Anteil an organischen Besuchern per Smartphone verzeichnet, mag sich auch noch Zeit lassen dürfen. Alle anderen müssen aber handeln, wenn der Anteil nicht rapide sinken soll.

Vorher noch fertig werden? Möglich…

Aus der Erfahrung von inzwischen über 25 (teilweise zugegebenermaßen auch nur „notdürftig“) in den letzten Monaten auf Responsive Design umgestellter Websites, die zumindest erst einmal den Mobilfreundlichkeitstest bei Google mit „grün“ bestehen, kann ich behaupten, dass es für viele, aber sicher nicht alle Websites i. d. R. eine praktikable, wenngleich sicher nicht perfekte Lösung gibt, deren Vorbereitungs- und Umsetzungsaufwand in Stunden und nicht in Tagen berechnet werden kann. Jedenfalls bis uns auch Mobile Page Speed und der Rest einholt und der Erhalt der Rankings mehr erfordert als nur Änderungen am Design oder ein paar Templates.

Ja oder Nein: Google Mobile Friendly Test

Wer nicht 100% aller Seiten umstellen kann, hat außerdem die Option, sich den wichtigsten (Traffic bringenden) Inhalten zu widmen – das sind oft nur die Startseite und eine Handvoll weiterer Seiten, die i. d. R. auch alle mit dem gleichen Template erstellt und dem gleichen Design versehen werden. Denn das Thema „Mobilfreundlichkeit“ ist bei Google (aktuell) nicht nur an eine überschaubare Anzahl von Anforderungen geknüpft, sondern wird auch seitenweise beachtet, nicht „domainweit“.

Google hat bzgl. einer bevorzugten Methode selbst klargestellt, dass Responsive Design keine Vorteile ggü. anderen Lösungen haben wird. So ist also selbst eine separate m.meinedomain.de mit vollkommen unabhängigen Inhalten für Mobilgeräte ein ebenso probater Notbehelf wie die keinerlei Anpassungen am eigenen System (abgesehen von ein paar DNS-Einstellungen) erfordernde dynamische Generierung mobiler Fassungen durch das System eines Dienstleisters, von denen es inzwischen einige gibt – als Service oder „selbstgehostet“.

… aber mitunter nicht sehr wahrscheinlich

Weil der Termin erst Ende Februar bekannt geworden ist, kann gerade die Umstellung größerer Websites – oder kleinerer, dafür komplexer Webauftritte – kaum rechtzeitig fertig werden, wenn man erst im März oder später startet. Zu vollgestopft sind die IT-Roadmaps des Mittelstands. Aus beharrlicher Ignoranz plötzlich agile und effiziente Aktivität an den Tag zu legen oder einen Plan B wie die „Mobilmachung“ der wichtigsten Seiten zu schmieden, beschließen und auch noch umzusetzen, bis der 21. April auf dem Kalender steht, ist selten noch drin.

Unterschiede gibt es schon heute

Es bleibt spannend zu beobachten, wie sich die Unterschiede zwischen Desktop- und mobilen Rankings weiter verändern werden… und bei wem die Ausschläge nach unten – oder durch Verdrängung des unvorbereiteten Wettbewerbs ja vielleicht auch nach oben? – besonders groß ausfallen. Ab dem 22. April wird es von den SEO-Toolanbietern dazu vermutlich reichlich Daten geben. Wer nicht bis dahin warten will, kann sich beim SISTRIX Smartphone-Sichtbarkeitsindex informieren, inwiefern sich schon auf Basis der Daten vom Februar Unterschiede feststellen lassen.

STSTRIX Smartphone Sichtbarkeit

Da hier „nur noch“ die Aktualisierung der Datenbasis erforderlich ist, sollte sich auch ein zweiter und dritter Besuch lohnen, wenn erst einmal der #MobileDay gekommen ist 😉

Nächster Halt: Mobile PageSpeed

Damit ist die Reise natürlich nicht zu Ende. Ein so digitaler Faktor wie „mobilfreundlich“ oder „mobilmist“, wie er derzeit nicht nur in Form des oben angesprochenen Tests implementiert ist, sondern in gleicher Form auch in den Webmaster Tools lebt – und vermutlich aktuell im angekündigten Algoupdate, das uns so nett nebst konkretem Termin in Aussicht gestellt wurde -, ist noch nicht das, was wir von Google gewohnt sind.

Die Tatsache, dass ein Klick zum Recheck einer in den Problemen genannten Seiten des Berichts zur „Benutzerfreundlichkeit auf Mobilgeräten“ in den WMT früher nicht zu dieser „hopp oder top“-Evaluierung, sondern zu den mobilen PageSpeed Insights geführt hat, wo man weitaus strenger mit den Probanden verfährt, zeugt von einer gewissen Rücksicht seitens Google…

Streng: PageSpeed Insights

…aber zeigt auch in eine klare Richtung. Genau wie die in der Branche nicht unbemerkt gebliebenen Tests mit als „Slow“ gekennzeichneten Seiten.

Der „Mobile Split“ kommt

Es ist bereits angekündigt, dass Google in Zukunft die Unterschiede zwischen Desktop, Tablet und Smartphone ernster nehmen will. Man wird dazu einen eigenen, vom „Desktop-Index“ getrennten Index für mobile Suchergebnisse betreiben… und mittelfristig bestimmt auch einen separaten Satz an Rankingfaktoren und deren Gewichtung, um sensibler mit den sehr unterschiedlich ausfallenden Nutzersignalen aus verschiedenen Gerätewelten umgehen zu können. Die gleiche Maßnahme wäre selbstredend auch für Tablets denkbar, für Wearables… oder was auch immer übermorgen das dominierende Gerät sein wird. Desktop und Laptop aber ganz sicher nicht. Insofern ist dieser Schritt nicht nur logisch, sondern auch (überlebens-) notwendig für Google. Und deren Wettbewerber. Genau wie die entsprechende Reaktion aller Websitebetreiber, die sich um organischen Traffic scheren.

Damit: Happy Mobilmaching 😉


10.11.2014

Gleich vorab: Ich bin kein Gegener von SSL. Überhaupt nicht. Aber es scheint mir, als würden derzeit zahlreiche Websites aus völlig falschen Gründen auf den SSL-Zug aufspringen… um sich dabei nicht selten derb selbst ins Knie zu schießen. Daher sollen hier nicht die zahlreichen Argumente für einen Umstieg auf https statt http aufgezählt werden, die ich gar nicht anzweifeln will, sondern ein paar m. E. wichtige Punkte zur Sprache kommen, die vor einer Umstellung bedacht, abgewägt und vor allem vorher geprüft werden sollten. Und wenn es nur ein paar böse Überraschungen vermeiden hilft 😉

Umstellung aus den falschen Gründen?

Der Grund für das stark angestiegene Interesse liegt oft in der Hoffnung auf bessere Rankings bei Google. Wie diese Hoffnung aufgekommen ist, soll hier nicht interessieren (und ist den meisten der wenigen Leser dieses Blogs ohnehin bestens bekannt), aber es gibt m. E. für 99,99% der Webmaster, die sich gerade aus SEO-Gründen mit SSL befassen, mindestens 100 andere Baustellen, an denen mit dem gleichen Aufwand viel mehr Effekt zu erzielen ist, wenn es um Rankings geht.

Nur weil das Thema gerade durch die SEO-Blogs geht und die großen Hoster ihre Kunden zusätzlich mit Dingen wie „Umstellung mit wenigen Klicks“ – natürlich erst einmal auch noch kostenlos – locken, ist das noch lange kein Anlass zum Handeln, ohne sich zuvor über Gegenargumente bzw. potentielle Probleme Gedanken gemacht zu haben.

SSL Werbung bei 1und1
Beispiel 1&1: „Wenige Klicks“. Jaja. Und dann geht der Spaß los…

Viele der Hindernisse sind technischer Natur. Das ist nicht für jeden Webmaster gleich abschreckend, bedeutet aber auf jeden Fall, dass diese gelöst werden müssen, wenn die Site nach einer Umstellung noch genau so funktionieren soll wie vorher. Hier sind ein paar Denkanstöße:

Die „Miesmacherliste“ zur SSL-Umstellung

  1. Anpassung der Inhalte: Alle Verweise auf Bilder, Videos, Ressourcen in iFrames (bis hin zur eingebundenen Werbung etc.) müssen ggf. angepasst werden, wenn diese direkt auf eine http-Variante auf der eigenen Domain zugreifen. Oder eben auch auf einer anderen Domain… hoffentlich gibt es dort dann auch SSL. Ohne eine Anpassung drohen je nach Browser fehlende Bilder bzw. Ressourcen (was durchaus auch die Bedienbarkeit der Site beeinträchtigen kann!) oder zumindest unterschiedlich aufdringliche Warnhinweise beim Verschlüsselungssymbol bzw. sogar Warndialoge. Wer das in seinem Browser nach der Umstellung nicht sieht, mag sich sicher fühlen… ist es aber nicht! Beispiele gefällig?
    SSL Probleme

    Die nachträgliche Anpassung von Content ist also zwingend erforderlich, aber nicht immer einfach. Je nach Umfang mag sich der Aufwand in Grenzen halten oder ist vielleicht mit ein wenig „Suchen und Erstzen“ erledigt. Komplexere / umfangreichere Websites und deren Content Management Systeme erfordern hier aber deutlich mehr als nur den einen Klick, den man beim Hoster zu erledigen hat! Wo Inhalte in einer Datenbank umgestellt werden müssen, braucht es nicht nur die erforderlichen Möglichkeiten zum Zugriff und entsprechendes Spezialwissen – es muss auch Backups und vernünftige Tests vor einer Umstellung im Livebetrieb geben. Hier steckt folgerichtig oft der größte Brocken an Arbeit. Wer diese erst beim Erwachen nach der Umstellung angeht, wird es mit Hektik kaum sorgfältig genug hinbekommen, auf Backups verzichten und sich ernsthafte Probleme einhandeln. Externe Kosten sind hier für viele Websitebetreiber nicht nur unvermeidbar, sondern im Vorfeld auch schlecht anzuschätzen.
  2. Ressourcen: Wie sieht es mit im CSS referenzierten Hintergrundbildern aus… oder @import-Anweisungen? Wenn CSS kein Problem ist, folgen spätestens bei internen – und vor allem externen – JavaScript-Dateien schnell ernsthafte Hürden für Webmaster, die nicht zufällig die entsprechenden Kenntnisse zur Analyse und Korrektur selbst mitbringen. Siehe oben: weitere Kosten drohen.
  3. Content Management System: Idealerweise geht alles einfach glatt. Das wird bei gängigen Systemen auch der Fall sein und höchstens ein paar Anpassungen in der Konfiguration erfordern, die sich sogar für „Laienadmins“ ergoogeln lassen. Bei alten Systemen oder Exoten (ich betreibe mit meinem Blog selbst so ein Urvieh) sind Verweise im System inkl. „http://“ statt nur „//“ aber mitunter „sehr sehr hart“ codiert. Kann man dann wirklich alles ändern (wieder: Die Kenntnisse und den Zugriff vorausgesetzt)? Was ist denn, wenn die Problemstellen nicht im Quelltext vorliegen, sondern in einer .NET oder ISAPI DLL oder noch gruseligeren Dingen auf dem Server vorliegen? Und überhaupt: Was ist bei einer Anpassung in Eigenregie, wenn es dann doch irgendwann Updates des Systems gibt?
  4. Templates: Je nach System kann die erforderliche Anpassung in den Themes bzw. Templates des CMS selbst HTML-feste Webmaster überfordern. PHP, Smarty oder gar proprietäre Lösungen mögen für „Nichtkenner“ zu kryptisch für Selbsthife ausfallen. Schwupps, wieder Geld an den nächsten Profi ausgegeben, der das passende Spezialwissen mitbringt.
  5. Fremdcode / Erweiterungen: Weil fast alle Systeme mit AddOns, PlugIns, Modulen oder unter anderen abstrusen Bezeichnungen erweiterbar sind, ist das einen eigenen Punkt auf der Checkliste wert. Denn diese stammen oft aus fremder Feder und entziehen sich vielleicht sogar einer Analyse (und ggf. erforderlicher Korrektur). Auf jeden Fall erfordern solche Kandidaten einen Testlauf, der wieder mal Aufwand und / oder Kosten mit sich bringt.
  6. Rankings werden vermutlich nicht steigen: Alle vermuteten Rankingvorteile sind derzeit eher „hypothetisch“ und wie oben beschrieben gibt es meistens Besseres zu tun. Selbst John Mu sagt, dass er sich den ganzen Kram selbst nicht antun würde… wenn das primäre Ziel nicht Sicherheit ist, sondern damit bessere Rankings erreicht werden sollen.
  7. Rankings können sogar leiden: Es sind sogar Rankingverluste statt einer Steigerung möglich – oder zumindest unnötige Probleme für Google & Co. Diese können durch Doubletten entstehen, die auf fehlende oder falsche Weiterleitungen auf die https-Variante zurückzuführen sind. Mit korrekten Weiterleitungen bleibt immer noch zu bedenken, dass eingehende Links i. d. R. nicht auf die https-Variante gehen. Man mag fragen: Wie viel geht ggf. durch die 301-Weiterleitungen auf https-Fassungen verloren und macht das zunichte, was mit dem angeblichen Rankingboost(chen) gewonnen wird? Auch steckt ein gewisses Risiko in vergessenen „Kleinigkeiten“ wie Weiterleitungen auf nicht-SSL-Varianten in der eigenen .htaccess oder im System. Oder in auf einmal giftigen Canonicals mit http statt https. Und so weiter 😉
  8. Kosten des Zertifikats: Auch wenn in anderen Punkten schon reichlich Kosten angesprochen wurden, sind auch die Kosten einzurechnen, die das Zertifikat betreffen. Ein „ordentliches“ (AKA eigenes und vertrauenswürdiges) Zertifikat kostet Geld. Was ist, wenn billige Wildcard-Zertifikate oder kostenlose Zertifikate von CloudFlare & Co. übermorgen einen Rankingnachteil statt eines Rankingboosts bedeuten? Vielleicht sind Billigzertifikate die Artikelverzeichnisse von morgen… wer weiß das schon?
  9. Nicht jede Site braucht SSL: Oft ist die Umstellung schlichtweg unnötig. Auf vielen Sites gibt es streng genommen außer dem Besucherverhalten, das ohnehin über zahlreiche Systeme aufgezeichnet wird (s.u.) und der IP nichts an potentiell schützenswerten Informationen, die bei der Benutzung der Site anfallen und auf dem Transportweg gefährdet sind. Selbst in Shops ist jenseits des Checkouts – heute noch – ein Verzicht auf SSL nicht unüblich. Außerdem werden Informationen wie Verhalten und IP durch SSL nicht wirklich „sicherer“, solange diese durch eingebundene „Mithörer“ wie SocialMedia-Plugins, Webanalysesysteme u. Ä. gespeichert und ggf. vom Systemanbieter oder auch Dritten aktiv genutzt werden.
  10. Falsche Sicherheit: Wer im einem Shop, Portal oder der Landingpage mit neugierigem Formular die Eingaben seiner Besucher und deren Übertragung zum eigenen Server schützen will, ist mit SSL gut beraten. Spätestens seit Firesheep ist das auch beim „informierten Verbraucher“ angekommen. Außerdem mag sich der Hinweis auf verschlüsselte Übertragung sogar positiv auf die Abschlussrate auswirken (muss es aber nicht unbedingt, nur weil das in CaseStudies so steht!). Dass mit SSL aber die gespeicherten Daten noch lange nicht sicher sind, scheint nicht allen klar zu sein und so sind oft dahinter immer noch hochgradig unsichere Backendsysteme im Einsatz. So wird SSL zum Tropfen auf den heißen Stein und verhindert in keiner Weise automatisierte oder gar gezielte Versuche, an die sensiblen Daten zu gelangen. Wer seinen Shop wirklich sicher machen will, darf nicht beim SSL-Zertifikat aufhören, sondern muss sich um Verringerung der Angriffsfläche des Servers sowie Aktualität und Absicherung des Backends einschließlich der Datenbank kümmern.
  11. Performance: PageSpeed ist längst ein „akzeptierter“ Rankingfaktor. Spätestens auf dem Umweg der Nutzersignale wird sich heute jeder SEO Gedanken um die Optimierung von Ladezeiten machen. Selbst wenn es für Suchmaschinen egal wäre: Besucher nehmen je nach Site selbst geringe Veränderungen wahr, was an veränderten Konversionsraten sogar in Experimenten nachweisbar ist. Durch SSL wird die Ladezeit aber messbar größer. Dazu gibt es hier einen kleinen „Videobeweis“ 😉

SSL vs. Non-SSL im Ladezeitenvergleich

Ich habe mir den Spaß gegönnt und anhand meiner eigenen und sehr überschaubaren Website die Umstellung auf SSL durchgespielt. Da ich dies aber hauptsächlich deshalb angegangen bin, um Erfahrungen für größere Projekte zu sammeln und meine Website m. E. kein SSL braucht, habe ich diese Variante wieder deaktiviert. Nicht zuletzt wegen der unvermeidlichen Einbußen in den Ladezeiten.

Das „Test-Setup“

Beim Selbsversuch sind mir auch dank meines Blogs ein paar der o. a. eher exotischen Hindernisse in den Sinn (und in den Weg) gekommen. Zumindest für den Rest der Domain war die Umstellung aber mit vertretbarem Aufwand in ein paar Stunden erledigt. Das Zertifikat stammt von CloudFlare; ist also nicht auf meinem eigenen Server installiert. Das dürfte aber allein schon dank der Tatsache, dass CloudFlare als CDN genutzt wird und der Content so aus der gleichen Quelle wie das Zertifikat stammt, kaum störend ins Gewicht fallen.

Ergebnisse

Tests habe ich mit verschiedenen Services wie pingdom.com, pagespeed.de, gtmetrix.com und ein paar anderen gemacht und (bedingt durch die unterschiedlichen Standorte) eine relativ breite Streuung in den Ladezeiten gesehen. In allen Fällen aber waren die https-Fassungen der Seiten (ich habe nicht nur die Startseite getestet, sondern auch „ressourcenreichere“ Inhalte) langsamer als die Versionen mit http. Mal mehr, mal weniger – aber stets langsamer.

Natürlich kann man diesen „Test“ mit nur einem Kandidaten an einem einzelnen Tag und mit zufällig (bzw. vom jeweiligen Tool abhängigen) Rahmenbedinungen belächeln bzw. zumindest zurecht dessen Signifikanz anzweifeln. Totzdem finde ich das folgende Video der Ergebnisse von WebPageTest.org sehr anschaulich. Deshalb mag ich diese Präsentationsform auch viel lieber als alle Diagramme 😉 Datanerds mögen sich nun aber Tabellen und Wasserfalldiagramme wünschen – z. B. hier finden sich welche.

Um zu zeigen, dass die reinen Zahlen egal sind, im Ergebnis aber mit SSL stets langsamer ist als ohne, habe ich den Test dort einfach noch einmal wiederholt und dabei beide Varianten zweimal eingetragen, so dass vier – recht unterschiedliche – Ladezeiten herauskommen. Es bleibt aber dabei, dass https immer langsamer ist als http.

Fazit? Empfehlung?

Eine Umstellung ist angesichts dieser Punkte für viele Betreiber möglicherweise wirtschaftlich betrachtet tatsächlich unsinnig. Oder zumindest unnötig. Der Eingriff geht jedenfalls im Regelfall sehr viel tiefer, als es zunächst klingen mag. Daher sollte man sich erstens aus gutem Grund (SEO als Hauptargument lasse ich nach aktuellem Stand nicht gelten) und zweitens entsprechend vorbereitet damit auseinandersetzen. Zu einer guten Vorbereitung ist umfängliches testen unabdingbar; vorher und nachher. Wer noch einen Plan B bei sich zeigenden Einbußen in Sichtbarkeit und Traffic zur Hand hat, sollte sich aber nicht aufhalten lassen. Viel Spaß 😉


19.09.2014

Normalerweise mag ich solche individuellen Erfahrungsberichte mit einem Shop o. Ä. nicht so gern… zu schnell landet man damit in der „Meckerecke“. Was ich aber gestern bei / mit IKEA erlebt habe, zeigt vor allem beim Shop so viele Dinge auf, die man offensichtlich besser machen kann (und sollte), dass es ich mich nach 5 Jahren dann doch noch mal dazu hinreißen lasse.

Vorab: Ja, IKEA ist trotzdem cool. Und innovativ: Tolle elektronische Blätterkataloge, aktuell sogar gut funktionierende virale Kampagnen, AR im eigenen Wohnzimmer beim Möbelrücken per App und und und. Umso trauriger ist es, dass es im Onlineshop (alles andere, was später noch folgt, ist wirklich nur Kleinkram) so viele Stellen gibt, an denen potentiell nicht nur ich „hängen bleibe“, sondern vermutlich auch eine ganze Menge anderer Besucher in ähnlichen Situationen und mit vergleichbaren Bedürfnissen.

Weiterlesen… »


27.01.2014

Ich geb’s ja zu. Das Layout meiner eigenen Website ist in die Jahre gekommen. Die feste Breite von 900px war nicht mehr wirklich nett anzusehen, denn auf dem Desktop ist das viel zu mickrig und auf dem Smartphone zoomt man sich den Wolf. Da auch mir die Zeit fehlt, sich ernsthaft mit einem Redesign der mehr oder weniger „privaten“ Website zu befassen und weil auch noch Blog und Site auf unterschiedlichen Systemen basieren, habe ich mir nun zumindest die Mühe gemacht, das Standardlayout ein gutes Stück zu verbreitern und dynamisch für Auflösungen bis 1024 und in einer weiteren Stufe für alles darunter anzupassen, ohne dass ich dazu an die individuellen Inhalte einzelner Seiten muss, um die dort lauernden inline-Formatierungen zu eliminieren. „Responsive Light“ will ich es mal nennen 😉

Wer hier denn überhaupt (im Zeitalter langsam aussterbender Blogs – und vor allem Blogbeiträge) gelegentlich noch mitliest, darf mir gern mitteilen, wenn es Probleme mit der Darstellung des Blogs oder der übrigen Site auf bestimmten Geräten, in bestimmten Browsern oder sonstwo geben sollte. Danke auch!


10.06.2010

Also, das ist schon irgendwie dreist: Da verschlimmbessert Google das Startseitendesign durch 30″-füllende ätzende Hintergrundbilder und eröffnet nur demjenigen einen Weg zurück zum alten Design, welcher sich vermittels Google Konto anmeldet und wieder ein weißes Hintergrundbild als „Tipp der Redaktion“ übernimmt.

Hintergrundbild bei Google
Irgendwie übel riechender „Login-Bait“ bei Google: Willste´s wieder schön? Meld! Dich! An!

Davon abgesehen, dass ich schon jetzt eine beachtliche Menge an Leuten darüber aufgeregt haben mag, wird diese Aktion sicher zu einer deutlichen „Optimierung“ der Rate bei der Suche angemeldeter Benutzer bedeuten. Oder anders: Statt von Vorteilen der Anmeldung zu überzeugen, werden nun offenbar gezielt künstliche Nachteile für Nichtanmeldung geschaffen, um den „Anreiz“ zu erhöhen. Der kleine kennzahlengetriebene Manager in mir zieht vielleicht noch heimlich den Hut vor diesem Schachzug… der Rest findet das aber definitv… naja: übel. ebel. evel. evil. Jedenfalls fast. Zumindest für heute visualisiere ich Google wohl eher als ledergeschürzte und peitschenschwingende Werbeclip-Domina, die mir ein eindringliches „MELD!!!  DICH!!!  AN!!!“ befiehlt. Irgendwie unschön.  

Aber was soll das Gemecker? Freuen wir uns an den schönen bunten Bildern! Bing hat das ja schließlich auch. Und schneller ist nun alles auch dank Caffeine. Schneller im Index, schneller gefunden, schneller vollgespammt. Schneller alles eben. Wen stört es da schon, dass es schei..e aussieht?


05.10.2009

So haben wir´s gern. Jetzt wird in AdWords also für Content-Kampagnen auch nachvollziehbar gemessen, wenn jemand etwas kauft und vorher mal möglicherweise meine Anzeige gesehen hat. Möglichst mehrfach. Also (zur Übersetzung der Übreschrift): Wenn Du meine Anzeige nur oft genug siehst, kaufst Du auch irgendwann bei mir, nachdem Du die Adresse des Shops ja oft genug gelesen hast. In allen Erfolgsgeschichten aus dem Content-Werbenetzwerk und anderswo wird man (Google) ja auch nicht müde zu erwähnen, dass neben Brandingeffekten und den direkt auf einen Klick zurückführbaren Conversions vor allem spätere Verkäufe durch die möglichst mehrfache Ansicht von Anzeigen via Werbenetzwerkt begünstigt werden. Mehrere Kontakte Werbemitteln wie Content- oder Suchanzeigen vor dem Kauf sind das immer wieder in´s Feld geführte Argument, dass nun z. B. in der Kampagnenübersicht bei AdWords in Form der „View-Through Conversions“ nachvollzogen werden kann.

Dass da seit der erst gerade erfolgten Einführung vielleicht auch bei großen Content-Kampagnen noch nichts steht, muss (noch) nicht beinruhigen, denn die Conversions haben ja noch 30 Tage Zeit, um zu geschehen ;). Vor allem derjenige, der auch in den organischen Suchergebnissen zu seinen gut verkaufenden Keywords prima positioniert ist und nebenbei sinnvollerweise dennoch AdWords-Kampagnen betreibt, um dem anzeigeaffinen Googlenutzer eine Chance zum Klick zu bieten, wird demnächst sicher die ersten „VT-Conversions“ zu sehen bekommen. Denn mal ehrlich: Es ist einfach „ziemlich wahrscheinlich“, dass es zu seinem Keyword auch die eine oder andere gut platzierte oder geschickt verlinkte Seite geben wird, auf der die eigene Anzeige via AdSense durchaus Chancen zur Einblendung hat. Ob diese dort auch wirklich wahrgenommen wird, spielt bei der Messung schlussendlich keine Rolle, sondern dient so oder so dazu, den Wert des Content-Werbenetzwerks auch „optisch“ zu verbessern. Dass eine Kaufentscheidung durch mehrere Werbekontakte messbar begünstigt wird, will ja schließlich niemand anzweifeln und es gibt genug Studien dazu. Knackpunkt ist aber die Frage, ob die hier „gemessenen“ Kontakte zum Werbemittel auch wirklich stattgefunden haben. Wie oft ist Werbung so schlecht (freilich nur aus der Perspektive des Publishers gesehen) platziert, dass der Besucher der Seite diese selbst dann nicht wahrnehmen kann, wenn er grundsätzlich gar kein Problem mit Werbung hat. Die Zahlen der View-Through Conversions mögen dazu dienen können, sich besser beim Chef für die Ausgaben schlecht geführter Content-Kampagnen zu rechtfertigen… der wirkliche Effekt bei der Kaufentscheidung der erfolgten Einblendungen vor der Conversion ohne Anzeigen-Klick darf in diesem speziellen Fall aber durchaus angezweifelt werden. Praktischerweise kann diese „neue Conversionrate“ auch angesichts der Tatsache, dass es unendlich viele Abstufungen von „Anzeigensichtbarkeit und -wahrnehmmung“ im bunten Content-Werbenetzwerk gibt, wohl auch nie wirklich mit brauchbaren Zahlen untermauert oder widerlegt werden. Zumindest nicht, bevor keine Mouse- oder (noch besser:) EyeTracking-Daten massenhaft und automatisiert an das Google Conversion-Tracking-System geliefert werden, weil jeder Browser dann irgendwann standardmäßig willens und in der Lage ist, diese zu erheben und Benutzer sich massenhaft dazu (z. B. per Unwissenheit) entscheiden, diese Trackingsystemen zur Verfügung zu stellen. Grusel!


01.06.2009

Was wäre, wenn das Medium „E-Mail“ erst heute erfunden würde? Die Antwort von Google auf diese Frage lautet „Google Wave„. Mit Waves verschmilzen nicht nur Mails und Instant Messages zu einem einzigen Medium, sondern es kommen noch einige andere und wirklich coole Dinge dazu, die eigentlich keinen Zweifel daran lassen, dass Waves die besseren Träger moderner und elektronischer n-Wege Kommunikation sind. Da Waves aber eine Idee von Google sind, wird es wie immer für jeden eine persönliche Liste der Dinge geben, die für oder gegen die Benutzung von Google Wave bzw. eben der „Waves“ als Informationsträger im Allgemeinen sprechen. Derzeit gibt es bei Google Wave nur ein interessantes Video und ein paar ebenso interessante Links und meine kleine Liste stützt sich ausschließlich auf das, was man anhand der Präsentation und einem kurzen Überblick über die API-Infos mitbekommt. Für mich reicht es aber, mich auf die Benutzung von Waves zu freuen… zumindest in Fällen, in denen es sinnvoll erscheint und die entsprechenden Teilnehmer diese Einstellung teilen. Wer vor dem recht langen Video ein paar Anreize braucht…:

  1. Instant Messages und Mail in einem Paket, – vor allem ohne vorher entscheiden zu müssen, was daraus werden soll – ist ein geringer, aber dennoch nennenswerter Grund
  2. Dass man wahlweise eine Nachricht zeichenweise bei der Eingabe übertragen und fast in Echtzeit auf dem Zielrechner – oder den Zielrechnern – sehen kann, ist im Gegensatz zu den meisten anderen Messengern hingegen schon ein Riesenvorteil. Wie viel Zeit verbringt man bei diesem Medium mit der Ansicht der Nachricht „John Doe gibt eine Nachricht ein…„? Ich glaube daran, dass man auf diese Weise wirklich viel Zeit sparen kann und weitaus effizienter schriftlich kommuniziert als heute. Den Applaus kann ich hier jedenfalls gut verstehen… es ist cool.
  3. Mindestens ebenso cool ist die Fähigkeit von Waves, deren Entstehungsgeschichte per „Playback“ jederzeit nachzuvollziehen. Wer per nachträglicher CC-Überflutung einmal nachträglich in eine mehrfach zitierte Diskussion eingestiegen ist (wer nicht?), wird sich genau diese Funktion schon gewünscht haben. Und gerade deshalb, weil aus Waves sicher mal etwas ganz anderes werden kann, als bei der Erstanlage geplant war (wenn keine Ableger entstehen), ist die Playback-Funktion mein absoluter Liebling, weil sie ein echtes Bedürfnis abdeckt und nicht nur benutzt werden kann, weil es nun plötzlich möglich ist. Besonders praktisch ist diese Funktion neben Mails auch für Dokumente und Notizen, die gemeinsam mon mehreren Personen bearbeitet werden… aber den Punkt haben wir ja noch nicht 😉
  4. Die beeindruckenden Funktionen zur Bilderverwaltung  – Einfügen, Sharing, gemeinsames Kommentieren und Tagging etc. – gehört aus rein technischer Begeisterung in meine Liste, weil ich selbst auch heute kaum gebrauch von Bilderdiensten o. Ä. mache. Außerdem ließt jede Wave – und damit auch die Bilder – bei Google, wenn man keinen eigenen Server betreibt, also ist das schon gleich für viele Kritiker sicher ein unreflektierter Punkt auf der Sollseite.
  5. Gadgets und Extensions heißen die benutzergenerierten Erweiterungen am Client bzw. Server. Natürlich auch cool. Und natürlich auch wieder ein feiner Punkt, um jede Menge Vorbehalte und Sicherheitsbedenken zu schüren. Sicher sind die harmlosen Demos wie die Anbindung einer Wave und deren Bilder per API an ein Blog nett. Und so richtig cool wird diese Demo durch „kommentare 2.0“ 😉 Da der Content dann aber nicht bei mir liegt… aber lassen wir das!
  6. Die bereits existierenden Extensions wie den Spellchecker (Spelly?), der mich automatisch korrigiert, wenn er sich „sicher genug“ ist (uiuiui) oder sonst halt officelike „unterschlängelt“ sind schon ungemein praktisch und machen aus der Browserapp dank des Google Web Toolkit und viel Erfindergeist fast einen vollwertigen Desktopsoftware-Ersatz, wenn man es aus Sicht der Benutzerfreundlichkeit und -führung betrachtet So gesehen ist der Client allein schon irre genug, selbst wenn er nur ein „normales“ Mailprogramm wäre.
  7. Wer aber neben den zweifelsfrei praktischen Extensions auch „böse Robots“ auf dem verwendeten Wave-Server fürchtet und dort nicht nur „bloggy“, „searchy“ und „linky“, sondern vielleicht auch auch „spammy“, „sniffy“ und den guten alten „wurmy“ vermutet, wird sich vielleicht nach den ersten Erfolgsmeldungen der Unterwanderungsgemeinde zwar wieder auf die olle E-Mail besinnen – für mich sind die vorgestellten Extensions aber ein eches Differenzierungsmerkmal gegenüber anderen Lösungen.
  8. Die Extension „rosy“, welche in der Lage ist, neue Kommentare oder eingegebene Passagen in Waves direkt in eine Zielsprache zu übersetzen, um auch internationale Kommunikation in Form von Waves von Sprachbarrieren zu befreien, ist vielleicht in der Praxis nicht immer ganz überlebensfähig (man wird sehen), es ist aber auf jeden Fall ein echtes Highlight für internationale Kommunikation und einen eigenen Eintrag wert!
  9. Open Source! Extensions und Gadgets aus der Community werden den präsentierten Laborratten oder Ideen wie Anbindung von Twitter, Bugtracker, Sourcecodeverwaltungen & Co. sicher noch viele Dinge bescheren, an die man heute noch gar nicht denken mag. Dass Formulare von haus aus unterstützt werden, macht die Sache noch viel einfacher. Es wird also sicher jede Menge noch entwickelt, auf das man sich jetzt schon freuen kann und daher allein schon ist dieser Punkt auf der Liste gerechtfertigt. 
  10. „Open Source!“ meint auch, dass man nicht den Servern von Google vertrauen muss. Und gerade hier liegt – wenn auch weit unten auf der Liste – eine echte (wenngleich wahrscheinlich leider eher theoretische) Knallerchance, damit Exchange & Co. im Unternehmensumfeld so richtig in den Allerwertesten zu treten. Ein selbst betriebener Server scheitert sicher an weitaus weniger Policies, als es andere Google Tools derzeit reihenweise tun; Branding und Erweiterung durch eigene und firmenexklusive Extensions und Gadgets nicht ausgeschlossen. Wer also die Vorteile für sein eigenes Unternehmen erkennt und korrekt zu vermitteln weiß, der wird möglicherweise bald zumindest firmenweit viel moderner kommunizieren können, als er es derzeit betreibt. Echt jetzt!

Wer sich einen besseren eigenen Eindruck verschaffen will, kann das Video schauen und nach exakt einer Stunde und 14 Minuten getrost abbrechen, wenn er auf weiteren Applaus und ein paar Marginalien verzichten kann. Die Zeit sollte man lieber gleich mit Träumen von einer wellenförmigen schönen neuen Kommunikation verbringen. Aloha!


29.05.2009

Nun heißt das Ding also „Bing“. Microsofts neue Suchmaschine und (erstmal sicher „endgültiger“) Ersatz für die [MSN-]Live-Suche wird, nach allem was es zu Lesen und im unter bing.de hinter dem Button „Find out more“ verborgene Vorschauvideo zu sehen gibt, wohl mehr Usability für Suchmaschinenbenutzer mitbringen. Und natürlich viel intuitiver zu bedienen sein. Einfacher zum Ziel führen. Schneller sein. Mehr Spaß machen. Und so weiter. Zugegeben: Es sind ganz bestimmt auch einige Dinge dabei, die der eher erfahrene Webnutzer als sehr praktisch einstufen wird. Und es ist auch ein Schritt nach vorn für eine Suchmaschine, die offenbar ein wenig den Anschluss an die natürliche Evulution im eigenen Markt verpasst zu haben scheint. Denn: Vergleicht man die Ergebnislisten von Google (Yahoo dieses eine Mal ausnahmsweise nicht betrachtet) von … sagen wir mal: vor zwei Jahren und heute, so hat sich da schließlich auch einiges getan: Es ist mit

  • SearchWiki (den „eigenen“ Trefferlisten und Kommentaren) und Google Suggest (den Vorschlägen für Mehrwortsuchanfragen, die so manchen SEO derzeit zur Weißglut treiben) webzwonulliger
  • Je nach Suchanfrage mit passenden News, Blogposts, Bildern oder Videos (oder einer Mixtur) universalsearchiger in den Ergebnislisten
  • Merklichen Verbesserungen in der Behandlung von Schreibfehlern „verzeihender“
  • „Rich Snipplets“ (durch entsprechende Auszeichnung bestimmter Informationen auf den Seiten die Snipplets in den Ergebnissen beeinflussen) sogar bald webdreinulliger 

geworden. Google Maps, Earth, Mail, Reader, Pfeffer und Salz funktionieren auch alle mehr oder weniger immer „einfacher“, ohne dabei – von freilich Werbung abgesehen – besonders unübersichtlich zu werden und wer wie früher weiter arbeiten mag, kann die Änderungen zumeist einfach ignorieren. Mit Analytics, Webmastertools, Mail und AdWords gönnt man sich derzeit zwar gern hier und da Updates in der Bedienoberfläche einzelner Tools, die unbestritten dadurch nicht nur besser aussehen, sondern teilweise auch echte Verbesserungen der Bedienbarkeit, Effizienzsteigerungen oder nützliche neue Funktionen mit sich bringen… aber das sind nicht die Suchergebnisse, sondern „Nebenkriegsschauplätze“. Möglicherweise werden auch andere Tools noch nachziehen, aber einen grundsätzlichen Schwenk Richtung „Applikationsähnlichkeit“ für die Suchmaschine, wie er bei Bing nun meiner Meinung nach ansteht, wird es bei Google sicher nicht so einfach „in einem Schritt“ geben. Unabhängig davon, ob hier vielleicht ein wenig mehr AJAX in die Trefferliste kommt oder nicht: Die SERPs bei Google werden sich wohl eher eine unauffälligere und sanfte Evolution aufweisen und das ist möglicherweise auch gut so. Braucht der Suchmaschinennutzer wirklich ein „Vollwert-RIA-Bing“, wenn er Informationen im Web sucht?

Klar, ich mag die Features, die mir im Bing-Video vorgestellt werden und finde es auch praktisch, wenn die Ergebnisse mehr oder minder intelligent und optisch ansprechend als Navigation „gruppiert“ werden… aber ich brauche sie vermutlich nicht. Und ich vermute, dass es eine große Anzahl von Benutzern außerhalb der Web-2.0-Gemeinde gibt, die sich mit der Bing-Oberfläche schwer tun werden. Der Anteil der User, die nach der Eingabe eines Suchbegriffs bei Google an der Navigation oder allgemeinen Bedienung der gefundenen Webseiten scheitern, ist mit Bing vielleicht schon damit überfordert, die Suchmaschine selbst selbst zu bedienen. Oder einen Großteil der (ernsthaft) tollen neuen Features überhaupt wahr zu nehmen (wenn man sich mal anschaut, wo im Allgemeinen überhaupt die Aufmerksamkeit bei der Suchmaske und den Ergebnissen einer Suchmaschine hinfällt). Ich teile zwar die Einschätzung, dass man mit den ganzen Verbesserungen, die Bing gegenüber den vor einiger Zeit offenbar evolutionstechnisch fast stehen geblieben Live-Suche mit sich bringt, nun besser aufgestellt ist, als vorher. Und zweifelsfrei auch „konkurrenzfähiger“ sein wird; besonders in einer nicht zu unterschätzenden Zielgruppe. Aber für die „BestAger“, „Pro-, Power- und BusinessUser“,  „Seltensurfer“ & Co, die die Masse der täglichen Suchanfragen absetzen, wird das vermutlich eher nichts werden und das weiß man bei MS sicher auch. Es wollte ja bestimmt ohnehin kein realistisch denkender Stratege auf diesem Weg einen ernsthaften „Google-Killer“ aus dem Hut zaubern, sondern es sollten offenkundig „nur“ die Dinge, die man in den letzten Jahren ein wenig verpennt hat, bei Bing nachgeholt werden. Und dabei kann man ja direkt (mal wieder) ein neues Gesicht erfinden und einige der neuen hauseigenen hippen Technologien unterbringen. Was die Qualität der Suchergebnisse angeht, so werden wir sehen, ob es große Unterschiede zur LiveSearch, Yahoo oder Google geben wird… aber das war auch bisher nicht der Grund, warum sich die Marktanteile verteilen, wie sie es nun mal tun. „Google Classic oder iGoogle?“ scheint da viel eher die Frage zu sein, die man sich stellt, wenn man zwischen schlichter und informativerer Oberfläche wählen will, nicht „Bing oder was anderes?“. Wird Bing mich oder andere „hauptsächlich-Googler“ also zu einem „treureren“ MS-Suchanfragensteller machen, als man  es derzeit vielleicht ohnehin schon ist? Warum sollte man überhaupt damit rechnen, dass sich wesentliche Anteile in der Nutzung der Suchmaschinen ändern, nur weil es einige neue gibt oder etablierte Anbieter Veränderungen implementieren? Mir erscheint es vielmehr, als würde dieser Krieg ohnehin auch (oder gerade) hier nicht auf funktionaler Ebene, sondern im Marketing und der Brand- und Imagepflege entschieden. Also wieder nix mit dem großen Schwenk zu einer anderen Suchmaschine. Wie immer. Nicht falsch verstehen: Sicher werde ich irgendwann mal in der Zukunft (wenn es prima funktioniert) bei Wolfram|Alpha die Lottozahlen des kommenden Wochenendes abrufen und mich freuen, dass ich das Ergebnis bekomme, ohne noch irgendwelche Links anklicken zu müssen – aber das ist ja bekannterweise weder Absicht noch Sinn von Google oder Bing. Auf einer Ebene jenseits von zusätzlichen Funktionen bleibt Bing ein Pendant zu Google, dass einen grundsätzlich anderen Ansatz verwirklicht, um „bestmögliche Userexperience“ beim Suchen und Finden zu bieten: KISS (gepaart mit einem durch den einzigen Monetarisierungszweck bedingten „Klick this Ad, Dude!“ – Beigeschmack) bei Google und „Woah!/Impress“ bei Microsoft. Also eigentlich nichts Neues 😉

Update 3.5.09: Bing ist live (im wahrsten Sinne)

Nun ist es also so weit: Bing ist bereits seit dem Wochenende in Betrieb, sieht aber erst einmal nur aus wie die LiveSearch, nur mit zugekaufter Liste verwandter Suchvorgänge. Ob die Rankings wirklich überall gleich sind, sei mal dahingestellt (berkaq8scm). Als ich aber eben einen Blick auf die mobile Version unter m.bing.com geworfen habe, war ich doch angenehm überrascht: Eine übersichtliche Mobilfassung, die schon ein wenig mehr von dem anklingen lässt, was sich die Entscheidungsmaschine auf die Fahnen geschrieben hat. Das oben angesprochene Video ist jedenfalls nach wie vor unter http://www.decisionengine.com zu finden; nur eben nicht mehr auf der Startseite verlinkt, seit die „FastFertig-Fassung“ online ist.


05.01.2009

Das es für einen Online-Shop keine gute Idee ist, den Benutzer zu verwirren oder
vorhersehbare Fragen nicht direkt im Prozess oder zumindest einem gut
verlinkten und befüllten FAQ zu beantworten, ist mehr als eine
Binsenweisheit. Jeder Shopbetreiber, der sich mit ernsthaft mit der Verbesserung der Usability (und
hoffentlich damit auch der Conversions) auseinandersetzt, findet im
Verlauf seiner Bemühungen Stolpersteine… oder er läßt diese im Rahmen
einer extern durchgeführten Usability-Analyse finden.

Dass
nicht nur Produktdetailseiten, der Warenkorb und der Abschlussprozess
im Web dazu gehören, wurde mir heute mehr oder weniger als „Opfer“
einer extrem unklaren Formulierung eines Shops wieder schmerzlich bewusst. Es gibt auch viele
Möglichkeiten, im dem Prozess folgenden – oder wie im Fall von
Registrierungsbestätigungen etc. auch den Einkauf begleitendenMailverkehr unnötige Fragen aufzuwerfen. Dies geschieht in der Regel durch:

  • Überinformation. Besipiel: Bankverbindung zum Überweisen
    in Bestätigungsmail nebst eindeutiger Aufforderung, obschon per
    kreditkarte bezahlt wird? 
  • Zu wenig Information: Bestellung ist eingegangen. Aha, welche? Was habe ich bestellt?
  • Unklare Formulierungen (Beispiel folgt…)
  • Zahlreiche Rechtschreibfehler (fördert nicht wirklich das Vertrauen)
  • Falsche Sprache.
    Nicht lachen: Shopoberfläche deutsch, Bestätigungsmails englisch ist
    kein Einzelfall bei internationalen Shops…Aber auch ein plötzliches
    „Du“, obschon der Shop selbst recht förmlich daher kommt, ist schon
    vorgekommen.

Wenngleich die Probleme in den meisten Fällen nicht zum
nachträglichen Kaufabbruch führen und auch doppelt überweisene
Zahlungen wieder zurückgezahlt werden können, ist ein zweiter Einkauf
nur dann noch wahrscheinlich, wenn man sich im AfterSales-Prozess
besondere Mühe gegeben hat. Was im vorlieghenden Fall aber passiert ist, ist eher ein
Beispiel für unklare Formulierungen. Oder besser: Unklare Absicht
hinter der Mail. Es handelt sich um eine
Bestell[eingangs]bestätigung“ des Shops von Borussia Mönchengladbach Eine Bestellung habe ich ungeachtet einiger kleiner Hürden am 20.12., wohlwissend, dass es vor Weihnachten sicher
nichts mehr wird, abgeschickt. Eine Bestätigung per Mail habe ich auch erhalten…dachte ich jedenfalls zuerst.

Da
nun aber bis heute weder Ware noch
Nachricht eingetroffen sind, wollte ich mich über die Verfügbarkeit des
Artikels auf der Website informieren. Kurz gesagt: siehe Bild. Abgebildet ist die aktuelle Produktinformation, berienigt
um das Bild. Sonst ist alles da, was es zu finden gibt; und das ist
– leider – wenig genug.

Produktdetailchen

Unpraktisch, dass das zitierte „Klapp-Menü“ nun gar nicht mehr sichtbar ist
(zum Zeitpunkt der Bestellung konnte man noch aus zwei Größen wählen) – sicherlich, damit nicht noch mehr Besucher einen Artikel bestellen,
den man doch gar nicht liefern kann.

Nun das eigentliche Problem: Der „Durchschnittsbesucher“ mit etwas Onlineshopping-Erfahrung geht davon aus, dass die Mail, die unmittelbar nach Bestellabschluss kommt, auch eine Auftragsbestätigung ist. In der Hoffnung, den
Liefertermin beim Querlesen vor zwei Wochen einfach nur übersehen zu
haben, habe ich nun aber die Mail hervorgeholt und dann folgende Formulierung gefunden:

Betreff: Ihre Bestellung bei Borussia Mönchengladbach 

--------------------------------------------------------------------------
+++ Borussia Mönchengladbach Bestellbestätigung +++
--------------------------------------------------------------------------

Sehr geehrter Herr Baersch,
vielen Dank für Ihre Bestellung bei Borussia Mönchengladbach
vom 20. Dezember 2008.
Bestellnummer: 123456
==========================================================================
Menge Produkt Einzelpreis Gesamtpreis
--------------------------------------------------------------------------
1 Kinderschlafanzug "Home" 24,99 EUR 24,99 EUR
Größe: 164

Versandkosten 4,99 EUR 4,99 EUR
==========================================================================
enthaltene MwSt.: 4,79 EUR
Gesamtsumme: 29,98 EUR
==========================================================================
Diese E-Mail ist keine Auftragsbestätigung. Lieferung erfolgt nur so
lange der Vorrat reicht.


Rechnungsanschrift: Herr Markus Baersch
...
(und so weiter)

Hmm… für mich liest sich der rot markierte Abschnitt als Benutzer
des Shops nun im Extremfall so: „Keine Auftragsbestätigung, nur eine Bestätigung der
Bestellung. Und man wird nur beliefert, wenn Ware da ist“.
Fazit: Man hat eigentlich gar keine Ahnung, ob nun eine Bestellung in Bearbeitung ist oder nicht. Offenbar aber jedenfalls nicht, wenn die Ware vielleicht nicht mehr geliefert werden kann.

OK, das ist vielleicht ein gemeines Beispiel, da die Ware nun offenkundig nicht mehr verfügbar ist und eine
böswillige Interpretation – zugegeben. Aber auch im wirklichen Leben
weiß ich als Kunde nun nicht, ob ich etwas bestellt habe oder nicht.
Und ob ich noch mit einer Lieferung und Belastung meines Kontos rechnen
darf oder lieber einen Schlafanzug von Hoffenheim kaufen soll 😉 Erst eine Rückfrage per E-Mail hat nach einiger Wartezeit die Antwort ergeben, dass die Ware voraussichtlich am Monatsende wieder lieferbar sei. Ohne eine Nachfrage hätte ich das aber sicher erst mit Eintreffen der Lieferung erfahren… unschön. 

Wenn Sie also einen Webshop betreiben, dann lassen Sie sich von
diesem Beispiel dazu inspirieren, sich den eigenen Prozess wirklich bis
zum Ende anzusehen
. Nicht immer, aber ab und zu kann eine sicher gut
gemeinte Formulierung viele Fragen aufwerfen – was immer vermeidbar ist.
In diesem Fall hätte es ja schon gereicht, den weiteren Verlauf zu
skizzieren und zu beschreiben, unter welchen Bedingungen nun was
passiert. Und es muss zusätzlich sicher gestellt sein,
dass Bestellungen, die in absehbarer Zeit nicht bedient werden können,
eine Rückmeldung erhalten und die Kunden entscheiden können,
ob weiter gewartet wird oder die Bestellung verworfen werden soll (wenn
die Option der späten Lieferung denn überhaupt besteht). Beispiel gefällig: Amazon (wer sonst) macht
es auch hier goldrichtig und kann getrost als Vorbild dienen. Solange
dort eine Bestellung noch aktiv ist, kann man sich nicht nur online
jederzeit über den Status informieren, sondern wird auch per Mail bei
weiteren Verzögerungen, Preisänderungen oder sonstigen Anpassungen rund
um die bestellten Artikel per Mail informiert.


30.12.2008

Usability, speziell Web-Usability ist ja nun mal beruflich in gewisser Weise mein Thema, wenngleich weder dieses Blog (ja, ich nenne es das Blog und nicht der Blog und wer wissen will, warum, bekommt die Antwort hier) und auch die eigene Site nicht wirklich als Aushängeschild geeignet sind. Wenn ich aber nebenbei auf dem Notebook meiner Frau per Seitenblick sehe, was man sich in so vielen Web 2.0-Communities so alles gefallen lassen muss, kann ich manchmal nicht anders. Wozu soll es gut sein, wenn die voreingestellte Schrift mehr oder weniger jeden Besucher – selbst denjenigen, der über ein durchschnittlich gutes Sehvermögen verfügt – zum Zoomen zwingt, wenn man sich keine Kopfschmerzen bei längerem Verweilen einfangen will? Ein aktuelles Beispiel mußte ich umgehend (wenn auch nicht unter eigenem Namen) kommentieren – das ist ja schließlich der Sinn und Zweck des Mitmach-Webs 😉

In einer joinR – Gruppe, die dem edlen Zweck dient, Lobeshymnen über den gottgleichen Chuck Norris zu verbreiten, darf man sich (wie in den anderen Gruppen auch) an satten 10 Pixel hohen Verdana-Absätzen erfreuen; der rot umrandete Eintrag ist meine persönliche Bereicherung des Forums.

Für die miese Qualität der Abbildung, die ich leider noch 10% verkleinern mußte, kann ich nur einen Teil der Verantwortung übernehmen. Wer das nur unwesentlich besser lesbare Original live betrachten will, kann auf das Bild klicken und zur Gruppe bei joinR gelangen. Ein paar Pixel mehr und ein gefälliger Zeilenabstand würde hier schon viel verbessern. Ob man da wohl ein offenes Ohr findet? Ich werde es vielleicht einfach mal versuchen…

Was hier genau so vergessen wurde… wie bei vielen anderen Seiten auch: Text im Web ist kein Print-Text! Das wird er erst dann, wenn glücklicherweise separate CSS-Formatierungsanweisungen für den Druck definiert wurden oder einer der beliebten „Druckansicht“-Links benutzt werden. Solange Text aber im Browser zum Zweck des Lesens durch einen Besucher dargestellt wird, sollte die Mindesthöhe für Schrift je nach Evangelium 14 oder 15 Punkte betragen. Und auch eine vergrößerte Zeilenhöhe, die das 1.4/1.5-fache der Schrifthöhe (je nach Font sogar besser mehr) beträgt, erhöht die Lesbarkeit von Webtext enorm. Das würde m. E. auch das Lesen bei joinR um Klassen einfachR machen 😉


20.06.2008

Puh… es ist soweit: In einem separaten Blog ist jetzt ein „erster Grundstock“ an Tipps zur Suchmaschinenoptimierung zu finden. Unter der mehr oder weniger sinnreichen Adresse www.suchmaschinenland.de wird die Tippsammlung stetig erweitert und richtet sich hauptsächlich an Webmaster, die Suchmaschinenoptimierung selber machen „müssen“… oder wollen. Der Fokus liegt daher vor allem auf der Vermittlung der Arbeitsweise von Suchmaschinen und die daraus abzuleitenden Handlungsvorschläge zur Gestaltung der eigenen Seiten. Sprich: es handelt (derzeit) hauptsächlich von OnPage-Optimierung. Das Kapitel „Linkaufbau“ ist aber ein Bereich, der in den nächsten Wochen und Monaten noch ausgebaut werden muss und wird, so dass auch OffPage-Optimierung zumindest im Ansatz „abgedeckt“ wird. Auch die anderen Beiträge werden sicher noch die eine oder andere Erweiterung, redaktionelle Änderung und sonstige Korrekturen erfahren sowie durch neue Artikel ergänzt werden.

Einige weitere Themen stehen schon fest für die nächsten Wochen im Kalender. Jetzt habe ich aber erstmal das Problem zu lösen, dass sich mir vor lauter Suchmaschinen-Optimierungstipps-Tipperrei die Fingerkuppen ablösen. Nach einer merklichen Besserung dieses Zustands wird es weitere Beiträge zur Suchmaschinenoptimierung dort geben, die die bereits existierenden und noch ausstehenden Tipps zur Usability von Webseiten unter www.usability-tipps.de laufend ergänzen werden.


11.06.2008

Die Antwort der Betreiber von moli.com würde ganz sicher „ja, natürlich“ ausfallen. Und nun geht das social-network-video-lokale-suche-chat-forum-bewertungs-foto-community-blog-Portal auch in Deutschland bald an den Start. Wer beim Test unter de.moli.com mitmachen will, muss allerdings ganz getreu dem „vente-privee-Prinzip“ eine Einladung haben oder schon drin sein. Hat mal jemand einen Code für mich?

Ich kann es nämlich kaum erwarten, all die Dinge, die man auch jetzt schon problemlos auf thematisch etwas fokussierteren Portalen erledigen kann, nun dem künftigen Monopolisten (ja sicher!) zu überlassen, der sicher bald xing, blogger, youtube, suchen.de, studivz & Co. unnötig machen wird. Ganz bestimmt! Und schon morgen wird noch ebay, mymuesli und google maps nachgebaut; anschließend beginnt die Verdrängung heute noch vollkommen überflüssiger und nicht gleich in das „alles-was-man-im-Web-2.0-so-machen-kann“ – Portal implementierter Suchmaschinen. Warum kann ich da eigentlich noch keine Texte schreiben und Tabellenkalkulation machen – oder habe ich es nur in der übersichtlichen (US-)Oberfläche nicht gefunden?

Mal ganz im Ernst: Wer braucht´s und was ist drin, was es nicht schon gibt? Sind wirklich schon alle Web 2.0 – Ideen umgesetzt, das Potential ausgeschöpft, der Käse gegessen? Kann ich mir eigentlich nicht vorstellen…


29.04.2008

Ob man nun die Anschaffung eines eeePC sinnvoll findet oder nicht: Auf jeden Fall lohnt es sich, die doch sehr spartanische Oberfläche des eeePC gegen einen vollständigen Desktop auszutauschen. Auch aus Sicht der Benutzerfreundlichkeit ist der „Easy-Desktop“ zwar praktisch für Einsteiger, aber unnötig schwerfällig und wenig anpassbar gestaltet, so dass trotz der „Aufgeräumtheit“ jede Menge Icons übrig sind, die man eigentlich nicht braucht. Da hilft auch die Favoriten-Ansicht wenig, denn auch die läßt sich z. B. nicht vom Wald- und Wiesenbediener so gestalten, wie er es gern hätte. Damit Linux auf dem eeePC weitaus mehr wie auf anderen Rechnern aussieht, kann natürlich problemlos auch ein komplett neues System oder ein anderer Desktop installiert werden; auch die Anpassung des EasyDesktop und Ergänzung eines Startmenüs oder die Auswahl passender Themes sind mit vertretbarem Aufwand machbar… aber das auf Debian basierende Xandros bringt auch einen „Full Desktop“ mit , der als Alternative mit wenigen Handgriffen (Internetverbindung vorausgesetzt) aktivierbar ist. Der Paketmanager muss dazu ausnahmsweise per Terminalfenster aktiviert werden; nach der Umstellung steht ein komplettes Menü zur Verfügung, welches dann auch Synaptic (eben den Paketmanager) enthält, mit dem auch tausende weiterer Pakete aus verschiedenen Quellen nachinstalliert werden können, wenn ein zur Aufgabe passendes Programm fehlt. So geht´s:

  1. Terminalfenster öffnen mittels STRG + ALT + T.
  2. Eingabe von sudo synaptic, um den Paketmanager zu starten. Infodialog schließen.
  3. „Einstellungen -> Paketquellen“ wählen und mit „Neu“ die Adresse http://download.tuxfamiliy.org/eeepcrepos eintragen. Als Distribution p701 und als Selektion main dabei angeben und die neue Definition speichern.
  4. Liste der verfügbaren Pakete mit „Neu laden“ aktualisieren
  5. (Neuen) Eintrag advanced-desktop-eeepc mit der rechten Taste anklicken und „Zum installieren vormerken“ wählen; den anschließenden Dialog mit „Vormerken“ bestätigen und dann auf „Anwenden“ klicken.
  6. Nach dem Herunterladen und der Installation des Pakets den Rechner über die „Taskleiste“ des Easy Desktops herunterfahren und hier den neuen Eintrag „Voller Desktop“ auswählen, um beim nächsten Start von KDE begrüßt zu werden.

Nicht wundern: nach einem vorher in der Einrichtung der einfachen Oberfläche definierten Kennwort fragt der Rechner nun nicht mehr und auch die ewig wiederkehrende manuelle Eingabe von WPA-Schlüsseln zur Aktivierung eines WLAN sind nun nicht mehr erforderlich; die gewünschte WLAN Verbindung kann nun einfach per Klick auf den entsprechenden Eintrag im Tray ausgewählt werden; die letzte der 1000 ewig gleichen Eingaben des Kennworts wurde offenbar doch wie seine Vorgänger gespeichert und nur nicht wieder verwendet (grummel).

KDE eeePC
Klick zum Vergrößern

Über das Startmenü des „Full Desktop“ kann auf die „einfache Variante“ zurück gewechselt werden; es geht also nichts verloren. Gewonnen wird dafür mehr Platz auf dem KDE – Desktop, ein vernünftig bedien- und konfigurierbares Menü (wenn man sich mit dem Touchpad eingearbeitet hat) und schnellen Zugriff auf selbst nachinstallierte Programme wie z. B. Opera (sonst eigentlich nur über Terminalfenster zu erreichen) oder den mitgelieferten Thunderbird als Mailclient. Das Design kann nach eigenen Wünschen angepasst werden und endlich ist auch das gewohnte persönliche Hintergrundbild auch auf dem eeePC zu sehen 🙂 Ist der eine Desktop voll, kann zudem auch auf den zweiten umgeschaltet werden – die kleine Mühe der KDE – Aktivierung lohnt sich also auf jeden Fall. Wer den eeePC vor allem deswegen angeschafft hat, um „schnell mal hochzufahren, nachzusehen (Mail, Google, Web, was auch immer)“ oder etwas zu notieren, ohne auf den lahmen Desktop oder das dank Vista nun noch lahmere Notebook warten zu müssen, wird sich jedenfalls über viele Merkmale eines vollständigen Desktop freuen und das „Kindergarten-UserInterface“ des eeePC im Rohzustand nicht mehr vermissen. Zum Thema „Sicherheit“ sollte man sich allerdings dennoch den einen oder anderen Gedanken verschwenden. Die kompletten Userdaten auf eine verschlüsselte Partition auszulagern, ist ein denkbarer Weg, das ggf. in Thunderbird gespeicherte Kennwort des Mailpostfachs, die Kennwörter der WLAN-Verbindungen etc. zu schützen. Und diese dann gleich auch auf einem separaten Datenträger (sprich: USB oder auf einer Speicherkarte) zu verwalten, sicher auch… darüber mache ich mir aber jetzt erstmal keine Gedanken und freue mich als eingefleischter Windows-Nutzer erst mal ausgiebig über alles, was man noch so mit dem eeePC anstellen kann…


25.04.2008

Yahoo und Google verfolgen beide neben vielen anderen Projekten derzeit ein recht ähnliches Ziel, nämlich die Liste der Suchtreffer durch Daten von Drittanbietern anzureichern. Dabei gibt es bei beiden Suchmaschinen durchaus Unterschiede; z. B. bei der Aufmerksamkeit, die die (nicht der Öffentlichkeit zugänglichen) Projekte erregen, der Dauer… und möglicherweise auch den potentiellen Auswirkungen.  

Wie soll das überhaupt aussehen? Yahoo taufte sein Projekt Ende Februar SearchMonkey und erhielt damit zumindest kurzzeitig recht viel Aufmerksamkeit in verschiedenen Presseportalen. Und sicherlich sitzen vielerorts bereits potentielle Anbieter in den Startlöchern, um geeignete Daten an das Projekt liefern zu können, wenn es denn soweit ist. Wer möchte nicht die zahlreichen Bewertungen „seiner“ Community als Portalbetreiber gern in die Suchtreffer eingebunden wissen, wenn dort die Website eines Restaurants, eines Dienstleisters oder eines anderen beliebigen kommerziellen Angebots angezeigt werden? Das klingt schon fast wie der Traum von „Huckepack-SEO“ mit Lizenz, wenn man ohne langwieriges Optimieren umkämpfter Suchbegriffe und aufwändigen Linkaufbau durch Anreicherung der bestehenden Suchtreffer – ggf. mittels Geld(?) –  durch „seine“ Daten einen Teil der Aufmerksamkeit (und des Traffics) abzweigen kann.   

Denn der Suchaffe bietet nichts anderes als die Möglichkeit der Anreicherung von Suchtreffern durch weitere Daten wie Bewertungen, Bilder etc. direkt in der Trefferanzeige. Wie das aussehen wird? Denkbar ist die Verwendung von Mikroformaten wie hCard und hReview, die Metadaten der eigenen Seiten mit Informationen anreichern (die aber nicht zwingend die eigenen Angebote betreffen müssen[?]) und durch Suchmaschinen ausgelesen werden. Das wäre zwar „nur“ ein Weg, die Daten zur Anholung bereit zu stellen; ensprechende APIs und XML-Formate zum Austausch aller benötigten Daten wie z. B. bei OpenSearch (nur eben mehr oder weniger in der anderen Richtung) sind aber sicher ohne große geistige Anstrengung denkbar… und je nachdem, was erzielt werden soll, viel praktischer für Anbieter und Suchmaschine. „Schöner“ sieht es natürlich aus, wenn man auf Miktoformate setzt und damit den Anschein wahrt, einen entschiedenen Schritt in Richtung Web 3.0 / Semantisches Web zu machen (…noch ein vollkommen unnötiger Nebensatz in Klammern: woher die ganzen passenden Ontoligien herkommen sollen und von wem sie in OWL oder sonstwie abgebildet werden, um einen nennenswerten Teil des Webs wirklich „semantisch“ zu machen, bleibt – zumindest mir – ein Rätsel). Unter der Haube bleibt die Anreicherung der Suchtreffer (vor allem! neben SEM) eine Chance für Websitebetreiber, sich nach der Freigabe für die Öffentlichkeit etwas zu überlegen, wie er die Suchtreffer denn sinnvoll anreichern kann, um die Chancen auf einen Klick zu verbessern. Hier und da vielleicht nur die eigenen Suchtreffer, anderswo eben auch „fremde“ Suchtreffer. Klingt nicht ausschließlich einfach nur „toll“? Stimmt…

Auch Google hat lt. Matt Cutts, dem „Imperator der Suchtreffer“ entsprechende Erweiterungen unter dem Titel Subscribed Links bereits länger (und weniger beachtet?) in der Pipeline. Auch hier kann man bereits erahnen, was alles theoretisch geht / gehen wird.

Sowohl zu diesem Blogbeitrag als auch z. B. im Yahoo! Search Blog oder zahlreichen Referenzen aus anderen (großteilig SEO-) Blogs gibt es in vielen Kommentaren daher nicht nur stumpfe Begeisterung zu lesen, sondern auch welche potentiellen Probleme befürchtet werden. Mal ehrlich: Wenn plötzlich bei allen „erfolgversprechenden“ Suchanfragen künftig nicht nur die vergleichsweise dezenten Ergebnislisten (sebstredend nebst Anzeigen! ;)) bei Google und Yahoo um die Gunst des Suchenden buhlen, sondern sich auch noch gegenseitig in hipper bunter Darstellung, Anreicherung mit Zusatzinformationen (anderer Sites!) und sonstwas zu übertreffen versuchen, bleibt nachher vielleicht dann letztendlich möglicherweise doch der Suchende auf der Strecke.

Daher ist es nachvollziehbar, dass Google zumindest offiziell nicht einfach „jedem Hansel“ erlauben will, die Gestalt der Suchergebnisse zu beeinflussen – und die Anreicherungen angeblich im Gegensatz zu Yahoo nicht unter bestimmten Umständen auch ohne explizite Aktivierung der „Drittanbieterinformationen“ in den Suchergebnissen plant. Wie das alles aber genau aussehen wird, wenn es Serienreife erlangt, darf gespannt erwartet werden. Ich höre schon jetzt die Stimmen der Kritiker, die Google (und selbstverständlich nur Google) zahlreiche Vorwürfe machen und es (möglicherweise zurecht?) bedenklich finden, dass in den Suchtreffern durch Erweiterungen wie Subscribed Links die Mehrklassengesellschaft weiter gefördert wird… Auf jeden Fall aber ist zumindest schonmal der Arbeitstitel bei Google eine Spur ehrlicher, als der niedlich daherkommende Affe, der beliebig mit Suchtreffern jongliert….


© 2001 - 2017