Der Preis der Schönheit – Teil 2

Der Preis der Schönheit – Teil 2

Durchschnitt ?

Ich bin kein Freund von Durchschnittswerten. Durchschnittswerte verstecken die Abweichung und die Volatilität.

Das durchschnittliche Bruttoeinkommen in Deutschland betrug im Jahr 2014 = € 36.067. Schauen Sie sich Ihr Jahreseinkommen an und Sie wissen, dass es offensichtlich deutliche Abweichungen gibt.

Schrieb ich im vorigen Blogeintrag dieser Serie, dass eine Einzelseite im Durchschnitt eine Größe oder Gewicht von 2 MB hat, implizieren nur wenige Leser, dass es eine Verteilung zwischen 20kb, 40 MB und mehr gibt. Sprich: Durchschnitt versteckt sogar Abweichung.

Wenn man die Ladezeit der eigenen digitalen Präsenz nur nach den Durchschnittswerten bei den Analyse-Tools bewertet, dann riskiert oder verliert man möglicherweise Umsatz. Ich würde soweit gehen und diese Form von Bewertung juristisch mit „Fahrlässigkeit“ bezeichnen.

Um die wirkliche Ladezeiterfahrung seiner User kennenzulernen, muss man sich vom Durchschnitt entfernen und sich der Distribution der Ladezeiten zuwenden (also wie breit ist das Spektrum der Ladezeiten bei den Usern) und sollte dieses dann mit der Häufigkeit (Bei wie vielen Usern lädt die Seite wie schnell?) kombiniert sein. Es ergeben sich dann erstaunliche Erkenntnisse und damit verbunden Handlungsbedarf.

In meinem letzten Blogeintrag hatte ich eine Grafik eingebettet, die aufzeigte, wie User auf Antwortzeiten reagieren. Verlässt man sich auf den Durchschnittswert aus den Analyse-Werkzeugen, dann zieht man sehr wahrscheinlich den Schluss: Meine User sind glücklich.

Ein trügerischer und fataler Schluss – fahrlässig eben.

Wie würden Sie sich fühlen, wenn ab morgen nur noch alles über absolute Durchschnittswerte bewertet würde? Könnten Sie sich damit abfinden, dass jeder das Durchschnittsgehalt erhält?

Lognormal?

Eine Auswertung nach Lognormal Distribution schließt eine große Lücke. Eine Lognormal-Kurve basiert auf einem einfachen aber rechenaufwendigen Algorithmus und visualisiert die Verteilung von Datenpunkten verschiedener Metriken – je nach Anzahl der Metriken auch multidimensional.

Eine Lognormal-Kurve ist ein Diagramm, das aussieht wie eine Glocke und darum den Namen Glockendiagramm trägt. (Wenn eine Lognormal-Kurve nicht so aussieht wie eine Glocke, dann ist meistens etwas ganz und gar nicht in Ordnung).

Hinweis: alle verwendeten Grafiken sind Daten von echten Usern und echten Umsatzzahlen eines Online Retailers. Freundlicherweise von SOASTA.com zur Verfügung gestellt.

LogNormal Distribution

Eine Lognormal Kurve der Ladezeit – gekappt bei 10 Sekunden

Auf der X-Achse ist die „Ladezeit dargestellt – auf der Y-Achse die Anzahl der Seitenaufrufe. Der Median liegt bei etwa 5 Sekunden.
Die Kurve zeigt also, welche Anzahl an Usern welche Ladezeiten hatten. Schön und deutlich zu erkennen – viele Benutzer dieser Beispielseite würden niemals sagen, dass die Webseite in 5 Sekunden geladen wurde – sondern eher sagen: „Niemals, die Seite lädt super langsam“ oder sie sagen: „Viel schneller“.

Eine ketzerische Frage: Mit dem Wissen, dass User nach 10 Sekunden unfertig geladener Inhalte die Seite verlassen – wie häufig kommt es bei Ihrem digitalen Angebot zu solchen Ladezeiten?

Vor der kosmetischen Operation – Die Diagnose

Bevor Sie inhaltliche oder kosmetische Veränderungen auf Ihrer Seite vornehmen (und seien sie auch noch so klein) müssen Sie natürlich eine solide Datenbasis zur Feststellung des Status Quo haben.

Eine solide Datenbasis meint: 100% aller User und die entscheidenden Erfolgsfaktoren als Metrik in einer Log-Normal Verteilung.

Ungenaue Daten oder Messwerte von nur einem geringen Besucherpool (Sampling) sind ein Risiko. 40 % aller eCommerce Verantwortlichen sehen ihre Datenbasis als problematisch oder inakkurat an.

Grafik mit den Problemen mit denen Marketing von heute kämpft.

Woran es bei der „small“ Data Analyse harpert.

Quelle: http://www.emarketer.com/Article/Marketers-Just-Want-Know-You-with-Data/1011079

Im besten Fall ist die Datenquelle ein Real User Monitoring, welches nicht NUR die Ladezeit der gesamten Seite erfasst, sondern explizit ausweisen kann, zu welchem Zeitpunkt entscheidende visuelle Inhalte geladen sind (z. B. das Hero-Image). Twitter interessiert sich z. B. nicht so sehr für die Zeit wie www.Twitter.com geladen wird, sondern explizit für die Zeit, bis der erste Tweet gelesen werden kann.

Aussagekräftige Metriken, die zur Erfolgsmessung herangezogen werden, sind:

  • Ladezeit der Seite (besser andere KPIs wie z. B. Sichtbarkeit des entscheidenden Objekts auf der Seite) – Achtung: Mit der entsprechenden Verteilung
  • Session Dauer
  • Anzahl aufgerufene Webseiten
  • Durchschnittliche Warenkorbgröße
  • Conversion Rate
  • Bounce Rate
  • Aktueller Umsatz
  • Anzahl Besucher/Sessions

Wenn Sie diese Daten für Erfolgsberechnung heranziehen, hinterfragen Sie dann die Genauigkeit Ihrer Daten? Sollten diese nur von 1-5% der Besucher kommen (Sampling), dann sind die erhobenen Daten schlichtweg nicht repräsentativ. Weiter oben erwähnte ich die inakkurate Datenbasis als ein häufig wahrgenommenes Problem. Das Fehlen von 95% aller Userdaten ist für eine businesskritische Entscheidungsfindung nicht tragbar – sind diese 5% auch noch ungenau (provoziert z. B. durch die nicht optimale Einbindung des Analysetools) dann ist jede Analyse nahezu Zeitverschwendung.

Optimal: 100% aller User werden gemessen und die Messdaten sind korrekt.

Stellt man die gewonnen Daten und Messwerte in einen Kontext, dann fängt es an, richtig spannend zu werden. In der folgenden Grafik habe ich mich für die Bounce-Rate als zweite Metrik entschieden und lege diese über das schon bekannte Ladezeitdiagramm.

LN2

Bounce-rate Verteilung zur Ladezeitverteilung in Korrelation

Auf dieser Grafik ist der Median rot markiert. Wir haben also bei unserer „Durchschnittsgeschwindigkeit“ eine Bounce-Rate von ca. 26% und sind um die Erkenntnis reicher, dass „je langsamer die Seiten geladen werden, die Rate der User, die nach nur einem Seitenaufruf wieder gehen, umso höher liegt“. Zum Glück gibt es auch die motivierende Feststellung, dass bei vielen Usern Bounce-Raten von unter 20% erreicht werden. Nämlich bei denen, bei denen die Webseite schnell lädt. Die Höhe der Bouncerate um 1 Sekunde kommt von – deutlich zu erkennen nur einer sehr kleinen Nutzerzahl – in diesem Fall aus einem synthetisch erzeugten Seitenaufruf (Roboter).

Vielleicht merken Sie schon, worauf ich hinaus will. Auf jeden Fall lässt sich mit dieser ganz offensichtlichen Erkenntnis wesentlich mehr anfangen, als nur mit dem Durchschnitt der Ladezeit und der durchschnittlichen Conversion Rate.

Der Zeitfaktor spielt eine immens wichtige Rolle für den Erfolg von eBusiness und wird zu oft unterschätzt.

Stellen Sie sich doch einfach vor, sie haben zusätzlich eine Lognormal Auswertungen von: Durchschnittliche Session Länge / Anzahl an Seitenaufrufen pro Session, durchschnittliche Warenkorbgröße – aus einem hoch qualitativen Datenpool, der 100% aller User berücksichtigt. Dann sieht das bei SOASTA’s mPulse z. B. so aus:

 LN3  LN4
LN5 LN6

(Abbildung: Conversion rate, Warenkorbgröße, Anzahl von Seitenaufrufen in einer Session und die Anzahl von Seiten-Abbrüchen in einem Chart und im Kontext mit dem wichtigsten UX Faktor: Zeit.)

Eine Lognormal Kurve dient als Basis zur Berechnung eines Trade-Offs, wie ich ihn im Teil 1 beschrieben habe.

Eine wichtigste Erkenntnis als Substrakt aller dieser Echt-Datenauswertung ist Folgende: Plane ich etwas, was die Auslieferung der Webseite langsamer macht, dann riskiere ich Umsatz. Punkt.

Alles was ich plane und umsetze, MUSS also mehr Umsatz bringen, als ich durch die verzögerte Auslieferung verliere.

Um mich jetzt nicht an die reine Webauslieferung zu konzentrieren – solche Auswertungen lassen sich natürlich auch für mobile Apps generieren. Zudem ergibt es ggf. Sinn, nach verschiedenen Dimensionen zu filtern – z. B. wenn man nur regional begrenzt eine Maßnahme durch führen will.

Unbedingt Lesenswert der Blog von Tammy Everts über den Conversion Index Score.

Im nächsten Blogeintrag geht es dann um die tatsächliche Berechnung des Umsatzes oder die ROI Berechnung von Optimierungsmaßnahmen. Und um Experimente.

Der Preis der Schönheit- Teil 1