Nachhaltiges Data Warehousing für Traffic-Daten im Online Marketing

Instinkthandlung funktioniert vielleicht in der freien Natur, aber nicht in einem wettbewerbsstarken Umfeld von strategisch durchdachten Marketing Aktivitäten. Die richtigen Daten müssen in einem eigenen Data Warehouse gesammelt werden, um den Handlungsbedarf richtig abzuschätzen und Mitarbeiterkapazitäten richtig zu verwenden. Während die Datenaufbereitung lediglich 20% der Zeit in Anspruch nimmt, nimmt die Datenreinigung 80% der Zeit in Anspruch1. Für Unternehmen ist der Aufbau eines eigenen Data Warehousing aus folgenden Gründen wichtig:


Nachhaltiges Data Warehousing
 
Endlichkeit von Daten der Drittanbieter: Google stellt seit der neuen Google Search Console Daten bis zu 16 Monaten zurück zur Verfügung. Für langfristige Beobachtungen fehlen Daten.

Unterschiede in der Datenqualität: API-Daten und Daten, die über das Nutzer-Dashboards heruntergeladen werden können, können sich unterscheiden.

Heterogene Datenquellen führen zu ineffizienten Datenanalysen, da Struktur und Datenströme unterschiedlich verarbeitet werden. Datenvielfalt macht die Integration sehr teuer. Es ist ein Datenqualitätssicherungsprozess notwendig, der Unterschiede klarmacht und die Daten zentral abrufbar macht.

Die Wartung eines eigenen Data Warehouse führt zwangsläufig zu einer Auseinandersetzung mit den Restriktionen und der Akkuratesse der Daten.

Weg von blinder Interpretation von ultimativen Dashboard-Performance-KPIs, Ich will einen Sistrix Sichtbarkeitsindex von größer 1, hin zu individuellen KPIs, die einen Ableitung von Handlungsempfehlungen vereinfachen.

Reporting: Voraussetzungen für datengetriebenes Reporting

Reporting ist ein deskriptiver Prozess, für den eine saubere Datensammlung Voraussetzung ist. Die Analyse ist präskriptiv. Im Zuge der Analyse müssen die richtigen Fragen gestellt werden. Hier erneut eine klare Abgrenzung in der Definition:

Reporting1: Der Prozess, Daten in informelle Zusammenfassungen zu organisieren und die verschiedenen Business Performances gebietsartig darzustellen.

Analyse1: Datensätze in Wettbewerbsstatistik umwandeln, die bei Vertriebsentscheidungen genutzt werden können.

Voraussetzungen für ein Reporting sind die folgenden Eigenschaften, die die gesammelten Daten aufweisen müssen:

  • Joinable: Funktionen der klassischen Datenbankverwaltung müssen vorhanden sein.
  • Shareable: Die Daten müssen für unterschiedlichste Zwecke teilbar sein.
  • Queryable: Die Daten müssen aggregierbar sein und der Marketer muss in der Lage sein, granular in seiner Analyse werden zu können.

Leitfaden zur Überprüfung von Datenqualität

Durch dreckige Daten entsteht laut einer Studie2 des Data Warehouse Institutes für Unternehmen ein Schaden von 600 Milliarden Dollar im Jahr! 600 Milliarden! Es gibt eine einfache Checkliste an Eigenschaften, die zur Überprüfung der Grundvoraussetzungen geeignet ist:

  • Zugriff: Umfasst die Rechte und die technischen Möglichkeiten des Data Warehouses
  • Akkuratesse: Wie wahr ist der Wert oder der Zustand der Entität?
  • Kohärenz: Können die Daten kombiniert werden?
  • Vollständigkeit: Fehlen Daten?
  • Konsistenz: Datenquelle muss verstanden und fix sein!
  • Definition: Richtig definierte und unterschiedliche Bedeutung zu bestehenden Metriken
  • Relevanz: Gespeicherte Daten müssen relevant sein
  • Zuverlässigkeit: Ein Sammelbegriff für die Korrektheit und Akkuratesse der Daten.
  • Zeit: Sammlung und Verfügbarkeit sollen nur einen kurzen Zeitrahmen bilden

Datenquellen priorisieren – Welche Daten brauche ich überhaupt?

Welche Daten benötige ich als Unternehmen überhaupt? Diese Übersicht1 hilft dabei, die richtigen Datenquellen durch eine geeignete Priorisierung auszuwählen:

Priorität der Daten:
 
Hoch
 
Die Daten sind wahr und dringend benötigt: Sind die Daten zur Argumentation an einem Stichtag nötig?
Daten haben hohen Wert: Haben die Datensätze Aussagekraft im Bezug auf den ROI?
Mehrere Teams haben Bedarf: Kann ein höherer ROI durch Datenversorgung erreicht werden?
Vergänglich und fließend: Vergängliche Daten müssen gesichert werden.
 
Medium
 
Wertverbessernde Daten: Stellt bestehende Daten in Frage und ermöglicht ein besseres Verständnis des Kontext
Einfach zu besorgen: Ist eine Schnittstelle/Tool vorhanden? Dann ist ein schneller Bezug lohnenswert
Historische Daten durch API: APIs mit historischen Daten können Vergangenheitsanalysen erleichtern (ggf. keine eigene Speicherung notwendig)

 
Niedrig
 
Wenig Datenzugang, Workaround: Gering priorisiert, Einfachheit in der Natur der Daten lässt auch Schnellexporte zu.

Qualitätsschwache Daten: Von diversen Faktoren abhängig: Fragile API, intransparent, Beta-Status

Daten müssen gescreenscaped werden: Eigenes Tracking – Sehr aufwendig und komplex

Geringe Wahrscheinlichkeit der Nutzung: Nur ein Nice-to-Have?

Analyseprozess mit den vorhandenen Daten nach Jim Davis

Für prozessorientierte Suchmaschinenoptimierung haben wir das Modell bereits illustriert.

SEO nach Jim Davis

Für die statistische Analyse ist die Kenntnis über bekannte statistische Methoden wichtig. Die anschließende induktive Statistik ist für einen späteren Artikel relevant.

 
 

Nachschlagwerke und Quellen:

1http://shop.oreilly.com/product/0636920035848.do
2http://download.101com.com/pub/tdwi/Files/DQReport.pdf

Vielen Dank an ev für das Beitragsbild.

Marvin Jörs

Marvin Jörs ist Gründer und geschäftsführender Gesellschafter der Skyscraper Marketing UG.

Hinterlassen Sie einen Kommentar