YOUR DATA INTELLIGENCE
Die perfekte Kombination aus Data Warehousing und Business Intelligence.
skyscraper ist keine reguläre Marketingagentur. Wir streben die Automatisierung Ihres Marketings an. Unser primäres Ziel ist eine hochgradige Marketingeffizienz durch die Entwicklung eines unternehmenseigenen Data Warehousing & Marketingautomatismen.
→ Datenerhebungsprozesse (i.S.v. ETL-Subprozessen)
→ Datenqualitätssicherungsprozesse (i.S.v. ETL-Subprozessen)
→ Data Warehousing
→ Konzeption von Data-Warehouse-Systemen und Datenlayer
→ Analyse von Performance-Daten
→ Strategische Matketingberatung
→ Marketing-Automation
→ Technische Entwicklung von Webplattformen
COMBINING DATA PIPELINES
Data Stream Processing
Die hohe Kunst der Datenaggregation besteht darin, unterschiedliche Datenströme miteinander zu kombinieren, um komplexere Datenmuster zu erkennen. Dafür müssen die Daten erstmal zuverlässig im Data Warehouse ankommen.
Kombinieren Sie Datenflüsse aus unterschiedlichen Bereichen, um eine Anreicherung vorhandener Datensätze zu erreichen. Integrieren Sie bspw. Webdaten aus Google Analytics in Ihrem Customer Relationship Management Tool.
Wir sichern die Datenqualität ihrer Datenströme. Auf Basis von fehlerhaften Daten werden fehlerhafte Entscheidungen getroffen. Das wollen wir vermeiden.
Aggregieren Sie Ihre Daten in einem zentralen Analyse-Tool, um maximale Datenqualität zu erreichen und eine vollständige Analyse durchführen zu können. Wir unterstützen Sie beim "Anzapfen" der Datenpipelines.
Auf Basis eines intelligenten ETL-Prozesses sollen die Daten in einem optimalen Zustand in Ihrer Datenbank gespeichert und für weitere Analysen nutzbar gemacht werden.
CIЯCUM MODEL
Performance Data Analysis
Das CIЯCUM Modell ist unser technisches Infrastruktur-Modell für die Datenaufbereitung von Performance Daten. Das Prozessmodell kommt bei allen Marketing Channels (SEO, Social Media, SEA) zum Einsatz.
+ click to enlarge
Quantitative & Qualitative Analysis
Aus den aufbereiteten Daten müssen Insights über die bisherige Performance gewonnen werden. Bei der qualitativen Analyse von unnatürlichen Abweichungen muss Ursachenforschung betrieben werden.
Heatmaps & Session Recordings
Die optische Analyse des Nutzerflusses ist wichtig, um das Layout nutzerzentriert zu optimieren. Diese Daten werden meist über Drittanbieter-Tools gewonnen abseits der eigenen technischen Infrastruktur.
KPI Design
Im Zuge der Datenanalyse müssen wichtige KPIs für das Unternehmen definiert werden. Dafür werden unterschiedliche Datenquellen miteinander kombiniert.
A/B-Testing
Auf Datenbasis werden verschiedene Varianten getestet, um Anpassungen am Layout vorzunehmen, z.B. die Repositionierung von CTA-Button.
Explorative Testing
Gezieltes Testen von einzelnen Funktionalitäten, um ein optimales Nutzererlebnis zu gewährleisten.
Iterative Optimization Process
Die erhobenen Daten stellen die Grundlage für einen permanenten Optimierungsprozess bereit.
TECHNICAL KNOWHOW
Digital Platform Development
Auswahl der technisch optimalen Lösung
Gehen Sie mit uns gemeinsam Ihr digitales Vorhaben an. Wir beraten Sie im Hinblick auf Ihre Ziele und selektieren die optimale technische Lösung.
Entwicklung von Plattformlösungen
Wir sind in der Lage, sowohl Shop-Lösungen, Landing Pages als auch statische Auftritte zu entwickeln.
Technischer Anforderungskatalog
Wir können bisherige Systeme um technische Komponenten erweitern und Programmierungen vornehmen.
Definition der Informationsarchitektur, Seitentypen und Content-Blöcken
Gehen Sie gemeinsam mit uns die Konzeption einer robusten Informationsarchitektur an.

KNOWLEDGE BASE
Content, Studies & Insights direkt aus der Agency
Einfache Fluktuationsrate | Online Marketing Basics
Die Fluktuationsrate gibt die relative Änderung an, wie viele Ergebnisse der Seite 1 für ein bestimmtes Keyword für zwei verschiedene Zeitpunkte identisch sind, d.h. wie stark Google die Rankings hier durcheinander wirbelt.
Test auf Normalverteilung | Normalverteilung mit Python testen
Bei einem Test auf die Normalverteilung der Residuen lässt sich erahnen, ob im vorliegenden Datensatz Ausreißer vorhanden sind. Bei einer linearen Regression nehmen wir an, dass die Residuen normalverteilt sind. Das spiegelt sich in zwei für den Test relevanten Größen wider:
ROTL-Strategie (Rest-On-The-Laurels-Strategie) | Manipulation im E-Commerce
Reputationssysteme im E-Commerce setzen auf die algorithmische Verarbeitung von Vergangenheitsdaten, d.h. die Berechnung von Reputationswerten erfolgt logischerweise auf Signalen der Vergangenheit. Ein Ruf lässt sich nur schwer vorhersagen. Eine geplante Verhaltensänderung im Zuge der ROTL-Strategie ist demnach nur schwer zu messen. Die genannte Lösung ist mehr als fraglich.
Keyword-Clustering mit dem Levenshtein-Algorithmus
Teil des intern verwendeten Data Mining Boards ist das Keyword-Clustering, das auf dem Levenshtein-Algorithmus basiert. Was sich im Zuge eines SEO-Audits als einmalige Fleißarbeit betiteln lässt, wird bei der Analyse von wöchentlichen und anders getakteten Reportings zu einer zeitaufwendigen Herausforderung. Der Levenshtein-Algorithmus kann ein grobes, aber automatisiertes Keyword-Clustering im Vorfeld…