In meiner letzten Anstellung, bevor ich mit meinen großartigen Partnern siːkwəl gegründet habe, arbeitete ich als Head of Data & Analytics bei der PAUL HEWITT GmbH in Oldenburg – ein Onlinehändler aus der Schmuckbranche, dem seit jeher insbesondere das digitale Marketing in die DNA geschrieben stand. In dieser Zeit habe ich die typischen Phasen begleiten dürfen, die letztlich jedes Unternehmen in gewisser Form auf seiner Reise zu einem digitalen und datengetriebenen Unternehmen durchläuft – beginnend mit frustrierender, sich wiederholender und manueller Excel-Quälerei bis hin zu einer leistungsfähigen und zukunftssicheren Entscheidungsplattform.
Ich möchte dir einen Einblick geben, wie es meinem Team und mir gelungen ist, eine der wohl modernsten Datenplattformen der Region Weser-Ems zu implementieren.
- Teil 1 – Oder: Was wollen wir eigentlich wissen und warum? 🤔
- Teil 2 – Oder: Die Datenplattform als eierlegende Wollmilchsau? 🐷
- Teil 3 – Oder: Welche Aufgaben erledigen Data Engineers und Data Analysts? 🔑
- Teil 4 – Oder: Wie entlaste ich mein Team mit nur einer Entscheidung? 💾
- Teil 5 – Oder: Welches Interface sollte es zu den Daten geben? 🕹 (wird noch veröffentlicht)
- Teil 6 – Oder: Sind alle meine Anforderungen erfüllt? Ein Fazit. 💡(wird noch veröffentlicht)
Vorweg noch: Ich durfte hierüber auch bereits auf der TDWI-Konferenz 2021 berichten – falls du also eher der visuelle Typ bist, schau dir meinen Vortrag hierzu bei YouTube an.
Ich möchte mich in dieser Serie an die Einsteiger richten. An junge, aber auch ältere Unternehmen, die heute vor der gleichen Herausforderung stehen wie ich seinerzeit und mich der Frage annähern: Wie kann auch ein kleineres Unternehmen möglichst einfach und gleichzeitig kosteneffizient von seinem Datenschatz profitieren? Und ich werde versuchen, die Frage zu klären, wie eine moderne, zukunftssichere und mit dem Erfolg mitwachsende Datenarchitektur potenziell aussehen kann.
Ich erhebe dabei keinen Anspruch auf Ausschließlichkeit: Das ist nicht der eine Ansatz, sondern ein Ansatz – welcher jedoch in diesem speziellen Kontext richtig gut funktioniert hat. Und ich bin überzeugt: Unter ähnlichen Voraussetzungen wird dies auch bei dir sehr wahrscheinlich gut funktionieren. Bevor ich jedoch technisch tiefer einsteige, möchte ich dir vorweg noch ein wenig Kontext und Historie zu unserem Projekt geben…
Jede:r fängt mal klein an…
Die Reise, die ich nun skizziere, findet tagtäglich in vielen kleinen, mehr oder weniger stark wachsenden Unternehmen in Deutschland und darüber hinaus statt: Wenn du nicht ein Berliner Tech-Startup bist, sondern ein Fünf-Personen E-Commerce-Retailer aus Niedersachsen, dann interessiert dich in der Regel zunächst vorwiegend der Verkauf deines Produkts – Datenanalyse hat man in der Regel nicht priorisiert auf dem Schirm. Irgendwann aber, eher früh als spät, stellt sich häufig doch die Frage: Wie kann ich noch mehr aus meinen Gegebenheiten rausholen? Wo lasse ich möglicherweise Potenziale liegen? Und das ist der Punkt, an dem schnell auch Daten und Analysen ins Spiel kommen…
So auch hier: Als ich mit dem Job begonnen habe, da gab es gerade mal ein Umsatzreporting nach Produkt und Land – und das natürlich in Excel, wobei die Datenbasis ein manueller Export aus dem Webshop war, der zunächst noch mühsam täglich aufbereitet und mit zusätzlichen Daten aus anderen Quellen angereichert werden musste. Das bindet nicht nur personelle Kapazitäten, sondern ist auch fehleranfällig und verlangsamt deine Entscheidungsfindung insofern, als dass du dich stets zwei Mal fragst, ob heute wirklich noch ein Reporting notwendig ist. Du befindest dich auch aktuell in dieser Phase? I feel you! 🙂
Der Excel-Hölle entkommen
Das kostet Zeit, das kostet Nerven und mit der Zeit werden die Anforderungen der Stakeholder (z.B. der Geschäftsführung) immer komplexer, auch weil das Geschäft immer komplexer wird, sich der Konkurrenzdruck intensiviert und neue Kollegen in neuen Abteilungen neue Dinge wissen wollen, in ganz unterschiedlichen Disziplinen: Einkauf, Finanzbuchhaltung, E-Commerce – you name it. Der nächste logische Schritt heißt dann häufig: Automatisieren.
Zu dieser Zeit habe ich – noch ohne eine dediziertes Data Team – etwas angestoßen, bei dem ich im Nachhinein insbesondere durch regen Austausch mit externen Kollegen meines Fachbereichs festgestellt habe, dass viele Unternehmen so oder ähnlich vorgehen. Sie stellen alle Reportings, die sie periodisch aufbereiten, zusammen und klatschen diese in irgendein BI-Tool ihrer Wahl – QlikView, Tableau, Power BI – zumeist direkt verbunden mit einer Produktivdatenbank oder CSV-Dateien. Von ELT-Prozessen ist man an dieser Stelle konzeptionell noch sehr weit entfernt. Zur Wahrheit gehört aber auch dazu: Häufig funktioniert das irgendwie und ist auch vergleichsweise günstig. Allerdings stößt man sehr schnell an gewisse Grenzen.
Vielleicht schlägst du gerade die Hände über dem Kopf zusammen und fragst dich: „Mensch, wie konnte er nur?“ Es bricht mir keinen Zacken aus der Krone, wenn ich dir sage: Diese Vorgehensweise war unüberlegt und definitiv eine schlechte Entscheidung zu seiner Zeit. Aber vielleicht gibts hier ja den ein oder anderen unter euch, der ebenfalls gerade an diesem Punkt ist. Dem verspreche ich hier: Die Einführung eines BI-Tools, wie gut es auch sei, ersetzt selbstverständlich keine richtige Dateninfrastruktur und schon gar keine langfristige Datenstrategie.
Man baut keinen Wolkenkratzer ohne solides Fundament
Und das BI-Tool in dieser Metapher ist sogar schon eines der oberen Stockwerke. Wenngleich moderne Anbieter wie etwa Power BI mit PowerQuery oder auch Tableau mit Prep durchaus leistungsfähige Datentransformationswerkzeuge von sich aus mitbringen, haben diese bei komplexer werdenden analytischen Anforderungen doch gewisse Limitationen. Das ist auch keineswegs verwerflich, denn meiner persönlichen Ansicht nach ist die Zielgruppe dieser Tools eher der „Citizen Data Scientist“ – also jene Person, die aus dem Korsett von Excel ausbrechen will, der jedoch (noch) das Skillset fehlt, um Profi-Werkzeuge einsetzen zu können. PowerQuery etwa fühlt sich alleine schon ob seiner Herkunft aus dem Hause Microsoft sehr bekannt an, die Programmoberfläche kann ihre Herkunft und Anlehnung an Excel kaum verleugnen. Dadurch ist die Lernkurve zwar steil, die Möglichkeiten bleiben jedoch Excel-typisch recht begrenzt.
Glücklicherweise konnte ich meinen Arbeitgeber davon überzeugen, sich in diesem Bereich zu professionalisieren. Wenngleich wir intern eine erste solide Reportingstruktur aufgebaut haben, konnte man sicherlich noch nicht von einer datengetriebenen Entscheidungskultur sprechen – die Dashboards dienten eher dem operativen Monitoring und waren beschreibend gestaltet („Wie viel Umsatz haben wir gestern erreicht?„) als dass sie analytischen Mehrwert geschaffen haben und bei der Diagnose unseres Betriebs halfen („Warum hat die Werbeanzeige X auf Kanal Y einer Conversion-Rate über dem Durchschnitt des Funnels?„).
Darüber hinaus gab es in einzelnen Abteilungen bereits erste spezifische Einstellungen mit dem Schwerpunkt Analyse und bestehende Kollegen sollten immer umfangreichere Reportings bereitstellen. Eine zentrale Instanz gab es jedoch nicht, die Abteilungen schusterten mit den ihnen gegebenen technischen wie personellen Möglichkeiten eigene Auswertungen zusammen – die Folge waren in der Konsequenz Datensilos und unspezifische Metriken. Das ist der Killer für jede Ambition, datengetrieben Entscheidungen treffen zu wollen: Wenn in wichtigen Meetings plötzlich mehrere Wahrheiten ein und derselben Kennzahl existieren, schwindet das Vertrauen in die Daten an sich und Entscheider kehren zu alten Mustern zurück.
„Ich weiß immer noch am besten, was richtig ist.“
Dies wollten wir ändern, sind zurück ans Whiteboard und haben uns ehrlich mit folgenden Fragen auseinandergesetzt:
- Wie sieht ein Fundament potenziell überhaupt aus?
- Was sind eigentlich unsere Ziele für diese Dateninfrastruktur?
- Welche Ansprüche stellen wir an eine speziell für unser Unternehmen geeignete Infrastruktur?
Und nicht zuletzt:
Was wollen wir überhaupt wissen?
Es ist kein Geschäftsgeheimnis, wenn ich offenbare, dass die exakteste Buchhaltung oder effizienteste Lieferkette nicht die Werttreiber sind, die für einen Onlinehändler wie PAUL HEWITT von entscheidender Bedeutung sind. Ja, diese Prozesse müssen selbstverständlich auf einem soliden Niveau laufen – aber das ist kein nachhaltiger Wettbewerbsvorteil. Für einen E-Commerce-Retailer mit hohem Markenbewusstsein ist vielmehr wichtig zu wissen:
- Wer ist unser Kunde?
- Wie kommt er zu uns (Customer Journey)?
- Und warum kauft er bei uns – oder auch nicht?
Der maßgebliche Hebel ist dabei oftmals das Onlinemarketing und Branding – Facebook, Google, Instagram & Influencer, TikTok, Pinterest. Diese heterogenen Datenquellen sinnvoll miteinander zu kombinieren und mit eigenen Daten, etwa aus Webshop oder ERP-System anzureichern – daraus lassen sich wirklich wertvolle Erkenntnisse generieren.
Wie schaffen wir das also? Wie sieht eine potenzielle Plattform aus, die uns diese und weitere Fragen beantwortet?