Das Wichtigste in Kürze

  • Self Service funktioniert nur solange implizites Wissen ausreicht; mit wachsender Komplexität bricht dieses Fundament weg.
  • Daten stehen immer in Beziehungen; Datenmodellierung macht diese Beziehungen explizit und stabil.
  • Inmon stärkt den technischen Kontext durch systemübergreifende Integration und Historisierung.
  • Kimball stärkt den semantischen Kontext durch Fakten, Dimensionen und conformed dimensions.
  • Datenmodellierung ist keine Frage des Schemas, sondern der bewussten Gestaltung von Kontext.

Worum es in dieser Serie geht

Datenmodellierung wird regelmäßig für überholt erklärt. Neue Werkzeuge versprechen schnellere Ergebnisse, mehr Flexibilität oder automatische Analyse. Im Projektgeschäft zeigt sich jedoch ein anderes Bild. Modelle, die ohne klare Struktur aufgebaut werden, geraten mit wachsender Komplexität unter Druck. Implizites Wissen ersetzt keine explizite Architektur.

Diese dreiteilige Serie verfolgt eine zentrale These: Datenmodellierung ist die bewusste Gestaltung von Kontext. Sie überführt implizit vorausgesetzte Beziehungen in explizite, strukturierte und dokumentierte Zusammenhänge.

  • Im ersten Teil geht es um den Verlust dieses Kontexts im Self Service und um die historische Einordnung der klassischen Data Warehouse Ansätze.
  • Im zweiten Teil betrachten wir technischen und semantischen Kontext im Detail.
  • Im dritten Teil erweitern wir die Perspektive und fragen, warum expliziter Kontext im Zeitalter von KI zur Voraussetzung wird.

Nutzen Sie das volle Potenzial Ihrer Daten!

DATA MART Consulting GmbH begleitet Sie von der Datenstrategie bis zur modernen Analytics-Lösung.

Lassen Sie uns in einem kostenlosen, unverbindlichen Erstgespräch klären, wie wir Sie unterstützen können.

Wir freuen uns auf Ihre Anfrage!

  • > 300 zufriedene Kunden
  • > 2.000 Projekte
  • > 400 Projektpersonenjahre

Wenn implizites Wissen genügt

Im Projektgeschäft zählt häufig der schnelle Erfolg. Gerade im Self Service möchten erfahrene Nutzer möglichst direkt mit ihren Daten arbeiten. Die Rohdaten der Quellsysteme sind bekannt, erste Auswertungen entstehen schnell, die Logik steckt im Kopf derjenigen, die sie erstellt haben. Ein dimensionales Modell wirkt in dieser Phase wie ein Umweg.

Solange Anforderungen überschaubar bleiben, funktioniert dieser Ansatz. Beziehungen zwischen Tabellen sind bekannt, Definitionen von Kennzahlen werden nicht hinterfragt. Der Kontext ist vorhanden, er ist nur nicht explizit gemacht.

Die Schwächen zeigen sich erst mit wachsender Komplexität. Neue Datenquellen kommen hinzu, Granularitäten passen nicht zusammen, komplexere Kennzahlen müssen berechnet werden. Workarounds entstehen. Der Bruch wird häufig bei der Übergabe sichtbar. Was zuvor funktionierte, beruhte auf implizitem Wissen. Beziehungen, Annahmen und Definitionen waren nicht dokumentiert, sondern vorausgesetzt.

Historische Antworten auf das Kontextproblem

DATA MART Meeting

Unter diesem Blickwinkel lässt sich die klassische Diskussion um Data Warehousing neu lesen. Es ging nie primär um Tabellenformen, sondern um die Frage, wie Kontext dauerhaft stabilisiert werden kann.

Bill Inmon zielte auf eine zentrale, historisierte und systemübergreifende Integration von Daten. Sein Ansatz betont die saubere Strukturierung von Entitäten und deren Beziehungen. Der Fokus liegt auf einem konsistenten technischen Kontext, in dem Daten aus unterschiedlichen operativen Systemen zusammengeführt werden. Diese Core Schicht schafft eine stabile Grundlage, auf der analytische Modelle aufbauen können.

Ralph Kimball stellte die analytische Nutzung in den Vordergrund. Mit Fakten und Dimensionen machte er fachliche Beziehungen explizit. Eine Kennzahl steht in klar definiertem Zusammenhang zu Zeit, Produkt, Organisation oder Kunde. Conformed Dimensions sorgen dafür, dass verschiedene Fachbereiche auf denselben Bedeutungsrahmen zugreifen. Kimball stärkt damit den semantischen Kontext.

Auch Integrationsansätze wie Data Vault lassen sich in dieser Logik verorten. Sie definieren einen festen strukturellen Rahmen für die Integration heterogener Quellen und historisieren Beziehungen systematisch. Der Schwerpunkt liegt auf einem stabilen technischen Integrationskontext. Für die analytische Nutzung wird darauf häufig eine fachlich orientierte Zugriffsschicht aufgebaut.

Die Diskussion zwischen Inmon und Kimball war daher weniger ein Streit um Modellierungsformen als um Schwerpunktsetzungen. Technischer Kontext und semantischer Kontext sind zwei Perspektiven auf dasselbe Grundproblem: Wie werden Beziehungen so gestaltet, dass Daten langfristig nutzbar bleiben.

Die verlorene Kunst der Datenmodellierung

Kunst der Datenmodellierung

Im Self Service wird dieser Schritt häufig übersprungen. Man arbeitet direkt auf Transaktionslogiken einzelner Systeme und übernimmt deren Struktur in das Reporting. Solange alle Beteiligten denselben Erfahrungsrahmen teilen, bleibt das tragfähig. Mit wachsender Komplexität wird jedoch sichtbar, dass der zugrunde liegende Kontext nie explizit definiert wurde.

Die verlorene Kunst der Datenmodellierung besteht daher nicht in der Beherrschung eines bestimmten Schemas. Sie besteht in der bewussten Gestaltung von Beziehungen. Datenmodellierung macht sichtbar, in welchem Rahmen Daten interpretiert werden dürfen und wie unterschiedliche Systeme in eine gemeinsame Struktur überführt werden.

Im nächsten Teil betrachten wir diese beiden Perspektiven genauer. Was bedeutet technischer Kontext konkret im Modellaufbau. Wie wird semantischer Kontext definiert, etwa durch Benennung, Hierarchien oder Kennzahlenhoheit.

Im dritten Teil erweitern wir die Diskussion erneut. Wenn Maschinen auf Daten zugreifen und keine impliziten Annahmen treffen können, wird explizit gestalteter Kontext zur Voraussetzung für Analyse.

Inhaltsverzeichnis
Scrollfortschritt
Über den Autor
Lukas

Lukas unterstützt Kunden dabei, ihre analytischen Fragestellungen selbst zu beantworten. Technologie und Architektur sind für ihn Werkzeuge, keine Selbstzwecke.