Architekturen für analytische Datenplattformen

Die verschiedenen Architekturmodelle für analytische Datenplattformen anzusehen, ist im Rahmen einer Datenstrategiebildung unerlässlich. Dabei ist zu beachten, dass die Architekturmodelle verschiedene Aspekte mehr oder weniger adressieren.

Während Architekturen wie klassisches Während Architekturen wie klassisches Data Warehouse oder Data Lake und Data Lakehouse bestimmte Formen der Datenhaltung implizieren, sind Ansätze wie Data Fabric oder Data Mesh dort eher offen und bedingen eine Konkretisierung bezüglich Arten der Datenhaltung.

Die Data Mesh Architektur existiert wiederum in verschiedenen Ausprägungen, die akademisch diskutiert werden, lässt aber die Frage nach Infrastruktur und Datenhaltung offen. Hier werden Fragen der dezentralen Organisation und Daten-Verantwortlichkeiten in den Vordergrund gestellt. Das ist also im Rahmen einer Strategiedefinition mit anderen Architekturmodellen zu kombinieren (z.B. mit Data Warehouse, Data Fabric oder Data Lakehouse).

Wir haben sowohl mit den technologisch unterschiedlichen Architekturmodellen von klassisch relational im Data Warehouse bis zu Delta-Files im Data Lakehouse als auch z.B. beim Domänenzuschnitt und bei der Definition von kaskadierenden Datenprodukten im Data Mesh die relevante Projekterfahrung.

Die passende Kombination verschiedener Architekturmodelle bzw. der Komponenten dieser Modelle ist Inhalt der initialen Bildung einer Datenstrategie mit organisatorischen Elementen und technologischen Entscheidungen bis hin zur konkreten Auswahl von analytischen Plattformen und Werkzeugen. In der Praxis werden die Ansätze eigentlich immer sinnvoll und kundenspezifisch kombiniert, z.B. eine Data Lakehouse Implementierung mit einem Data Mesh Ansatz bei Organisation und Governance. Wir kennen die kritischen Stellgrößen bei dezentraler Verantwortung und zentralen Supportfunktionen oder Infrastruktur und entwickeln gerne mit ihnen das passende Konzept. Wir nennen das best practice und wissen, dass diese strategischen Entscheidungen weitreichend und relevant für den Projekterfolg sind.

In der Wahl der Technologien und Werkzeuge legen wir größten Wert auf Kostenoptimierung, Skalierbarkeit und Transportabilität, letztere verringert die Abhängigkeit von bestimmten Cloud- und Technologieanbietern.

Auch wenn Modelle wie Data Lake und Data Lakehouse stark durch Cloud-basierte Technologien geprägt sind und die Anbieter primär auf Cloud setzen, haben wir bei DATA MART die Projekterfahrung, diese Architekturen bei Kunden auch vollständig on premises umzusetzen, wenn das durch Kostengründe oder aufgrund von sehr hohen regulatorischen Anforderungen angezeigt ist.

Sprechen sie uns an.