Entwicklung und Erstellung eines neuen Data Warehouse (DWH)
- auf Basis der Cloud-Datenbank Snowflake und
- Migration der alten DWH-Prozesse auf die neue Architektur
Schritte:
1. Analyse der bestehenden Data Warehouses (Sql Server)
2. Planung und Umsetzung der Architektur des neues Snowflake DWH
3. Migration der bestehenden Prozesse des alten DWH
4. Erweiterung um neue KPIs, Datenflüsse und DWH-Funktionalitäten
Migration der Daten und die Datenflüsse (Verarbeitungslogik) einzelner Themen-Komplexe wie Bilanz-/-Controllingdaten:
1. Analyse der Datenverarbeitungs-/Fachlogik des alten Data Warehouses (Oracle Warehouse Builder)
2. Intelligente Umsetzung der Logik im neuen Data Warehouse (BigQuery) mit Hilfe von Matillion ETL, d. h. sinnvolle Erweiterung sowie Vereinfachung der alten Fachlogik.
3. Erweiterung der Datenpipeline im neuen DWH durch zusätzliche Anforderungen.
Position: Data Warehouse-Architekt / ETL-Entwickler
Die Planung der Architektur eines DWHs, die für alle Datenflüsse / Data pipelines (von verschiedenen Quelldaten/-bank bis Zieldaten-/bank) gilt.
Die Umsetzung der DWH-Architektur mit Ziel eines automatisierten Verarbeitung (ETL) aller relevanten Quelldaten zu diversen Zielsystemen wie Reporting- und Analytics-Tools.
Die Erweiterung eines bestehenden Data Warehouses um neue Daten bzw. Datenflüsse, KPIs und sonstige ETL-Prozesse.
Entwicklung und Erstellung eines neuen Data Warehouse (DWH)
- auf Basis der Cloud-Datenbank Snowflake und
- Migration der alten DWH-Prozesse auf die neue Architektur
Schritte:
1. Analyse der bestehenden Data Warehouses (Sql Server)
2. Planung und Umsetzung der Architektur des neues Snowflake DWH
3. Migration der bestehenden Prozesse des alten DWH
4. Erweiterung um neue KPIs, Datenflüsse und DWH-Funktionalitäten
Migration der Daten und die Datenflüsse (Verarbeitungslogik) einzelner Themen-Komplexe wie Bilanz-/-Controllingdaten:
1. Analyse der Datenverarbeitungs-/Fachlogik des alten Data Warehouses (Oracle Warehouse Builder)
2. Intelligente Umsetzung der Logik im neuen Data Warehouse (BigQuery) mit Hilfe von Matillion ETL, d. h. sinnvolle Erweiterung sowie Vereinfachung der alten Fachlogik.
3. Erweiterung der Datenpipeline im neuen DWH durch zusätzliche Anforderungen.
Position: Data Warehouse-Architekt / ETL-Entwickler
Die Planung der Architektur eines DWHs, die für alle Datenflüsse / Data pipelines (von verschiedenen Quelldaten/-bank bis Zieldaten-/bank) gilt.
Die Umsetzung der DWH-Architektur mit Ziel eines automatisierten Verarbeitung (ETL) aller relevanten Quelldaten zu diversen Zielsystemen wie Reporting- und Analytics-Tools.
Die Erweiterung eines bestehenden Data Warehouses um neue Daten bzw. Datenflüsse, KPIs und sonstige ETL-Prozesse.