IT-Berater & Teamleiter | Spezialist für Business Intelligence, Big Data & Datenstrategien
Aktualisiert am 27.11.2024
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 01.11.2024
Verfügbar zu: 100%
davon vor Ort: 20%
MS SQL Datenbanken
ETL
Datenanalyse
Projektleitung
Programmmanagement
Cloud
Kafka
Teamleading
MS Azure SQL Database
Deutsch
Englisch

Einsatzorte

Einsatzorte

Brackenheim (+500km) Zürich (+500km) Hamburg (+500km) Wien (+500km) Berlin (+500km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

1 Jahr 11 Monate
2022-04 - 2024-02

Big Data Plattform und Infrastruktur Services

Teamleiter
Teamleiter
Führung und strategische Entwicklung eines Teams von 11 Big-Data-Ingenieuren, inklusive der Planung und Umsetzung von Personalentwicklungsmaßnahmen. Durchführung detaillierter Planungen des Personaleinsatzes, um eine optimale Kapazitätsauslastung und eine hohe Mitarbeiterzufriedenheit zu gewährleisten. Strategische Neuausrichtung des Teams auf die neuesten Technologietrends, einschließlich der Evaluierung innovativer Big-Data-Tools. Sicherstellung der Projektqualität und Einhaltung von Fristen durch regelmäßige Überwachung und Anpassung der Projektmanagementmethoden.
  • Erfolgreiche Steigerung der Produktivität des Teams um 20 %, was zu einer erhöhten Auslastung der Mitarbeiter führte
  • Förderung des Austauschs mit Herstellern zur Evaluierung innovativer Big-Data-Tools und Erkundung technologischer Partnerschaften
SYSTEM VERTRIEB ALEXANDER GMBH
4 Jahre 2 Monate
2020-01 - 2024-02

Leitung eines multidisziplinären Teams

Programmmanager
Programmmanager
Leitung eines multidisziplinären Teams, bestehend aus 50 Big Data-Ingenieuren und IT Service-Mitarbeitern, im Kontext der Automobilindustrie. Effektive Steuerung und Realisierung mehrerer gleichzeitig laufender Smart-Factory-Projekte, von der Konzeption bis zur Fertigstellung. Entwicklung von Methoden zur Optimierung der Arbeitsabläufe und Förderung der Zusammenarbeit zwischen den verschiedenen Fachbereichen. Gewährleistung der Projektqualität und -performance durch regelmäßige Bewertungen und Anpassungen. Einführung innovativer Lösungen zur Unterstützung der digitalen Transformation in Produktionsstätten.
  • Umsetzung von Schlüsselprojekten mit einem Volumen von bis zu 3 Mio. Euro p.a., die maßgeblich zur Digitalisierung im Automotive-Bereich beitragen
  • Implementierung einer Smart-Factory-Plattform zur Digitalisierung der Automobilproduktion, gesteuert nach agilen Methoden
  • Erzielung herausragender Ergebnisse in der Projektumsetzung durch die Integration von Big-Data-Technologien und IT-Support
SYSTEM VERTRIEB ALEXANDER GMBH
5 Jahre
2019-01 - 2023-12

Entwicklung und Implementierung einer Smart Factory Plattform

Big Data Engineer, Projektleiter und Programmmanager SQL Scrum Projektleitung ...
Big Data Engineer, Projektleiter und Programmmanager

  • Entwicklung und Implementierung einer Smart Factory Plattform zur Digitalisierung des Shopfloors in einer Automobilproduktion
  • Erhebung der fachlichen und technischen Anforderungen des Auftraggebers zur optimalen Gestaltung der digitalen Shopfloor-Lösung
  • Projektsteuerung auf Seiten des Dienstleisters unter Einsatz agiler Methoden, um eine flexible und iterative Umsetzung sowie regelmäßige Anpassungen an die Bedürfnisse des Auftraggebers sicherzustellen
  • Technische Implementierung der Smart Factory Plattform, einschließlich der Integration moderner Technologien zur Digitalisierung und Optimierung von Produktionsprozessen

Kafka MinIo LakeFS Spark Elasticsearch MS SQL Datenbanken MS Power BI
SQL Scrum Projektleitung Stakeholdermanagement
Gaggenau
2 Jahre 1 Monat
2018-01 - 2020-01

Entwurf und Realisierung von High-Performance-Streaming-Plattformen

Big Data Engineer
Big Data Engineer
Entwurf und Realisierung von High-Performance-Streaming-Plattformen unter Einsatz von Apache Kafka. Analyse und Verbesserung von Datenflüssen zur Steigerung der Effizienz in der Echtzeitdatenverarbeitung. Durchführung von Skalierbarkeitsstudien zur Sicherstellung der Leistungsfähigkeit von Streaming-Diensten. Entwicklung von Best Practices für die Nutzung von Apache Kafka in großen Datenökosystemen. Koordination mit IT-Sicherheitsteams zur Gewährleistung der Integrität und Sicherheit von Streaming Daten. Evaluierung neuer Technologien und Tools zur Erweiterung und Verbesserung der Streaming-Architektur.
  • Beitrag zur signifikanten Leistungsverbesserung der Dateninfrastruktur um 30 %, was die Verarbeitungsgeschwindigkeit und Analysefähigkeit verbesserte
  • Konzeption und Implementierung eines Confluent Kafka Clusters in der AWS-Cloud, inklusive Migration bestehender Apache Kafka Topics und effizientem Betrieb des Systems
SYSTEM VERTRIEB ALEXANDER GMBH
1 Jahr 1 Monat
2018-01 - 2019-01

Aufbau eines Confluent Kafka Clusters in der AWS in der Automobilindustrie

Big Data Engineer Scrum Ansible Terraform
Big Data Engineer

  • Migration von Apache Kafka On-Premises Topics auf die neue Confluent Kafka Lösung in der AWS Cloud, wobei alle relevanten Topics und Konfigurationen reibungslos in die Cloud überführt wurden.
  • Entwicklung und Umsetzung der Confluent Kafka Infrastruktur in der AWS Cloud, einschließlich Einrichtung, Skalierung und Konfiguration des Kafka Clusters, um den Anforderungen des Produktionsbetriebs gerecht zu werden.
  • Sicherstellung des laufenden Betriebs des Confluent Kafka Clusters durch kontinuierliche Überwachung, Wartung und Optimierung, einschließlich Verwaltung von Topics, Sicherstellung der Datenverfügbarkeit und Monitoring der Systemleistung.
  • Konzeption/Implementierung einer Confluent Kafka Lösung in der AWS Cloud
  • Migration von Apache Kafka On-Premises Topics auf die Confluent Kafka Lösung
  • Betrieb des Confluent Kafka Clusters

Kafka AWS New Relic
Scrum Ansible Terraform
Stuttgart
1 Jahr 7 Monate
2016-06 - 2017-12

Projektarbeit zum Aufbau eines Data Warehouse für das Controlling

Business Intelligence Consultant SQL
Business Intelligence Consultant

  • Erhebung und Modellierung der fachlichen Anforderungen an das Data Warehouse, um sicherzustellen, dass die Controlling-Daten optimal erfasst und strukturiert werden, um eine fundierte Datenanalyse und Berichterstellung zu ermöglichen
  • Umsetzung der ermittelten Anforderungen im Data Warehouse durch die Entwicklung passender Datenmodelle und Implementierung der benötigten Strukturen, um eine effiziente und zuverlässige Datenspeicherung und -nutzung zu gewährleisten
  • Definition und Implementierung von ETL-Prozessen zur Extraktion, Transformation und Ladung von Daten aus verschiedenen Quellen, um konsistente, saubere und verlässliche Daten für die Berichterstattung im Controlling bereitzustellen
  • Eingesetzte Technologien umfassten Microsoft SQL Server 2014, Microsoft Access und Microsoft SSIS, die zur Verarbeitung und Integration der Daten sowie zur Sicherstellung der Systemperformance und Skalierbarkeit verwendet wurden
  • Migration von ETL-Prozessen (IBM Data Manager auf SAP Data Services)
  • Installation und Konfiguration der Infrastruktur

MS SQL Datenbanken MS SSIS Microsoft Access MS Excel
SQL
Medizintechnikhersteller
Hamburg
2 Jahre
2016-01 - 2017-12

Definition und Implementierung von ETL-Prozessen

Business Intelligence Consultant SQL Data Modeling
Business Intelligence Consultant

  • Erhebung und Modellierung der fachlichen Anforderungen an das Data Warehouse, um sicherzustellen, dass die Datenstrukturen den Geschäftsanforderungen entsprechen und eine fundierte Entscheidungsfindung unterstützen
  • Umsetzung der modellierten Anforderungen im Data Warehouse durch den Aufbau geeigneter Datenmodelle, um eine effiziente Speicherung und Verarbeitung der Daten zu gewährleisten
  • Migration von ETL-Prozessen, einschließlich der Überführung bestehender ETL-Jobs von IBM Data Manager auf SAP Data Services, um eine reibungslose und optimierte Datenintegration sicherzustellen
  • Installation und Konfiguration der gesamten Infrastruktur für das Data Warehouse, einschließlich der Datenbankserver und Netzwerkkomponenten, um eine stabile und performante Umgebung für die Datenverarbeitung zu schaffen

SAP HANA SAP Data Services SAP SLT
SQL Data Modeling
Medizintechnik
Rastatt
1 Jahr
2016-01 - 2016-12

Projektarbeit zum Aufbau eines Data Warehouse für das Fleetboard-Controlling

Business Intelligence Consultant SQL
Business Intelligence Consultant

  • Erhebung und Modellierung der fachlichen Anforderungen an das Data Warehouse, um die spezifischen Datenbedarfe des Fleetboard-Controllings zu erfassen und in eine strukturierte Datenarchitektur zu überführen
  • Umsetzung der Anforderungen im Data Warehouse, indem die notwendigen Datenmodelle und -strukturen entwickelt und implementiert wurden, um die Datenverfügbarkeit und -nutzung für das Controlling zu optimieren
  • Entwicklung von ETL-Prozessen zur effizienten Extraktion, Transformation und Ladung der Daten, um eine konsistente und verlässliche Datenbasis im Data Warehouse sicherzustellen
  • Migration von Microsoft SQL Server 2012 auf SQL Server 2014, um die Leistungsfähigkeit und Skalierbarkeit des Data Warehouse zu verbessern und die Infrastruktur auf den neuesten Stand zu bringen
  • Eingesetzte Technologie war Microsoft SQL Server, um eine stabile und leistungsfähige Datenbankumgebung zu gewährleisten

MS SQL Server IBM DataManager MS SSIS
SQL
Stuttgart
2 Jahre 10 Monate
2014-03 - 2016-12

Projektarbeit zum Aufbau eines unternehmensweiten Data Warehouse

Business Analyst SQL Relationales Datenmodell Data Modeling
Business Analyst

  • Erhebung und Modellierung der fachlichen Anforderungen an das Data Warehouse und das Reporting im Bereich Unternehmenssteuerung, um eine zentrale, skalierbare Datenplattform zu schaffen, die die bereichsübergreifende Datennutzung und -analyse optimiert
  • Weiterentwicklung des Datenqualitätsmanagements, um die Datenintegrität, Konsistenz und Verlässlichkeit innerhalb des Data Warehouses sicherzustellen und die Qualität der Unternehmensdaten langfristig zu gewährleisten
  • Fachliche Konzeption für ein automatisiertes Reporting im Bereich Liquiditätsrisiko, um durch automatisierte Prozesse eine effiziente und präzise Überwachung und Berichterstattung der Liquiditätsrisiken zu ermöglichen und dabei regulatorische Anforderungen zu erfüllen
  • Initiierung und Management von Projekten zum Aufbau einer zentralisierten Datenlagerungslösung, die den gesamten Datenbedarf des Unternehmens abdeckt.
  • Systematische Erfassung und Analyse der Geschäftsanforderungen für die Gestaltung des Data-Warehouses und die Optimierung des Berichtswesens. 
  • Implementierung fortgeschrittener Methoden zur Steigerung der Datenqualität, einschließlich regelmäßiger Audits und Korrekturen von Dateninkonsistenzen.
  • Förderung der Zusammenarbeit zwischen Fachabteilungen und IT-Teams, um eine nahtlose Integration und Nutzung des Data-Warehouses zu gewährleisten.

Oracle 11g PowerDesigner Microsoft Access MS Excel MicroStrategy
SQL Relationales Datenmodell Data Modeling
Finanzdienstleister
Schwäbisch Hall

Aus- und Weiterbildung

Aus- und Weiterbildung

Bachelor of Science, Wirtschaftsinformatik

Hochschule der Medien, Stuttgart


Weiterbildungen & Zertifikate:
  • Vom Kollegen zu Führungskraft (Haufe Akademie)
  • Prince 2 Foundation (Axelos Global Best Practice)
  • Certified ScrumMaster (Scrum Alliance)

Position

Position

Ich arbeite als IT-Consultant mit langjähriger Erfahrung in der Leitung und Umsetzung komplexer Projekte im Bereich Business Intelligence, Big Data und Datenstrategien. Meine Schwerpunkte liegen in der strategischen Planung, Koordination und Optimierung von datengetrieben Proessen sowie in der Führung von interdisziplinären Teams zur erfolgreichen Umsetzung von IT-Lösungen.


Ich interessiere mich besonders für Aufgaben, die eine Kombination aus strategischer Verantwortung und technischer Expertise erfordern, wie die Entwicklung und Leitung moderner Datenarchitekturen, die Optimierung von BI-Prozessen auf Unternehmensebene oder die Umsetzung innovativer Datenlösungen für geschäftskritische Entscheidungen.

Kompetenzen

Kompetenzen

Top-Skills

MS SQL Datenbanken ETL Datenanalyse Projektleitung Programmmanagement Cloud Kafka Teamleading MS Azure SQL Database

Produkte / Standards / Erfahrungen / Methoden

Profil:

Dynamischer Führungsexperte für Big Data Engineering und Programmmanagement mit einer starken Erfolgsbilanz bei der effektiven Verwaltung und Umsetzung von Smart-Factory-Projekten in der Automobilbranche. Spezialisiert auf die Entwicklung und Optimierung von Business Intelligence, sowie die Einführung neuer Technologien für Streaming- und Big-Data-Lösungen als Kernbereiche der digitalen Transformation. Erfahren in der Initiierung und Leitung von Projekten zur Datenspeicherung, -analyse und -visualisierung, die den gesamten Datenbedarf eines Unternehmens abdecken und die Produktivität des Unternehmens steigern. Bewährt in der erfolgreichen Steigerung von Effizienz und Effektivität in multidisziplinären Teams durch agile Methoden und Arbeitsweisen.


FACHKOMPETENZEN:

  • Big Data & DWH
  • Datenanalysen
  • Produktmanagement
  • Projektmanagement
  • Stakeholder-Management
  • Cloud-Computing-Lösungen
  • Industrie 4.0
  • Kapazitätsplanung
  • Personalführung & -entwicklung
  • Prozessoptimierung


ZUSÄTZLICHE ERFAHRUNG:

Rolle: Trainee

Kunde: Bausparkasse Schwäbisch Hall


Tools & Software:

  • MS Office 
  • Jira 
  • Apacha Kafka 
  • versch. Data-Warehouses 
  • versch. Cloud Lösungen 
  • MS Power BI

Branchen

Branchen

Banken, Medizintechnik, Automobilindustrie

Einsatzorte

Einsatzorte

Brackenheim (+500km) Zürich (+500km) Hamburg (+500km) Wien (+500km) Berlin (+500km)
Deutschland, Schweiz, Österreich
möglich

Projekte

Projekte

1 Jahr 11 Monate
2022-04 - 2024-02

Big Data Plattform und Infrastruktur Services

Teamleiter
Teamleiter
Führung und strategische Entwicklung eines Teams von 11 Big-Data-Ingenieuren, inklusive der Planung und Umsetzung von Personalentwicklungsmaßnahmen. Durchführung detaillierter Planungen des Personaleinsatzes, um eine optimale Kapazitätsauslastung und eine hohe Mitarbeiterzufriedenheit zu gewährleisten. Strategische Neuausrichtung des Teams auf die neuesten Technologietrends, einschließlich der Evaluierung innovativer Big-Data-Tools. Sicherstellung der Projektqualität und Einhaltung von Fristen durch regelmäßige Überwachung und Anpassung der Projektmanagementmethoden.
  • Erfolgreiche Steigerung der Produktivität des Teams um 20 %, was zu einer erhöhten Auslastung der Mitarbeiter führte
  • Förderung des Austauschs mit Herstellern zur Evaluierung innovativer Big-Data-Tools und Erkundung technologischer Partnerschaften
SYSTEM VERTRIEB ALEXANDER GMBH
4 Jahre 2 Monate
2020-01 - 2024-02

Leitung eines multidisziplinären Teams

Programmmanager
Programmmanager
Leitung eines multidisziplinären Teams, bestehend aus 50 Big Data-Ingenieuren und IT Service-Mitarbeitern, im Kontext der Automobilindustrie. Effektive Steuerung und Realisierung mehrerer gleichzeitig laufender Smart-Factory-Projekte, von der Konzeption bis zur Fertigstellung. Entwicklung von Methoden zur Optimierung der Arbeitsabläufe und Förderung der Zusammenarbeit zwischen den verschiedenen Fachbereichen. Gewährleistung der Projektqualität und -performance durch regelmäßige Bewertungen und Anpassungen. Einführung innovativer Lösungen zur Unterstützung der digitalen Transformation in Produktionsstätten.
  • Umsetzung von Schlüsselprojekten mit einem Volumen von bis zu 3 Mio. Euro p.a., die maßgeblich zur Digitalisierung im Automotive-Bereich beitragen
  • Implementierung einer Smart-Factory-Plattform zur Digitalisierung der Automobilproduktion, gesteuert nach agilen Methoden
  • Erzielung herausragender Ergebnisse in der Projektumsetzung durch die Integration von Big-Data-Technologien und IT-Support
SYSTEM VERTRIEB ALEXANDER GMBH
5 Jahre
2019-01 - 2023-12

Entwicklung und Implementierung einer Smart Factory Plattform

Big Data Engineer, Projektleiter und Programmmanager SQL Scrum Projektleitung ...
Big Data Engineer, Projektleiter und Programmmanager

  • Entwicklung und Implementierung einer Smart Factory Plattform zur Digitalisierung des Shopfloors in einer Automobilproduktion
  • Erhebung der fachlichen und technischen Anforderungen des Auftraggebers zur optimalen Gestaltung der digitalen Shopfloor-Lösung
  • Projektsteuerung auf Seiten des Dienstleisters unter Einsatz agiler Methoden, um eine flexible und iterative Umsetzung sowie regelmäßige Anpassungen an die Bedürfnisse des Auftraggebers sicherzustellen
  • Technische Implementierung der Smart Factory Plattform, einschließlich der Integration moderner Technologien zur Digitalisierung und Optimierung von Produktionsprozessen

Kafka MinIo LakeFS Spark Elasticsearch MS SQL Datenbanken MS Power BI
SQL Scrum Projektleitung Stakeholdermanagement
Gaggenau
2 Jahre 1 Monat
2018-01 - 2020-01

Entwurf und Realisierung von High-Performance-Streaming-Plattformen

Big Data Engineer
Big Data Engineer
Entwurf und Realisierung von High-Performance-Streaming-Plattformen unter Einsatz von Apache Kafka. Analyse und Verbesserung von Datenflüssen zur Steigerung der Effizienz in der Echtzeitdatenverarbeitung. Durchführung von Skalierbarkeitsstudien zur Sicherstellung der Leistungsfähigkeit von Streaming-Diensten. Entwicklung von Best Practices für die Nutzung von Apache Kafka in großen Datenökosystemen. Koordination mit IT-Sicherheitsteams zur Gewährleistung der Integrität und Sicherheit von Streaming Daten. Evaluierung neuer Technologien und Tools zur Erweiterung und Verbesserung der Streaming-Architektur.
  • Beitrag zur signifikanten Leistungsverbesserung der Dateninfrastruktur um 30 %, was die Verarbeitungsgeschwindigkeit und Analysefähigkeit verbesserte
  • Konzeption und Implementierung eines Confluent Kafka Clusters in der AWS-Cloud, inklusive Migration bestehender Apache Kafka Topics und effizientem Betrieb des Systems
SYSTEM VERTRIEB ALEXANDER GMBH
1 Jahr 1 Monat
2018-01 - 2019-01

Aufbau eines Confluent Kafka Clusters in der AWS in der Automobilindustrie

Big Data Engineer Scrum Ansible Terraform
Big Data Engineer

  • Migration von Apache Kafka On-Premises Topics auf die neue Confluent Kafka Lösung in der AWS Cloud, wobei alle relevanten Topics und Konfigurationen reibungslos in die Cloud überführt wurden.
  • Entwicklung und Umsetzung der Confluent Kafka Infrastruktur in der AWS Cloud, einschließlich Einrichtung, Skalierung und Konfiguration des Kafka Clusters, um den Anforderungen des Produktionsbetriebs gerecht zu werden.
  • Sicherstellung des laufenden Betriebs des Confluent Kafka Clusters durch kontinuierliche Überwachung, Wartung und Optimierung, einschließlich Verwaltung von Topics, Sicherstellung der Datenverfügbarkeit und Monitoring der Systemleistung.
  • Konzeption/Implementierung einer Confluent Kafka Lösung in der AWS Cloud
  • Migration von Apache Kafka On-Premises Topics auf die Confluent Kafka Lösung
  • Betrieb des Confluent Kafka Clusters

Kafka AWS New Relic
Scrum Ansible Terraform
Stuttgart
1 Jahr 7 Monate
2016-06 - 2017-12

Projektarbeit zum Aufbau eines Data Warehouse für das Controlling

Business Intelligence Consultant SQL
Business Intelligence Consultant

  • Erhebung und Modellierung der fachlichen Anforderungen an das Data Warehouse, um sicherzustellen, dass die Controlling-Daten optimal erfasst und strukturiert werden, um eine fundierte Datenanalyse und Berichterstellung zu ermöglichen
  • Umsetzung der ermittelten Anforderungen im Data Warehouse durch die Entwicklung passender Datenmodelle und Implementierung der benötigten Strukturen, um eine effiziente und zuverlässige Datenspeicherung und -nutzung zu gewährleisten
  • Definition und Implementierung von ETL-Prozessen zur Extraktion, Transformation und Ladung von Daten aus verschiedenen Quellen, um konsistente, saubere und verlässliche Daten für die Berichterstattung im Controlling bereitzustellen
  • Eingesetzte Technologien umfassten Microsoft SQL Server 2014, Microsoft Access und Microsoft SSIS, die zur Verarbeitung und Integration der Daten sowie zur Sicherstellung der Systemperformance und Skalierbarkeit verwendet wurden
  • Migration von ETL-Prozessen (IBM Data Manager auf SAP Data Services)
  • Installation und Konfiguration der Infrastruktur

MS SQL Datenbanken MS SSIS Microsoft Access MS Excel
SQL
Medizintechnikhersteller
Hamburg
2 Jahre
2016-01 - 2017-12

Definition und Implementierung von ETL-Prozessen

Business Intelligence Consultant SQL Data Modeling
Business Intelligence Consultant

  • Erhebung und Modellierung der fachlichen Anforderungen an das Data Warehouse, um sicherzustellen, dass die Datenstrukturen den Geschäftsanforderungen entsprechen und eine fundierte Entscheidungsfindung unterstützen
  • Umsetzung der modellierten Anforderungen im Data Warehouse durch den Aufbau geeigneter Datenmodelle, um eine effiziente Speicherung und Verarbeitung der Daten zu gewährleisten
  • Migration von ETL-Prozessen, einschließlich der Überführung bestehender ETL-Jobs von IBM Data Manager auf SAP Data Services, um eine reibungslose und optimierte Datenintegration sicherzustellen
  • Installation und Konfiguration der gesamten Infrastruktur für das Data Warehouse, einschließlich der Datenbankserver und Netzwerkkomponenten, um eine stabile und performante Umgebung für die Datenverarbeitung zu schaffen

SAP HANA SAP Data Services SAP SLT
SQL Data Modeling
Medizintechnik
Rastatt
1 Jahr
2016-01 - 2016-12

Projektarbeit zum Aufbau eines Data Warehouse für das Fleetboard-Controlling

Business Intelligence Consultant SQL
Business Intelligence Consultant

  • Erhebung und Modellierung der fachlichen Anforderungen an das Data Warehouse, um die spezifischen Datenbedarfe des Fleetboard-Controllings zu erfassen und in eine strukturierte Datenarchitektur zu überführen
  • Umsetzung der Anforderungen im Data Warehouse, indem die notwendigen Datenmodelle und -strukturen entwickelt und implementiert wurden, um die Datenverfügbarkeit und -nutzung für das Controlling zu optimieren
  • Entwicklung von ETL-Prozessen zur effizienten Extraktion, Transformation und Ladung der Daten, um eine konsistente und verlässliche Datenbasis im Data Warehouse sicherzustellen
  • Migration von Microsoft SQL Server 2012 auf SQL Server 2014, um die Leistungsfähigkeit und Skalierbarkeit des Data Warehouse zu verbessern und die Infrastruktur auf den neuesten Stand zu bringen
  • Eingesetzte Technologie war Microsoft SQL Server, um eine stabile und leistungsfähige Datenbankumgebung zu gewährleisten

MS SQL Server IBM DataManager MS SSIS
SQL
Stuttgart
2 Jahre 10 Monate
2014-03 - 2016-12

Projektarbeit zum Aufbau eines unternehmensweiten Data Warehouse

Business Analyst SQL Relationales Datenmodell Data Modeling
Business Analyst

  • Erhebung und Modellierung der fachlichen Anforderungen an das Data Warehouse und das Reporting im Bereich Unternehmenssteuerung, um eine zentrale, skalierbare Datenplattform zu schaffen, die die bereichsübergreifende Datennutzung und -analyse optimiert
  • Weiterentwicklung des Datenqualitätsmanagements, um die Datenintegrität, Konsistenz und Verlässlichkeit innerhalb des Data Warehouses sicherzustellen und die Qualität der Unternehmensdaten langfristig zu gewährleisten
  • Fachliche Konzeption für ein automatisiertes Reporting im Bereich Liquiditätsrisiko, um durch automatisierte Prozesse eine effiziente und präzise Überwachung und Berichterstattung der Liquiditätsrisiken zu ermöglichen und dabei regulatorische Anforderungen zu erfüllen
  • Initiierung und Management von Projekten zum Aufbau einer zentralisierten Datenlagerungslösung, die den gesamten Datenbedarf des Unternehmens abdeckt.
  • Systematische Erfassung und Analyse der Geschäftsanforderungen für die Gestaltung des Data-Warehouses und die Optimierung des Berichtswesens. 
  • Implementierung fortgeschrittener Methoden zur Steigerung der Datenqualität, einschließlich regelmäßiger Audits und Korrekturen von Dateninkonsistenzen.
  • Förderung der Zusammenarbeit zwischen Fachabteilungen und IT-Teams, um eine nahtlose Integration und Nutzung des Data-Warehouses zu gewährleisten.

Oracle 11g PowerDesigner Microsoft Access MS Excel MicroStrategy
SQL Relationales Datenmodell Data Modeling
Finanzdienstleister
Schwäbisch Hall

Aus- und Weiterbildung

Aus- und Weiterbildung

Bachelor of Science, Wirtschaftsinformatik

Hochschule der Medien, Stuttgart


Weiterbildungen & Zertifikate:
  • Vom Kollegen zu Führungskraft (Haufe Akademie)
  • Prince 2 Foundation (Axelos Global Best Practice)
  • Certified ScrumMaster (Scrum Alliance)

Position

Position

Ich arbeite als IT-Consultant mit langjähriger Erfahrung in der Leitung und Umsetzung komplexer Projekte im Bereich Business Intelligence, Big Data und Datenstrategien. Meine Schwerpunkte liegen in der strategischen Planung, Koordination und Optimierung von datengetrieben Proessen sowie in der Führung von interdisziplinären Teams zur erfolgreichen Umsetzung von IT-Lösungen.


Ich interessiere mich besonders für Aufgaben, die eine Kombination aus strategischer Verantwortung und technischer Expertise erfordern, wie die Entwicklung und Leitung moderner Datenarchitekturen, die Optimierung von BI-Prozessen auf Unternehmensebene oder die Umsetzung innovativer Datenlösungen für geschäftskritische Entscheidungen.

Kompetenzen

Kompetenzen

Top-Skills

MS SQL Datenbanken ETL Datenanalyse Projektleitung Programmmanagement Cloud Kafka Teamleading MS Azure SQL Database

Produkte / Standards / Erfahrungen / Methoden

Profil:

Dynamischer Führungsexperte für Big Data Engineering und Programmmanagement mit einer starken Erfolgsbilanz bei der effektiven Verwaltung und Umsetzung von Smart-Factory-Projekten in der Automobilbranche. Spezialisiert auf die Entwicklung und Optimierung von Business Intelligence, sowie die Einführung neuer Technologien für Streaming- und Big-Data-Lösungen als Kernbereiche der digitalen Transformation. Erfahren in der Initiierung und Leitung von Projekten zur Datenspeicherung, -analyse und -visualisierung, die den gesamten Datenbedarf eines Unternehmens abdecken und die Produktivität des Unternehmens steigern. Bewährt in der erfolgreichen Steigerung von Effizienz und Effektivität in multidisziplinären Teams durch agile Methoden und Arbeitsweisen.


FACHKOMPETENZEN:

  • Big Data & DWH
  • Datenanalysen
  • Produktmanagement
  • Projektmanagement
  • Stakeholder-Management
  • Cloud-Computing-Lösungen
  • Industrie 4.0
  • Kapazitätsplanung
  • Personalführung & -entwicklung
  • Prozessoptimierung


ZUSÄTZLICHE ERFAHRUNG:

Rolle: Trainee

Kunde: Bausparkasse Schwäbisch Hall


Tools & Software:

  • MS Office 
  • Jira 
  • Apacha Kafka 
  • versch. Data-Warehouses 
  • versch. Cloud Lösungen 
  • MS Power BI

Branchen

Branchen

Banken, Medizintechnik, Automobilindustrie

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.