Bevorzugt mit hohem Remote-Anteil
Migration eines größeren Datawarenhouse nach Azure (SSRS / SSIS / Datenbank). Integration von SQL Server Managed Instance. Aufbau Near-Realtime Beladung mit Python, Nifi. Koordination des Betriebs. Tuning der Datenabfragen.
Konzeption und PoC für eines neuen Datawarehouse für ein Dealer-Management-System. Unterstützung eines Softwarehouses bei der Erstellung der Beladungsroutinen und Berichte.
Verantwortung für die Datenbak-Backend Endwicklung für das Projekt Railmate (Real-Time Kundenfeedbackanalysen) im Scrum Modus. Verarbeitung in Near-Real-Time. Migration nach AWS/RDS. Automatisiertes Testverfahren. Deployment Pipelines.
QLEntwicklung von komplexen Datenaufbereitungen zur Beladung der DWH/Reporting Plattform Nemo. Bereitstellung von ETL Transformationen mit SSIS/Stored Procedures mit Ziel AWS/RDS. Automatisiertes Testen mit ReadyAPI/Groovy. Entwicklung von Verfahren zur automatischen Bereitstellung von Testdaten. Erarbeiten von Vorschlägen zur Optimierung und technologischen Absicherung der Plattform im AWS Umfeld. Agile Entwicklungsmethodik im Scrum-Modus.
Redesign der Analyschicht für ein KI-System zur automatischen Verarbeitung und Klasssifizierung von Kundenfeedbacks. Ziel: Reduktion der internen Komplexität und Steigerung der Verarbeitungsgeschwindigkeit und Sicherheit. Tägliche Verarbeitung von mehreren Millionen Datensätzen.
Unterstützung der Entwicklungsteams beim SQL-Tuning.
Entwicklung der Architektur für Fast- und Slow-Lane. Kafka, NiFI,
Spark Streaming, SQL Server 2019 Big Data Cluster.
Architekturberatung für den Aufbau des Datenbank-Backends für eine Erweiterung des DB-Navigators zur Ermittlung von Zuginformationen. Aufbau und Adminstration der AWS-RDS Infrastruktur. Umsetzung von SQL-Prozeduren. Monitoring mit Grafana. Durchführung Bedrohungsanalyse. Performance Tuning für 48 Millionen User.
Konzeption und Aufbau des neuen Datamarts. Anbindung von über 20 Datenquellen aus den verschiedenen Quellbereichen: Technik / Vertrieb / Kundenfeedback. Generierung einer KPI-Sicht auf die Daten. Aufbau Monitoring Mobilfunkversorgung im ICE-Netz Unterstützung der Entwicklungsteams bei SQL-Tuning und Optimierung Migration in AWS Cloud Spark / Spark Streaming Entwicklung. Automatische Testverfahren.
Datenmodellierung, Konzeption der Beladungsverfahren
Umsetzung der täglichen Beladung von Plandaten und Ist-Daten ( DeStatis/Eurostat) sowie Preis-Informationen.
Detailanalyse der aktuellen DWH Lösung. Offloading einer großen Verarbeitungsstrecke in die Big Data Cloud.
Verschlüsselungsverfahren. Umsetzung MVP Lösung mit AWS/Cloudera/Spark. Volumen 22 Mrd Datensätze. Durchführung im Scrum Modus.
Festlegung der Fachbereichsanforderungen für die Entwickler. Detailsteuerung der Entwicklung im Scrum Modus.
Konzeption und Programmierung eines Verfahrens zur automatisierten Erstellung einer DWH-Schicht für die Analyse von Events im DSL Anbieterwechselprozess. Scrum Vorgehen mit Jira Scrum Board
Interimistische Vertretung des technischen Leads. Review des Systems zur Abwicklung der Werbemailings für die Deutsche Bahn. Entwicklung von Stored Procedures für Transformations- und Qualitätsprozesse.
Technische Projektleitung bei der Einführung von Attunity Replicate mit dem Ziel Daten Near-Realtime im Datawarehouse zur Verfügung zu stellen. Migration DWH auf 12c. Prüfung des Einsatzes von GoldenGate. Koordination von internen und Mitarbeitern.
Räumliche Analyse von Mobilfunk CDR Datensätzen durch Verschneidung mit technischen Logs als Grundlage für die Netzwerkplanung. Aufgrund großer Datenmengen (> 100 Millionen Sätze pro Tag) Umsetzung auf BigData Plattform mit Hadoop / Hive / Oracle. Erarbeitung strategische Weiterentwicklung der Big Data Plattform (Spark / Tez / Pig / Sqoop / Oozie ).
Leitung des DWH-Migrationsprojektes nach einem Merger und folgenden CRM-Zusammenführung (Siebel / Salcus). Integration WITA. Detailabklärung mit dem Fachbereich, Abstimmung des technischen Designs, Steuerung des Umsetzungsteams (lokal und nearshore in Minsk). Umsetzung in Cognos Reports und Cubes / Oracle Pl/SQL. Planung 2016 (Budget u. Scope)
Technical Lead Analyse großes Berichtssystem (SSRS / SharePoint) mit über 5000 Benutzern. Erarbeitung von Vorschlägen für verbesserte Verfahren für Datenmodellierung, Cubestrukturierung, Reportaufbau. Effiziente dynamische Security für große Benutzergruppen im Cube. Optimierung von Cube Caching und Partitionierung. Hardware Sizing für DWH Hub in Asien.
Umsetzung der Datenmigration für internationalen Rollout SAP B1, Microsoft Dynamics CRM (12 Länder) auf Basis SQL-Server. Anpassung Reports. Entwicklung internationales Datawarehouse und multidimensionales Reportingsystem auf Basis Microsoft SQL-Server. Evaluation Qlik. Migration BI Cubes auf SSIS/SSAS SQL-Server 2014. Power Query / Power BI. Interimistisch Verantwortung für den Bereich IT-Services.
Aufbau eines Systems zur gesamthaften Darstellung der Kennzahlen für den Bereitstellungs- und Entstörungsprozesses der Telekom Deutschland auf Geschäftsleitungsebene.
Steuerung der Konzeption (FSL/FSS), Schnittstellendefinition, Abstimmung mit dem Fachbereich, Koordination des Umsetzungsteams (Nearshore), Konzeption und Durchführung Systemübergreifenden Abnahme- und Clustertest. (Oracle PL/SQL, HP Quality-Center)
Erstellung der Fachspezifikation IT Lösung für das Multidimensionale Reporting zum neuen Anbieterwechselprozess. (Oracle, Cognos, Essbase);
Erstellung eines Systems zur zeitnahen Ermittlung des Umsatzes aus Abrechnungsdaten um Forecasts des Gesamtumsatzes zu verifizieren. (Oracle PL/SQL). Evaluierung verschiedener statistischer Verfahren.
Vorgehen nach neuem Entwicklungsmodell BIC. Abstimmung mit dem Fachbereich. Detaildokumentation der ETL-Prozesse. Erstellung von automatisierten Testprozessen. (FitNesse)
Sehr hohes Datenvolumen (Einzelverbindungdaten)
Systembetreuung und Betrieb. Umsetzung von Hot-Fixes in Cognos / Oracle.
Erstellung der Anforderungspezifikation (AS) für Berichtssystem Order-Tracking Geschäftskunden nach neuem Vorgehensmodell (gewerkfähig). Basis: CRM-T (Siebel)
Erstellung der Fachspezifikation IT-Lösung (FSL) für Berichtssystem Buchungsquote zur Reduzierung von Außendiensteinsätzen.
Projektleitung Betriebseinführung Datawarehouse Prozesse (Telekom Deutschland)
Einführung von Verfahren und Standards für den effizienten Betrieb des Datawarehouses
d.h. für Testumgebungen, Anonymisierung, Deploymentprozess, Dokumentation, Source-Verwaltung, Ablaufsteuerung, Ticketbearbeitung.
Systemumgebung: Oracle, Cognos, Essbase, Subversion
Steuerung von 3 Mitarbeitern
Projektlaufzeit: 5 Monate, August bis Dezember 2010
Interim-Steuerung der BI Projekte im Bereich Analytisches CRM:
Konzeptreviews, Abstimmung und Koordination der internen und externen Dienstleister
(Cognos / DB2).
Projektlaufzeit: 7 Monate, Januar - Juli 2010
Konzeption, Aufbau und Optimierung eines neuen Berichtssystems für die übergreifende Auftragsverfolgung im Bereich Konzernweite Qualitätssicherung. Sehr großes Datenvolumen, hohe Systemkomplexität.
Aufgaben: Anforderungsanalyse, DV-Konzeption Umsetzung, Test und Übergabe an den Fachbereich.
Aufgrund der hohen Datenmengen (ca. 4 Mio Statusmeldungen pro Tag) umfangreiches Tuning in der Oracle-Umsetzungsschicht (Oracle 10 g R2), PL/SQL Umsetzung, Test.
Visualisierung über Cognos und Essbase Frontends.
Rolle: Technical Lead Analyst mit Umsetzungsverantwortung für Oracle
Systemumgebung: Oracle, Cognos (Reporting), Essbase (Olap)
Projektlaufzeit: 12 Monate, Januar ? Dezember 2009
Automatisierte Analyse von XML-Strukturen von 300.000 Cognos Berichten in DB2 9.5
Projektlaufzeit: 2 Monate, Rolle: Analyst und Entwickler
Analyse der Konsequenzen aus der Systemumstellung des führenden Systems für die nachgelagerten BI-Prozesse. Insbesondere: ETL-Definition, Design des Data-Warehouses/der Data-Marts und der Berichtsbereitstellung. Dokumentation, Umsetzung der notwendigen Änderungen.
Systemumgebung: Sagent, Erwin, DB2, Cognos 8 Reporting Net, Cognos Powerplay; Host/AIX/Windows.
Projektlaufzeit: 7 Monate, Rolle: Senior Analyst
Aufbau neuer zentraler Datamart für weltweites Kennzahlensystem (50 Landesorganisationen)
Konsolidierung, Aufbereitung mit MS Analysis Services, Berichtsbereitstellung mit MS Reporting-Services an die kaufmännischen Landesverantwortlichen und dem zentralen Controlling.
Auswahl der technischen Umgebung, Design und Umsetzung
Systemumgebung: SQL-Server (SSIS, SSAS, SSRS)
Projektlaufzeit: 1 Jahr, Rolle: Projektleiter.
Abziehen der täglichen Verkäufe/Retouren der Läden in einen Data Mart, Ermittlung der relevanten Kennzahlen, Bereitstellung per Online Bericht.
Systemumgebung: SQL-Server (SSIS, SSAS, SSRS)
Projektlaufzeit: 4 Monate, Rolle: Projektleiter und Senior Entwickler
Umstellung OLAP Berichtswesen für ein Direktvertriebsunternehmen (ca. 1 Mio Verkaufstransaktionen p.a.) von Cognos Version 7 auf die SQL-Server2005 Plattform.
ETL Prozess der Verkaufstransaktionen aus AS/400 Vorsystem in das neue Data-Warehouse mit MS Integration-Services, Aufbereitung der Kennzahlen mit MS Analysis Services entsprechend der Vertriebsstruktur / der dynamischen Kundenklassifikation/der Kundenherkunft etc., Bereitstellung (online, PDF, Mail) für die entsprechenden Vertriebsmitarbeiter über das MS Reporting-Services Frontend.
Systemumgebung: AS/400, Cognos 7, SQL-Server (SSIS, SSAS, SSRS)
Projektlaufzeit 1,5 Jahre, Rolle: technischer Projektleiter (Entwicklung des Architekturkonzepts, Programmierung Proof-of-Concept Prototyp, Betreuung der Umsetzung)
Leitung des internationalen Auswahl und Einführungsprojektes für die WIV-AG mit Fokus auf CRM und Lagerverwaltung.
Dipl. Informatiker mit Nebenfach Wirtschaftswissenschaften
Technische Universität München
Diplomarbeit im Bereich Machine Learning
Weiterbildung
2019
Azure Databricks Training
2018
Spark Training
2017
Amazon AWS Online Trainings
2016
MicroStrategy, Advanced Reporting
2012, 2013, 2015
Teilnahme TDWI Data Warehouse-Konferenz
2014
2012
2011
TDWI In-Depth Education: Data Analysis and Design for BI and Warehousing Systems; Advanced Data Modeling Techniques (by John O?Brien)
2009, 2010
Teilnahme CognosPerformance
Langjähriges Mitglied der Deutschen Gesellschaft für Projektmanagement GPM
Aktives Mitglied der Professional Association for SQL Server - PASS Deutschland
Entwicklung:
ERP:
Prozessanalyse:
Projektmanagement:
Nach einer IT-Karriere in Forschung, Beratung, IT-Projektleitung, IT-Leitung
Seit 2008
Selbständiger IT Berater im Bereich Business Intelligence
Typische Projekte:
Auszug aus der Kundenliste:
Telekom Deutschland, Volksbanken/Raiffeisenbanken - Fiducia IT, Capgemini, Telefonica,
Jos. Schneider Optische Werke, Bayer AG, DB Fernverkehr
Vorträge / Veröffentlichungen (Auszug):
Telekommunikation, Banken, Loistik, Pharma, Produktionsunternehmen, Handel, Werbung
Bevorzugt mit hohem Remote-Anteil
Migration eines größeren Datawarenhouse nach Azure (SSRS / SSIS / Datenbank). Integration von SQL Server Managed Instance. Aufbau Near-Realtime Beladung mit Python, Nifi. Koordination des Betriebs. Tuning der Datenabfragen.
Konzeption und PoC für eines neuen Datawarehouse für ein Dealer-Management-System. Unterstützung eines Softwarehouses bei der Erstellung der Beladungsroutinen und Berichte.
Verantwortung für die Datenbak-Backend Endwicklung für das Projekt Railmate (Real-Time Kundenfeedbackanalysen) im Scrum Modus. Verarbeitung in Near-Real-Time. Migration nach AWS/RDS. Automatisiertes Testverfahren. Deployment Pipelines.
QLEntwicklung von komplexen Datenaufbereitungen zur Beladung der DWH/Reporting Plattform Nemo. Bereitstellung von ETL Transformationen mit SSIS/Stored Procedures mit Ziel AWS/RDS. Automatisiertes Testen mit ReadyAPI/Groovy. Entwicklung von Verfahren zur automatischen Bereitstellung von Testdaten. Erarbeiten von Vorschlägen zur Optimierung und technologischen Absicherung der Plattform im AWS Umfeld. Agile Entwicklungsmethodik im Scrum-Modus.
Redesign der Analyschicht für ein KI-System zur automatischen Verarbeitung und Klasssifizierung von Kundenfeedbacks. Ziel: Reduktion der internen Komplexität und Steigerung der Verarbeitungsgeschwindigkeit und Sicherheit. Tägliche Verarbeitung von mehreren Millionen Datensätzen.
Unterstützung der Entwicklungsteams beim SQL-Tuning.
Entwicklung der Architektur für Fast- und Slow-Lane. Kafka, NiFI,
Spark Streaming, SQL Server 2019 Big Data Cluster.
Architekturberatung für den Aufbau des Datenbank-Backends für eine Erweiterung des DB-Navigators zur Ermittlung von Zuginformationen. Aufbau und Adminstration der AWS-RDS Infrastruktur. Umsetzung von SQL-Prozeduren. Monitoring mit Grafana. Durchführung Bedrohungsanalyse. Performance Tuning für 48 Millionen User.
Konzeption und Aufbau des neuen Datamarts. Anbindung von über 20 Datenquellen aus den verschiedenen Quellbereichen: Technik / Vertrieb / Kundenfeedback. Generierung einer KPI-Sicht auf die Daten. Aufbau Monitoring Mobilfunkversorgung im ICE-Netz Unterstützung der Entwicklungsteams bei SQL-Tuning und Optimierung Migration in AWS Cloud Spark / Spark Streaming Entwicklung. Automatische Testverfahren.
Datenmodellierung, Konzeption der Beladungsverfahren
Umsetzung der täglichen Beladung von Plandaten und Ist-Daten ( DeStatis/Eurostat) sowie Preis-Informationen.
Detailanalyse der aktuellen DWH Lösung. Offloading einer großen Verarbeitungsstrecke in die Big Data Cloud.
Verschlüsselungsverfahren. Umsetzung MVP Lösung mit AWS/Cloudera/Spark. Volumen 22 Mrd Datensätze. Durchführung im Scrum Modus.
Festlegung der Fachbereichsanforderungen für die Entwickler. Detailsteuerung der Entwicklung im Scrum Modus.
Konzeption und Programmierung eines Verfahrens zur automatisierten Erstellung einer DWH-Schicht für die Analyse von Events im DSL Anbieterwechselprozess. Scrum Vorgehen mit Jira Scrum Board
Interimistische Vertretung des technischen Leads. Review des Systems zur Abwicklung der Werbemailings für die Deutsche Bahn. Entwicklung von Stored Procedures für Transformations- und Qualitätsprozesse.
Technische Projektleitung bei der Einführung von Attunity Replicate mit dem Ziel Daten Near-Realtime im Datawarehouse zur Verfügung zu stellen. Migration DWH auf 12c. Prüfung des Einsatzes von GoldenGate. Koordination von internen und Mitarbeitern.
Räumliche Analyse von Mobilfunk CDR Datensätzen durch Verschneidung mit technischen Logs als Grundlage für die Netzwerkplanung. Aufgrund großer Datenmengen (> 100 Millionen Sätze pro Tag) Umsetzung auf BigData Plattform mit Hadoop / Hive / Oracle. Erarbeitung strategische Weiterentwicklung der Big Data Plattform (Spark / Tez / Pig / Sqoop / Oozie ).
Leitung des DWH-Migrationsprojektes nach einem Merger und folgenden CRM-Zusammenführung (Siebel / Salcus). Integration WITA. Detailabklärung mit dem Fachbereich, Abstimmung des technischen Designs, Steuerung des Umsetzungsteams (lokal und nearshore in Minsk). Umsetzung in Cognos Reports und Cubes / Oracle Pl/SQL. Planung 2016 (Budget u. Scope)
Technical Lead Analyse großes Berichtssystem (SSRS / SharePoint) mit über 5000 Benutzern. Erarbeitung von Vorschlägen für verbesserte Verfahren für Datenmodellierung, Cubestrukturierung, Reportaufbau. Effiziente dynamische Security für große Benutzergruppen im Cube. Optimierung von Cube Caching und Partitionierung. Hardware Sizing für DWH Hub in Asien.
Umsetzung der Datenmigration für internationalen Rollout SAP B1, Microsoft Dynamics CRM (12 Länder) auf Basis SQL-Server. Anpassung Reports. Entwicklung internationales Datawarehouse und multidimensionales Reportingsystem auf Basis Microsoft SQL-Server. Evaluation Qlik. Migration BI Cubes auf SSIS/SSAS SQL-Server 2014. Power Query / Power BI. Interimistisch Verantwortung für den Bereich IT-Services.
Aufbau eines Systems zur gesamthaften Darstellung der Kennzahlen für den Bereitstellungs- und Entstörungsprozesses der Telekom Deutschland auf Geschäftsleitungsebene.
Steuerung der Konzeption (FSL/FSS), Schnittstellendefinition, Abstimmung mit dem Fachbereich, Koordination des Umsetzungsteams (Nearshore), Konzeption und Durchführung Systemübergreifenden Abnahme- und Clustertest. (Oracle PL/SQL, HP Quality-Center)
Erstellung der Fachspezifikation IT Lösung für das Multidimensionale Reporting zum neuen Anbieterwechselprozess. (Oracle, Cognos, Essbase);
Erstellung eines Systems zur zeitnahen Ermittlung des Umsatzes aus Abrechnungsdaten um Forecasts des Gesamtumsatzes zu verifizieren. (Oracle PL/SQL). Evaluierung verschiedener statistischer Verfahren.
Vorgehen nach neuem Entwicklungsmodell BIC. Abstimmung mit dem Fachbereich. Detaildokumentation der ETL-Prozesse. Erstellung von automatisierten Testprozessen. (FitNesse)
Sehr hohes Datenvolumen (Einzelverbindungdaten)
Systembetreuung und Betrieb. Umsetzung von Hot-Fixes in Cognos / Oracle.
Erstellung der Anforderungspezifikation (AS) für Berichtssystem Order-Tracking Geschäftskunden nach neuem Vorgehensmodell (gewerkfähig). Basis: CRM-T (Siebel)
Erstellung der Fachspezifikation IT-Lösung (FSL) für Berichtssystem Buchungsquote zur Reduzierung von Außendiensteinsätzen.
Projektleitung Betriebseinführung Datawarehouse Prozesse (Telekom Deutschland)
Einführung von Verfahren und Standards für den effizienten Betrieb des Datawarehouses
d.h. für Testumgebungen, Anonymisierung, Deploymentprozess, Dokumentation, Source-Verwaltung, Ablaufsteuerung, Ticketbearbeitung.
Systemumgebung: Oracle, Cognos, Essbase, Subversion
Steuerung von 3 Mitarbeitern
Projektlaufzeit: 5 Monate, August bis Dezember 2010
Interim-Steuerung der BI Projekte im Bereich Analytisches CRM:
Konzeptreviews, Abstimmung und Koordination der internen und externen Dienstleister
(Cognos / DB2).
Projektlaufzeit: 7 Monate, Januar - Juli 2010
Konzeption, Aufbau und Optimierung eines neuen Berichtssystems für die übergreifende Auftragsverfolgung im Bereich Konzernweite Qualitätssicherung. Sehr großes Datenvolumen, hohe Systemkomplexität.
Aufgaben: Anforderungsanalyse, DV-Konzeption Umsetzung, Test und Übergabe an den Fachbereich.
Aufgrund der hohen Datenmengen (ca. 4 Mio Statusmeldungen pro Tag) umfangreiches Tuning in der Oracle-Umsetzungsschicht (Oracle 10 g R2), PL/SQL Umsetzung, Test.
Visualisierung über Cognos und Essbase Frontends.
Rolle: Technical Lead Analyst mit Umsetzungsverantwortung für Oracle
Systemumgebung: Oracle, Cognos (Reporting), Essbase (Olap)
Projektlaufzeit: 12 Monate, Januar ? Dezember 2009
Automatisierte Analyse von XML-Strukturen von 300.000 Cognos Berichten in DB2 9.5
Projektlaufzeit: 2 Monate, Rolle: Analyst und Entwickler
Analyse der Konsequenzen aus der Systemumstellung des führenden Systems für die nachgelagerten BI-Prozesse. Insbesondere: ETL-Definition, Design des Data-Warehouses/der Data-Marts und der Berichtsbereitstellung. Dokumentation, Umsetzung der notwendigen Änderungen.
Systemumgebung: Sagent, Erwin, DB2, Cognos 8 Reporting Net, Cognos Powerplay; Host/AIX/Windows.
Projektlaufzeit: 7 Monate, Rolle: Senior Analyst
Aufbau neuer zentraler Datamart für weltweites Kennzahlensystem (50 Landesorganisationen)
Konsolidierung, Aufbereitung mit MS Analysis Services, Berichtsbereitstellung mit MS Reporting-Services an die kaufmännischen Landesverantwortlichen und dem zentralen Controlling.
Auswahl der technischen Umgebung, Design und Umsetzung
Systemumgebung: SQL-Server (SSIS, SSAS, SSRS)
Projektlaufzeit: 1 Jahr, Rolle: Projektleiter.
Abziehen der täglichen Verkäufe/Retouren der Läden in einen Data Mart, Ermittlung der relevanten Kennzahlen, Bereitstellung per Online Bericht.
Systemumgebung: SQL-Server (SSIS, SSAS, SSRS)
Projektlaufzeit: 4 Monate, Rolle: Projektleiter und Senior Entwickler
Umstellung OLAP Berichtswesen für ein Direktvertriebsunternehmen (ca. 1 Mio Verkaufstransaktionen p.a.) von Cognos Version 7 auf die SQL-Server2005 Plattform.
ETL Prozess der Verkaufstransaktionen aus AS/400 Vorsystem in das neue Data-Warehouse mit MS Integration-Services, Aufbereitung der Kennzahlen mit MS Analysis Services entsprechend der Vertriebsstruktur / der dynamischen Kundenklassifikation/der Kundenherkunft etc., Bereitstellung (online, PDF, Mail) für die entsprechenden Vertriebsmitarbeiter über das MS Reporting-Services Frontend.
Systemumgebung: AS/400, Cognos 7, SQL-Server (SSIS, SSAS, SSRS)
Projektlaufzeit 1,5 Jahre, Rolle: technischer Projektleiter (Entwicklung des Architekturkonzepts, Programmierung Proof-of-Concept Prototyp, Betreuung der Umsetzung)
Leitung des internationalen Auswahl und Einführungsprojektes für die WIV-AG mit Fokus auf CRM und Lagerverwaltung.
Dipl. Informatiker mit Nebenfach Wirtschaftswissenschaften
Technische Universität München
Diplomarbeit im Bereich Machine Learning
Weiterbildung
2019
Azure Databricks Training
2018
Spark Training
2017
Amazon AWS Online Trainings
2016
MicroStrategy, Advanced Reporting
2012, 2013, 2015
Teilnahme TDWI Data Warehouse-Konferenz
2014
2012
2011
TDWI In-Depth Education: Data Analysis and Design for BI and Warehousing Systems; Advanced Data Modeling Techniques (by John O?Brien)
2009, 2010
Teilnahme CognosPerformance
Langjähriges Mitglied der Deutschen Gesellschaft für Projektmanagement GPM
Aktives Mitglied der Professional Association for SQL Server - PASS Deutschland
Entwicklung:
ERP:
Prozessanalyse:
Projektmanagement:
Nach einer IT-Karriere in Forschung, Beratung, IT-Projektleitung, IT-Leitung
Seit 2008
Selbständiger IT Berater im Bereich Business Intelligence
Typische Projekte:
Auszug aus der Kundenliste:
Telekom Deutschland, Volksbanken/Raiffeisenbanken - Fiducia IT, Capgemini, Telefonica,
Jos. Schneider Optische Werke, Bayer AG, DB Fernverkehr
Vorträge / Veröffentlichungen (Auszug):
Telekommunikation, Banken, Loistik, Pharma, Produktionsunternehmen, Handel, Werbung