Generative AI, Big Data, Advavanced Analytics, Internet of Thing (IoT)
Aktualisiert am 12.08.2024
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 12.08.2024
Verfügbar zu: 100%
davon vor Ort: 100%
Big Data
Advanced Analytics
IoT
Big Data Analytics
Apache Hadoop
Hive
Python
Java
C++
Microsoft Azure
Microsoft Azure SQL Database
Oracle/SQL
AWS
Kafka
Event Hubs
AI
KI
chatgpt
llm
powerbi
Microsoft Fabric
Deutsch
Verhandlungssicher
Englisch
Verhandlungssicher
Spanisch
Grundkenntnisse
Thai
Verhandlungssicher

Einsatzorte

Einsatzorte

Deutschland, Österreich, Schweiz

Einsatzort: Gesamteuropa

Ich besitze einen deutschen Pass.

Arbeits- und Aufenthaltserlaubnis: Unbegrenzt

möglich

Projekte

Projekte

1 Jahr 8 Monate
2022-08 - 2024-03

Entwicklung Datenintegrations-Pipeline

Data Scientist
Data Scientist
  • Entwickelte und implementierte eine ausgefeilte Datenintegrations-Pipeline, die Daten von SAP Hana in Microsoft Fabric über Datenflüsse und PySpark überträgt, was die Datenverarbeitung vereinfachte und die Systemeffizienz steigerte.
  • Entwickelte und implementierte eine ausgeklügelte Datenintegrations-Pipeline, die Datenflüsse und PySpark nutzte, um Daten nahtlos von SAP Hana in Microsoft Fabric zu transferieren, was die Datenverarbeitungsprozesse vereinfachte und die Systemeffizienz steigerte.
  • Koordinierte ETL-Prozesse zur Konsolidierung von Daten aus SAP Hana, Excel-Dateien und CSV-Dateien in Microsoft Fabric, was zur Erstellung eines zentralisierten Repositorys führte, das erweiterte Analysen und Berichte für das Management des Materiallebenszyklus ermöglichte.
  • Implementierte Datenbereinigungsverfahren unter Einsatz von Pandas, Dataflows und PySpark, um qualitativ hochwertige Datensätze sicherzustellen und Datenintegrität sowie -konsistenz über verschiedene Analyseplattformen hinweg zu gewährleisten.
  • Verfeinerte das Datenmodell unter Einsatz von Microsoft Fabric, Denodo, Geat Expectations, und PowerBI-Datenmodellierungstools, was erweiterte Analyse- und Berichtsfunktionen ermöglichte und datengetriebene Entscheidungsfindungen im Unternehmen stärkte.
  • Nutzte Microsoft Fabrics, Azure ML, und Azure Databricks zur Entwicklung eines prädiktiven Analysemodells unter Verwendung von Pandas, LSTM, Zeitreihenzerlegung und PySpark, was die Vorhersagegenauigkeit signifikant verbesserte und zu einem zentralen Bestandteil der strategischen Planung wurde.
  • Entwickelte und wartete Datamarts innerhalb von Microsoft Fabric für das Materiallebenszyklusmanagement, die durch PowerBI visualisiert wurden und handlungsorientierte Berichte für Geschäftsinteressenten bereitstellten.
  • Erstellte umfassende Berichte und Dashboards für das Materiallebenszyklusmanagement und Modellprognosen in PowerBI, was das Verständnis komplexer Datenzusammenhänge für das Management erhöhte.
  • Innovierte eine benutzerfreundliche Web-App mit Microsoft Power Apps, die es den Nutzern ermöglichte, mit den in PowerBI präsentierten Daten zu interagieren und diese zuverlässig in die Datenbank zurückzuschreiben, wodurch das Benutzerengagement und die Dateninteraktion verbessert wurden.
  • Formulierte komplexe DAX-Ausdrücke in PowerBI zur Definition von KPIs für Berichte, was die Leistungsmessung vereinfachte und Stakeholdern wichtige Metriken für informierte Entscheidungen lieferte.
  • Überführen Sie bestehende Dashboards von SAP Analytics Cloud (SAC) zu PowerBI für verbesserte Datenvisualisierung.
  • Entwickelte eine KI-gestützte Schnittstelle, die es Benutzern erlaubte, über ChatGPT mit ihren Daten zu interagieren, sodass PowerBI-Benutzer analytische Einsichten auf konversationelle Weise basierend auf ihrem spezifischen Datenkontext abfragen und erhalten konnten.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
Enercon GmbH
1 Jahr 2 Monate
2022-06 - 2023-07

Implementierung einer umfassenden Datenanalyseplattform

Sr. Solution Architect, Data Engineer & Data Scientist Azure Data Lake Storage Gen 2 Apache Spark PySpark ...
Sr. Solution Architect, Data Engineer & Data Scientist
  • Entwarf und leitete die Implementierung einer umfassenden Datenanalyseplattform für Magentazuhause und nutzte fortschrittliche Technologien wie Microsoft Azure Synapse Analytics, MongoDB, Postgresql , ClickhouseDB , Apache DRUID, Azure CosmosDB, Dagster und Azure Machine Learning. Diese Plattform erhöhte die Datenzugänglichkeit um 30 % und verbesserte die Verarbeitungsgeschwindigkeit um 40 %.
  • Einsatz von Azure Purview zusammen mit Azure Technologies und Python zum Entwerfen und Implementieren eines effektiven Data Governance-Frameworks. Dieses Framework gewährleistete eine Datengenauigkeit von 95 % und verbesserte die Einhaltung gesetzlicher Vorschriften um 20 %.
  • Entwicklung eines robusten Datenschutz- und Anonymisierungssystems mit Microsoft Presidio, Python und Azure Synapse Analytics, dass die Sicherheit sensibler Informationen von IoT-Geräten um 35 % erhöht.
  • Verwaltete Datenaufnahme aus verschiedenen Quellen wie MongoDB, Apache Kafka, JSON-Dateien, CSV-Dateien und Prometheus und Speicherung der verarbeiteten Daten im Azure Synapse Analytics Datawarehouse mithilfe der Delta-Tabellen-Technologie, wodurch die Datenverfügbarkeit um 25 % erhöht wurde.
  • Entwurf und Einführung von CI/CD-Datenpipelines (Continuous Integration/Continuous Delivery) mithilfe von Azure DevOps mit Synapse Workspace Deployment, nahtlos integriert in GitLab, was zu einer Reduzierung der Bereitstellungszeit um 50 % führte.
  • Orchestrierte Aufnahme von Sprachdaten (Voice to Text) in Azure Data Lake Storage Gen 2 mithilfe von Azure Databricks und Bereitstellung von Apache Spark, PySpark, Python, PyTorch und Databricks Live Tables (DLT). 
  • Verbesserte Datenanalyse und Konfigurationsunterstützung durch Nutzung innovativer Tools wie ChatGPT, Langchain, llama_index, Hugging Face und OpenAI . Ermöglicht ChatGPT die Interaktion mit verschiedenen Datenbanken, einschließlich Vektordatenbanken (Chroma & Pinecone) und PostgreSQL, und die Verarbeitung von Kundendaten in verschiedenen Formaten wie PDF, CSV und Text. Diese verbesserte Bereitstellung erleichterte Datenbankabfragen in natürlicher Sprache, was zu einer erheblichen Verbesserung der Service-Abfrageauflösung um 60 % und einer Steigerung der Datenverarbeitungseffizienz um 45 % führte
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
Azure Data Lake Storage Gen 2 Apache Spark PySpark Python PyTorch Databricks Live Tables ChatGPT Langchain llama_index Hugging Face OpenAI Chroma Pinecone PostgreSQL
(2) Deutsche Telekom AG
1 Jahr 3 Monate
2021-08 - 2022-10

Entwurf und Implementierung einer On-Premise-Daten- und Analyseplattform

Sr. Solution Architect Kubernetes Docker MinIO (S3-kompatibel) ...
Sr. Solution Architect
  • Entwurf und Implementierung einer On-Premise-Daten- und Analyseplattform auf Basis von S3 unter Verwendung von Technologien wie Kubernetes, Docker, MinIO (S3-kompatibel), Apache Kafka, Apache Cassandra, Elasticsearch, Microsoft SQL, SSIS, FHIR Server, Apache Trino , Apache Spark, Apache IceBerg (ähnlich wie Delta Lake), Redash , Amundsen, Apache AirFlow , Neo4J, XML, FHIR , HL7, SNOMED und Ontology. Diese innovative Lösung verbesserte die Datenzugänglichkeit um 30 % und erhöhte die Verarbeitungsgeschwindigkeit um 40 %.
  • Entwarf und führte ein Überwachungssystem für die DMI-Daten- und Analyseplattform unter Einsatz von Technologien wie Kibana, ElasticSearch , Grafana und Prometheus aus. Dieses System verbesserte die Sichtbarkeit der Plattformleistung um 35 % und reduzierte die Ausfallzeit um 20 %, wodurch die Effizienz und Zuverlässigkeit des Gesamtsystems verbessert wurde.
  • Einsatz agiler Methoden mit Schwerpunkt auf Scrum zur Koordination interdisziplinärer Teams, Überwachung des Projektfortschritts, Identifizierung und Behebung von Hindernissen sowie Risikomanagement, um die termingerechte und budgetkonforme Lieferung hochwertiger Softwarelösungen sicherzustellen und eine agile Kultur im Unternehmen zu fördern.
Kubernetes Docker MinIO (S3-kompatibel) Apache Kafka Apache Cassandra Elasticsearch Microsoft SQL SSIS FHIR Server Apache Trino Apache Spark Apache IceBerg (ähnlich wie Delta Lake) Redash Amundsen Apache AirFlow Neo4J XML FHIR HL7 SNOMED Ontology Kibana ElasticSearch Grafana Prometheus
DMI GmbH & Co.KG
6 Monate
2021-12 - 2022-05

Migration des Data Warehouse

Sr. Data Solution Architect MSSQL SSIS Azure ...
Sr. Data Solution Architect
  • Leitung der Migration des Data Warehouse (MSSQL, SSIS) zu Azure Analytics unter Nutzung der Azure-Plattform, Terraform, Bicep, Apache Kafka, Spark, Delta Lake, Azure Synapse Analytics, Azure Data Factory, Salesforce, DBT, Denodo, Python und Web-APIs. Dieser Übergang führte zu einer Reduzierung der Datenabrufzeit um 50 % und einer Reduzierung der Kosten um 30 %.
  • Entwickelte und implementierte Datenqualitätsüberwachungs- und Datenverwaltungssysteme unter Verwendung von Azure Purview, Azure Technologies, Python und verschiedenen Microsoft-Produkten. Dadurch stieg die Datenqualität um 35 % und die Einhaltung gesetzlicher Vorschriften um 20 %.
  • Leitete die Umstellung des bestehenden Data Warehouse von MS SQL-basierten tabellarischen Modellen auf Star-Schema-Modelle in Azure Synapse Analytics unter Einsatz von Kimball-Methoden. Anschließend wurde der PowerBI- Dienst für die umfassende Dashboard-Erstellung genutzt , wodurch die Datenvisualisierung und die Effizienz der Geschäftsentscheidungen um 40 % verbessert wurden.
  • Entworfen und ausgeführt von CI/CD-Datenpipelines mit Azure DevOps, einschließlich Synapse Workspace Deployment für effizientes Datenmanagement. Diese Implementierung steigerte die Datenverarbeitungsgeschwindigkeit um 45 % und verkürzte die Bereitstellungszeit um 30 %.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
MSSQL SSIS Azure Azure-Plattform Terraform Bicep Apache Kafka Spark Delta Lake Azure Synapse Analytics Azure Data Factory Salesforce DBT Denodo Python Web-APIs Scrum Kanban
Computacenter AG & Co. oHG
7 Monate
2021-10 - 2022-04

Entwurf und Implementierung eines Echtzeit-Data Warehouse

Sr. Data Solution Architect Azure-Plattform Kubernetes EKS Terraform ...
Sr. Data Solution Architect
  • Entwurf und Implementierung eines Echtzeit-Data Warehouse unter Verwendung der Azure-Plattform, Kubernetes EKS, Terraform, Apache Kafka, Spark, Flink , Delta Lake, Azure Logic Apps, Microsoft Flows, Azure Synapse Analytics, Azure Data Factory, Azure Databricks, DBT und Apache Airflow , Python, GraphQL und APIs, was zu einer Verbesserung der Datenverarbeitungsgeschwindigkeit um 40 % und einer Reduzierung der damit verbundenen Kosten um 30 % führt.
  • Entworfen und etablierte Datenqualitätsüberwachungs- und Datenverwaltungssysteme unter Verwendung von Azure Purview, Azure Technologies, Python und anderen Microsoft-Produkten, die die Datengenauigkeit um 35 % verbesserten und zu einer besseren Einhaltung gesetzlicher Vorschriften führten.
  • Entwickelte Datenmodelle unter Verwendung von Star-Schema in Verbindung mit Synapse Analytics und PowerBI sowie Tabular mit Azure Analytics Service und Visual Studio, was zu einer 25-prozentigen Steigerung der Berichtserstellungseffizienz und einer 15-prozentigen Verbesserung der Geschäftsentscheidungsgeschwindigkeit führte.
  • Aufbau eines Clustering-Modells unter Verwendung von Synapse Analytics und Azure ML, das die Datensegmentierung und gezielte Marketingstrategien verbesserte und zu einer Steigerung der Kundenkonversionsraten um 20 % beitrug.
  • Entworfen und implementierte CI/CD-Datenpipelines unter Verwendung von Azure DevOps in Verbindung mit Synapse Workspace Deployment, wodurch die Bereitstellungszeiten um 50 % verkürzt und die Veröffentlichungshäufigkeit um 60 % erhöht wurden.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur
Azure-Plattform Kubernetes EKS Terraform Apache Kafka Spark Flink Delta Lake Azure Logic Apps Microsoft Flows Azure Synapse Analytics Azure Data Factory Azure Databricks DBT und Apache Airflow Python GraphQL APIs
FIEGE Logistik Stiftung & Co. KG
6 Monate
2021-10 - 2022-03

Überwachungsplattform

Sr. Solution Architect & Sr. DevOps Engineer AWS Datadog-Plattform Kubernetes EKS Terraform ...
Sr. Solution Architect & Sr. DevOps Engineer AWS
  • Entwickelte und implementierte eine Überwachungsplattform für die Fielmann AG unter Verwendung der Datadog-Plattform, Kubernetes EKS, Terraform, Pulumi , AWS Services, AWS Databases (RDS & Aurora), Apache Kafka, AWS MSK, Helm3, Microsoft Azure Logic Apps, Glue, AWS Lambda ,Microsoft Flows, Git, Github ,KONG Gateway, Git Actions und Spring Boot. Diese Plattform erhöhte die Systemtransparenz um 35 %, was eine schnellere Fehlerbehebung ermöglichte und die Ausfallzeit des Systems um 40 % reduzierte.
  • Entwickelte ein prädiktives Überwachungssystem, das Datadog, Python, SQL, API, C#, Terraform und Prognose-/ Zeitreihen-/ Clustering-/ Klassifizierungsmodelle nutzt. Dieses System verbesserte die Prognosegenauigkeit um 30 % und reduzierte ungeplante Systemunterbrechungen um 25 %, wodurch die Systemzuverlässigkeit erhöht wurde.
  • Verwaltete die erfolgreiche Migration bestehender Überwachungssysteme, einschließlich Grafana, Prometheus, Kibana, ElasticSearch und selbstverwalteter K8s, auf die neue Fielmann Monitoring-Plattform. Diese Migration verbesserte die Effizienz der Datenintegration um 45 % und steigerte die Gesamtsystemleistung um 20 %.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
Datadog-Plattform Kubernetes EKS Terraform Pulumi AWS Services AWS Databases (RDS & Aurora) Apache Kafka AWS MSK Helm3 Microsoft Azure Logic Apps Glue AWS Lambda Microsoft Flows Git Github KONG Gateway Git Actions Spring Boot Python SQL API C#
Fielmann AG
10 Monate
2020-11 - 2021-08

Multi-Cloud-Echtzeit-Datenanalyseplattform und Datenpipelines

Sr. Solution Architect Apache Kafka (Confluent Cloud) Kafka Connect Kafka Mirroring (MirrorMaker) ...
Sr. Solution Architect
  • Entwickelte und implementierte eine Multi-Cloud-Echtzeit-Datenanalyseplattform und Datenpipelines unter Verwendung von Technologien wie Apache Kafka (Confluent Cloud), Kafka Connect, Kafka Mirroring (MirrorMaker), Kubernetes, AKHQ, Strimzi, Docker, Travis, Java , Scala ,Python , Spring Boot, Quarkus, AWS, AWS Redshift, AWS Glue, AWS Lambda, Google Cloud, Apache Pinot, Google Big Query, Apache Beam, Kafka Connect, Apache Presto, PostgreSQL, OracleDB, TimeScale DB , YAML, REST API (Micro Services). Diese strategische Integration führte zu einer Reduzierung der Datenverarbeitungszeit um 30 % und einer Erhöhung der Datengenauigkeit um 25 %.
  • Konzeption und Implementierung eines Multi-Cloud-Enterprise-Observability-Systems für die Echtzeit-Datenanalyseplattform unter Verwendung von Technologien wie Prometheus, Grafana, DataDog , Terraform, Kubernetes, Docker, Wavefront, Loggly , PagerDuty, Microsoft Team, Microsoft Flows, Github , Jaeger, Posten. Dieses Observability-System verbesserte die Effizienz der Systemüberwachung um 40 % und reduzierte die Ausfallzeit um 35 %.
  • Entworfen und erstellte automatisierte Geschäftsworkflows mit Microsoft Power Automate, Power Apps, Logic Apps und OpenAPI 3.0, um interne Geschäftsanwendungsfälle zu bedienen. Diese Automatisierung führte zu einer 45-prozentigen Verbesserung der Geschäftsprozesseffizienz und einer um 20 % höheren Geschwindigkeit bei der Aufgabenerledigung.
  • Entworfen und implementiert: SharePoint Intelligent Workplace mit Microsoft Power Automate, Power Apps, Logic Apps, OpenAPI 3.0, Microsoft SharePoint, Microsoft List, Microsoft Planner, Microsoft Dataverse , Microsoft Teams, Microsoft Power Virtual Agents, Microsoft Forms und Power BI. Dies führte zu einer Steigerung der Teamzusammenarbeit um 50 %, einem verbesserten Dokumentenmanagement um 30 % und einer verbesserten datengesteuerten Entscheidungsfindung um 40 %.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur
Apache Kafka (Confluent Cloud) Kafka Connect Kafka Mirroring (MirrorMaker) Kubernetes AKHQ Strimzi Docker Travis Java Scala Python Spring Boot Quarkus AWS AWS Redshift AWS Glue AWS Lambda Google Cloud Apache Pinot Google Big Query Apache Beam Apache Presto PostgreSQL OracleDB TimeScale DB YAML REST API (Micro Services) Prometheus Grafana DataDog Terraform Wavefront Loggly PagerDuty Microsoft Team Microsoft Flows Github Jaeger Posten SharePoint Intelligent Workplace mit Microsoft Power Automate Power Apps Logic Apps OpenAPI 3.0 Microsoft SharePoint Microsoft List Microsoft Planner Microsoft Dataverse Microsoft Teams Microsoft Power Virtual Agents Microsoft Forms Power BI
Fashion Digital GmbH & Co.KG
4 Monate
2020-11 - 2021-02

Entwicklung und Implentierung von IoT-Datenerfassungspipelines

Sr. Data & Machine Learning Engineer Consultant Azure Data Lake ( Gen1 Gen2) Azure Data Factory ...
Sr. Data & Machine Learning Engineer Consultant
  • Entwickelte und implementierte IoT-Datenerfassungspipelines von Edge-Geräten bis zur Azure Cloud, was zu einer 40 % schnelleren Datenverarbeitung und 30 % Kosteneinsparungen bei der Infrastruktur führte.
  • Entworfen und ausgeführte Datenaufnahmepipelines von lokal in die Azure Cloud, um ein DWH zu erstellen, wodurch die Datenzugänglichkeit um 45 % verbessert und die Datenabrufzeit um 35 % verkürzt wird.
  • Mithilfe der CDC-Funktion (Change Data Capture) wurden Daten aus dem IoT zusammen mit lokalen Quellen vorbereitet, verarbeitet und integriert, wodurch die Datenaktualisierungen in Echtzeit um 50 % und die Datenqualität um 20 % verbessert wurden.
  • Aufgenommene Daten aus verschiedenen Quellen mithilfe von Azure Data Lake ( Gen1, Gen2), Azure Data Factory, Azure Databricks, Azure Function, Azure Synapse Analytics, Stream Analytics, IoT Hubs, ADT, IoT Stack, Edge, Denodo, Azure Data Bricks, CosmoDB, REST API , Python & Java, PyTorch, C# für Spark. Dies führte zu einer Verbesserung der Datenverarbeitungseffizienz um 30 % und der Speicheroptimierung um 25 %.
  • Durchführung von Feature-Engineering und Erstellung von Vorhersagemodellen und Pipelines zur Vorhersage von CO2-Emissionswerten, was zu einem Modell mit einer Genauigkeit von 80 % führte und bei strategischen Umweltentscheidungen hilfreich war.
  • Arbeitete mit einer Vielzahl von Technologien wie SQL, PySpark , Scikit Learn, Arrow, DVC, Panda, Keras , PyTorch, Docker , Kubernetes, Azure Synapse Analytics, Apache Iceberg, PowerBI , Dax, SQL, Python/Java, .Net, PySpark , Azure Databricks, Azure Data Lake, Data Factory, MySQL, PostgreSQL, IoT Hubs, IoT Stack Edge, Azure Function, CI /CD, Apache Nifi, verbessert die Gesamtprojekteffizienz um 40 % und trägt zu einer 25 %igen Reduzierung der Software bei. Verwandte Themen.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
Azure Data Lake ( Gen1 Gen2) Azure Data Factory Azure Databricks Azure Function Azure Synapse Analytics Stream Analytics IoT Hubs ADT IoT Stack Edge Denodo Azure Data Bricks CosmoDB REST API Python & Java PyTorch C# Spark SQL PySpark Scikit Learn Arrow DVC Panda Keras Docker Kubernetes Apache Iceberg PowerBI Dax Python/Java .Net Azure Data Lake Data Factory MySQL PostgreSQL IoT Stack Edge CI /CD Apache Nifi
HeidelbergCement AG
5 Monate
2020-07 - 2020-11

Optimierung der Architektur und des Entwicklungsrahmens

Sr. Data Engineer Consultant Azure Data Lake Azure Data Factory Azure Databricks ...
Sr. Data Engineer Consultant
  • Optimierung der Architektur und des Entwicklungsrahmens, Steigerung der Systemeffizienz um 20 % und Reduzierung der Wartungszeit um 15 %.
  • Alle vorhandenen Pipelines wurden erfolgreich auf ein neues Entwicklungsframework migriert, einschließlich Übergängen von Gen1 zu Gen2, Oracle DBs zu Gen2 und Hadoop zu Gen2. Dies führte zu einer Verbesserung der Datenverarbeitungsgeschwindigkeit um 30 % und einer Reduzierung der Betriebskosten um 10 %.
  • Fachmännische Abwicklung der Datenaufnahme aus mehreren Quellen in Azure Data Lake mithilfe von Azure Data Factory, Azure Databricks, Azure DWH, Azure Key Vault, Azure Kubernetes (K8), Netflix Conductor, Python und Scala, was zu einer Steigerung der Datenzugänglichkeit um 35 % führte eine Reduzierung der Datenlatenz um 25 %.
  • PowerBI wurden interaktive und umfassende Datenvisualisierungen erstellt , wodurch die datengesteuerte Entscheidungsfindung um 40 % verbessert wurde.
  • Sicherstellung strenger Tests der Datenpipelines, was zu einer Erfolgsquote von 99 % hinsichtlich der Richtigkeit und Vollständigkeit der Datenbereitstellung führte.
  • Erstellung und Überprüfung der gesamten Dokumentation sowohl für die Pipelines als auch für die Dienste, wodurch die Prozesstransparenz verbessert und die Prüfungsbereitschaft um 20 % erhöht wurde.
  • Durch die Optimierung der Ausführungslaufzeiten der Azure Databricks (Spark)-Pipeline von zwei Tagen auf zwei Stunden wurde ein wichtiger Meilenstein erreicht, was zu einer Verbesserung der Verarbeitungsgeschwindigkeit um 96 % und einer Steigerung der gesamten Projektproduktivität um 30 % führte.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
Azure Data Lake Azure Data Factory Azure Databricks Azure DWH Azure Key Vault Azure Kubernetes (K8) Netflix Conductor Python Scala SQL Big Data Cloud Spark Docker Azure Kubernetes Python/Scala Data Factory PowerBI Spring Boot Maven Jenkins Artifactory HDInsight Apache Kafka DAX
Munich RE
7 Monate
2020-02 - 2020-08

Datenintegration

Sr. Solution Architect und Data engineer Consultant Apache Kafka Spring Boot Microsoft Dynamics 365 ...
Sr. Solution Architect und Data engineer Consultant
  • Entworfen und implementierte die Datenintegration zwischen SAP-ERP, SAP-CRM und Dynamics 365 Online unter Verwendung von Apache Kafka und Microsoft-Diensten. Diese integrierte Lösung verbesserte die Datenzugänglichkeit um 45 % und reduzierte die Datenverarbeitungszeit um 35 %.
  • Entwarf und baute ein Protokollierungs- und Überwachungssystem für die SAP-CRM- und MS-Dynamics 365-Datenpipeline mit Spring Boot, Kafka, Prometheus und Grafana, wodurch die Systemzuverlässigkeit um 40 % gesteigert und die Systemausfallzeit um 25 % reduziert wurde.
  • Entwurf und Ausführung einer Microservices Data Pipeline (CI/CD) von Datenquellen (SAP-CRM, SAP-ERP) zu Microsoft Dynamics 365 (D365). Dies führte zu einem nahtlosen Datenfluss, reduzierte die Datenlatenz um 50 % und steigerte die Effizienz der Datenvorgänge um 40 %.
    • Entwickelte Microservices mit einer Vielzahl von Technologien, erhöhte die Systemagilität und verkürzte die Entwicklungszeit um 30 %.
    • Nutzung von Microsoft Dynamics 365, Microsoft Flows, MS-Logic Apps, MS-Function, Event Hubs und Power Apps zur Optimierung von Geschäftsprozessen.
    • Analysierte und modellierte Daten mithilfe eines gemeinsamen Datenmodells (CDM) und eines gemeinsamen Datendienstes (CDS), wodurch die Datenkonsistenz um 25 % verbessert wurde.
    • Entwickelte PowerApps zur Aufnahme von Daten von Kafka in CDS für D365 und erhöhte die Geschwindigkeit der Datenaufnahme um 30 %.
    • Synchronisierte Daten zwischen D365 und SAP-CRM, wodurch die Datenkonsistenz auf allen Plattformen sichergestellt und die Datengenauigkeit um 40 % verbessert wird.
    • Überwachtes System und Dashboards mit PowerBI und Grafana, wodurch die betriebliche Transparenz um 35 % erhöht wird.
    • Verwendet Python und H20 Machine Learning Libs zusammen mit Kafka Streams, um Kundensegmentierungsmodelle zu erstellen und bereitzustellen und so die Genauigkeit der Kundensegmentierung um 50 % zu verbessern.
    • Verantwortlich für das agile Management mehrerer IT-Projekte unter Einsatz von Scrum und Kanban, Koordination interdisziplinärer Teams für eine nahtlose Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur Sicherstellung der termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen sowie die Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Kultur im Unternehmen.
Apache Kafka Spring Boot Microsoft Dynamics 365 Microsoft Flows MS-Logic Apps MS-Function Event Hubs Power Apps PowerBI Grafana Python
Mobility Services Holding
2 Monate
2019-11 - 2019-12

Entwicklung und Durchführung umfassender Workshops

Sr. Solution Architect Big Data Analytics Apache Pulsar ...
Sr. Solution Architect
  • Entwicklung und Durchführung umfassender Workshops mit Schwerpunkt auf Big Data, Analytics und der AWS- Datalake- Plattform unter Einbeziehung von Technologien wie Apache Pulsar, Kafka, Pulsar , Flink , Neo4J, Spark, MemSQL , Presto, AWS Redshift und Denodo. Diese Workshops steigerten das Fachwissen der Teilnehmer um 40 % und verbesserten die Plattformeffizienz um 30 %.
  • Entworfen und implementierte Datenerfassungspipelines unter Verwendung der in den Workshops hervorgehobenen Technologien, darunter AWS S3, Glacier, Glue, AWS Lambda, und RDS, wodurch der Datenfluss optimiert und die Datenverarbeitungsgeschwindigkeit um 35 % erhöht wurde.
  • Aufbau einer einheitlichen Hybridarchitektur für lokale und Multi-Cloud-Umgebungen (z. B. Migration in/aus der Cloud wie AWS, Azure), die den Datenzugriff um 25 % verbesserte und die Migrationszeit um 30 % verkürzte.
  • Nutzung von Java- und Scala-Kenntnissen für die Systementwicklung und -optimierung, was zu einer Verbesserung der Systemleistung um 20 % führte.
  • Nutzung von Terraform, Ansible, Terraform Docker, Kubernetes, EC2, Azure und Apache Presto für die Infrastrukturverwaltung und -automatisierung, was zu einer Reduzierung der Bereitstellungszeit um 50 % und einer Erhöhung der Infrastrukturstabilität um 30 % führte.
  • Einsatz agiler Methoden mit Schwerpunkt auf Scrum zur Koordination interdisziplinärer Teams, Überwachung des Projektfortschritts, Identifizierung und Behebung von Hindernissen sowie Risikomanagement, um die termingerechte und budgetkonforme Lieferung hochwertiger Softwarelösungen sicherzustellen und eine agile Kultur im Unternehmen zu fördern
Big Data Analytics Apache Pulsar Kafka Pulsar Flink Neo4J Spark MemSQL Presto AWS Redshift Denodo AWS S3 Glacier Glue AWS Lambda RDS Terraform Ansible Terraform Docker Kubernetes EC2 Azure Apache Presto
Berliner Content Platform Company
8 Monate
2019-04 - 2019-11

Durchführung praktischer Workshops mit Hadoop Hortonworks

Big Data, Analytics, IoT Trainer Apache Kafka IoT Azure ...
Big Data, Analytics, IoT Trainer
  • Konzipierte und implementierte umfassende Big Data-, Analytics- und IoT-Coaching-Programme und Workshops, die zu einer Steigerung der technischen Kompetenz der Teilnehmer um 35 % führten. Dazu gehörten intensive Sitzungen zu Apache Kafka, IoT mit Apache Kafka und Azure, Azure Data Lake, Azure Databricks, PowerBI , SQL und vielen mehr.
  • Durchführung praktischer Workshops mit Hadoop Hortonworks (HDP), Apache Hive, HDF (Apache Nifi ), SMM, SAM, PowerApps, Apache Spark, SAP Hana, BigQuery , Amazon Redshift, AWS Lambda ,Glue (PoC), wodurch die Produktivität um 20 % gesteigert und verbessert wurde Teamfähigkeiten.
  • Leitete den Aufbau einer einheitlichen Hybridarchitektur für lokale, Multi-Cloud- und Edge-Umgebungen und verbesserte die Effizienz der Cloud-Migration um 30 %.
  • Entwickelte eine IoT-Lösung mit Azure IoT Hubs, Raspberry Pi, Azure IoT Edge und IoT Digital Twins, die IoT-Daten von Energiestationen verarbeitete, was zu einer Steigerung der Datenverarbeitungsgeschwindigkeit um 25 % und einer Reduzierung der Latenz um 15 % führte.
  • Pionierarbeit bei der Entwicklung einer Analyseplattform mit Azure Cloud, die die Datenzugänglichkeit um 40 % steigerte und die Verarbeitungsgeschwindigkeit um 45 % verbesserte.
  • Angebot einer ausführlichen Apache Spark-Schulung mit Azure Databricks, die das Erstellen von Datensätzen, das Anwenden von Vorgängen auf Datensätze, das Erstellen und Überwachen von Apache Spark-Anwendungen und mehr umfasst. Diese Schulungen verbesserten die Apache Spark-Kenntnisse der Teilnehmer um 50 % und die Anwendungsleistung um 30 %.
  • Einsatz agiler Methoden mit Schwerpunkt auf Scrum zur Koordination interdisziplinärer Teams, Überwachung des Projektfortschritts, Identifizierung und Behebung von Hindernissen sowie Risikomanagement, um die termingerechte und budgetkonforme Lieferung hochwertiger Softwarelösungen sicherzustellen und eine agile Kultur im Unternehmen zu fördern.
Apache Kafka IoT Azure Azure Data Lake Azure Databricks PowerBI SQL Hadoop Hortonworks (HDP) Apache Hive HDF (Apache Nifi ) SMM SAM PowerApps Apache Spark SAP Hana BigQuery Amazon Redshift AWS Lambda Glue (PoC)
Open Grid Europe
4 Monate
2019-04 - 2019-07

Durchführung von Workshops und Coachings

Sr. Solution Architect und Data Ansible MapR LDAP ...
Sr. Solution Architect und Data
  • Durchführung von Workshops und Coachings zu MapR- und Big-Data-Technologien, wodurch das Kompetenzniveau des Teams gesteigert und die Produktivität um 30 % gesteigert wurde.
  • Entwickelte, baute und verwaltete Datenflüsse, Datenanalysetools, Überwachungstools und große MapR- Cluster für ein selbstfahrendes Autoprojekt bei der Daimler AG in Stuttgart. Verwaltet über 5 PB Daten mit einem maximalen Durchsatz von 4 GB/s und steigert die Datenverarbeitungsgeschwindigkeit um 35 %.
  • Bereitstellung und Feinabstimmung einer Vielzahl von Technologien wie Ansible, MapR , LDAP, AD, Python, Java, Scala, PySpark , UDF, UnitTest , InfluxDB , OpenTSDB , Elasticsearch, FluentD , Collectd , Grafana, Icinga , Kibana, Prometheus, Linux SUSE12 SP3, SUSE Manager, Docker, Kubernetes, Zeppelin und Jupyter Notebooks.
  • Verwaltete MapR- Cluster und MapR- Rechenzentren, einschließlich:
    • Installation neuer MapR- Cluster, Migration von MapR 5.2 auf 6.1, Überprüfung und Tests von Clustern, was zu einer Verbesserung der Clusterleistung um 30 % führt.
    • Speicherung und Schutz von Clusterdaten, einschließlich Erstellung und Konfiguration von MapR- Volumes, Verwaltung von Snapshots, Spiegeln und Remote-Spiegeln sowie Daten-Tiering für Cloud-Dienste, wodurch die Datensicherheit um 40 % erhöht wird.
    • Konfiguration von MapR- Clustern, einschließlich Benutzer- und Clusterparametern und Zugriff, wodurch die Zugänglichkeit und Effizienz des Systems um 25 % verbessert wird.
    • Wartung von MapR- Clustern, einschließlich Überwachung, Festplattenverwaltung und Verwendung von Fehlerbehebungstools, wodurch die Systemausfallzeit um 35 % reduziert wird.
    • Installation und Konfiguration von Apache Yarn-Diensten sowie Konfiguration des Kapazitätsplaners, was zu einer Verbesserung der Ressourcenzuteilungseffizienz um 20 % führt.
    • Optimierung der Clusterleistung und Planung der Jobressourcenzuweisung, wodurch die Gesamtsystemleistung um 30 % verbessert wird.
    • Erstellung und Verwaltung des MapR- Bereitstellungslebenszyklus mit Ansible und Docker, wodurch die Bereitstellungszeit um 50 % reduziert wird.
  • Verantwortlich für das agile Management mehrerer IT-Projekte unter Einsatz von Scrum und Kanban, Koordination interdisziplinärer Teams für eine nahtlose Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur Sicherstellung der termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen sowie die Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Kultur im Unternehmen.
Ansible MapR LDAP AD Python Java Scala PySpark UDF UnitTest InfluxDB OpenTSDB Elasticsearch FluentD Collectd Grafana Icinga Kibana Prometheus Linux SUSE12 SP3 SUSE Manager Docker Kubernetes Zeppelin Jupyter Notebooks
Daimler AG
8 Monate
2018-09 - 2019-04

Projektplanung, Workshops und Analyse

Sr. Data Scientist MapR- Hadoop-Distribution Semantic-Web-Technologien Oracle-Datenbank ...
Sr. Data Scientist
  • Fachmännisch geleitete Projektplanung, Workshops und Analyse aktueller Architekturen und Geschäftsanforderungen auf Basis von Scrum, wodurch die Effizienz der Projektabwicklung um 25 % gesteigert wird.
  • Entwarf und implementierte eine ?Data Analytics?- und Hochgeschwindigkeits-OLAP-Plattform unter Verwendung der MapR- Hadoop-Distribution, Semantic-Web-Technologien, Oracle-Datenbank, PL-SQL, Hive, Apache Nifi , Apache Kafka, ExaSolution DB und Apache Spark, was zu einer Verbesserung um 35 % führte in der Datenverarbeitung und -analyse.
  • Erstellung eines Vorhersagemodells für medizinische Analysen unter Verwendung von R, Scala, Python, H20, Java, UDF (benutzerdefinierte Funktion), Hive, ExaSolution DB, Exasol DB, Denodo, PL-SQL und Tibco Spotfire, wodurch die Vorhersagegenauigkeit um 30 % erhöht wurde.
  • Aufbau eines Exasol- Datenbankclusters mit MapR PoC, um Echtzeitvorhersagen auszuführen und ML-Modelle für Exasol bereitzustellen . Dies führte zu einem schnellen Übergang von PoC zu MVP und verkürzte die Markteinführungszeit um 40 %.
  • Visualisierte Ergebnisse mit der Exasol- Beschleuniger-Engine Dremio und verschiedenen BI-Tools wie Tibco Spotfire, Tableau, Microsoft PowerBI , DAX und  SQL , wodurch die Lesbarkeit der Daten und die Entscheidungsgeschwindigkeit um 25 % verbessert werden.
  • Effektive Verwaltung aller Vorgänge vor Ort , was zu vollständiger Datenkontrolle, erhöhter Sicherheit und einer Verringerung der Abhängigkeiten von Drittanbietern führt.
  • sowie die Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Kultur im Unternehmen
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
MapR- Hadoop-Distribution Semantic-Web-Technologien Oracle-Datenbank PL-SQL Hive Apache Nifi Apache Kafka ExaSolution DB Apache Spark R Scala Python H20 Java UDF Exasol DB Denodo Tibco Spotfire Tableau Microsoft PowerBI DAX SQL Scrum Kanban
Ingelheim Böhringer
1 Jahr 6 Monate
2017-07 - 2018-12

Projektplanung und Analyse aktueller Architekturen

Sr. Solution Architect, Data Engineer, Data Scientist Hortonworks Hadoop Hive+LLAP Apache Nifi /Kylo ...
Sr. Solution Architect, Data Engineer, Data Scientist
  • Effizient geleitete Projektplanung und Analyse aktueller Architekturen und Geschäftsanforderungen auf Basis von Scrum, wodurch die Effizienz des Projektablaufs um 25 % verbessert wurde.
  • Entworfen und implementiert eine robuste ?Data Lake?-Plattform mit Hortonworks Hadoop, Hive+LLAP , Apache Nifi /Kylo, Ranger, Kyberos , Apache Kafka & Kafka Streaming, Apache Casandra, Apache Kite und Apache Spark, wodurch die Effizienz der Datenspeicherung und -abfrage verbessert wird 30 %.
  • Aufbau einer leistungsstarken ?Data Cube (OLAP) in Data Lake?-Plattform unter Verwendung von Hortonworks Hadoop, Hive+LLAP, Apache Nifi /Kylo, Casandra, Druid, Jethro und Apache Spark, was zu einer Verbesserung der OLAP-Vorgänge um 40 % führte.
  • Entwickelte eine dynamische ?Real-Time Analytics?-Plattform unter Verwendung von Hortonworks Hadoop, Apache Nifi (HDF)/Kylo, Apache Kafka, Casandra, Druid, IBM SPSS, Alteryx und Apache Spark, die die Echtzeit-Datenverarbeitung um 35 % beschleunigte.
  • Entwickelte eine fortschrittliche ?Advanced Analytics?-Plattform mit Hortonworks HDS, HDF+ Streaming Analytics Manager, Anaconda, KNIME, Apache Kafka, Casandra, Druid, IBM DSX, Alteryx und Apache Spark und erhöhte die Vorhersagegenauigkeit um 30 %.
  • Entwickelte anspruchsvolle Modelle für eine Customer Analytics-Lösung mit HD Insight, R, Python, String Boot, Java und Scala und verbesserte die Kundensegmentierung und Targeting-Genauigkeit um 25 %.
  • Implementierung eines Echtzeit-Facebook-Analytics-Systems mit Azure Bot Framework für Anwendungsfälle der Customer Journey und Kampagnenanalyse, was zu einer Steigerung des Kampagnen-ROI um 20 % führte.
  • Konstruierte Deutschebahn DataLab nutzt Microservices-Technologien, Docker, Kubernetes, Jupyterhub , RStudio, Knime , TensorFlow, H2O, Keras , Cloudera (CDP) und ermöglicht so eine 30-prozentige Verbesserung der Datenanalyseeffizienz.
  • Präsentiert Ergebnisse mit der Jethro Accelerator Engine und BI-Tools wie Tableau und Microsoft PowerBI , wodurch die Lesbarkeit der Daten und die Effizienz der Entscheidungsfindung um 20 % gesteigert wurden.
  • Der Einsatz von Agile-, Scrum-, Kanban- und SAFe- Methoden führte zu einer Verbesserung der Projektabwicklungsfristen um 25 %.
  • Durchführung von Workshops und Schulungen zu Big Data und Analytics, wodurch die Teamfähigkeiten und die Produktivität um 30 % verbessert wurden.
  • Koordinierter Betrieb mit AWS Cloud Provider, was zu einer Reduzierung der Infrastrukturkosten um 40 % führt.
  • Einsatz agiler Methoden mit Schwerpunkt auf Scrum zur Koordination interdisziplinärer Teams, Überwachung des Projektfortschritts, Identifizierung und Behebung von Hindernissen sowie Risikomanagement, um die termingerechte und budgetkonforme Lieferung hochwertiger Softwarelösungen sicherzustellen und eine agile Kultur im Unternehmen zu fördern.
Hortonworks Hadoop Hive+LLAP Apache Nifi /Kylo Ranger Kyberos Apache Kafka & Kafka Streaming Apache Casandra Apache Kite Apache Spark Casandra Druid Jethro Apache Nifi (HDF)/Kylo Apache Kafka IBM SPSS Alteryx Hortonworks HDS HDF+ Streaming Analytics Manager Anaconda KNIME IBM DSX
Deutsche Bahn AG
Frankfurt, Berlin, Erfurt

Aus- und Weiterbildung

Aus- und Weiterbildung

2 Jahre
2011-10 - 2013-09

Informatik-Studium

Master in Informatik, Freie Universität Berlin
Master in Informatik
Freie Universität Berlin

Informatik

3 Jahre 6 Monate
2006-10 - 2010-03

Informatik-Studium

Bachelor in Informatik, Stuttgart
Bachelor in Informatik
Stuttgart

Informatik

3 Jahre 1 Monat
2003-10 - 2006-10

BWL-Studium

Betriebswirtschaftslehre (BWL), Thailand
Betriebswirtschaftslehre (BWL)
Thailand

Betriebswirtschaftslehre (BWL)

Position

Position

  • Data Scientist
  • Data Enginieer
  • Data Architekt 
  • Big Data, Analytics, IoT  Beratung / Consulting 

Kompetenzen

Kompetenzen

Top-Skills

Big Data Advanced Analytics IoT Big Data Analytics Apache Hadoop Hive Python Java C++ Microsoft Azure Microsoft Azure SQL Database Oracle/SQL AWS Kafka Event Hubs AI KI chatgpt llm powerbi Microsoft Fabric

Produkte / Standards / Erfahrungen / Methoden

Apache Spark
Druid
Hortonworks
MS Office

Profil

  • Als außergewöhnlicher 10X-Freiberufler habe ich in den letzten 10 Jahren ein breites Spektrum an Erfahrungen gesammelt. Dies reicht von der Beratung über die Führung bis hin zu branchenspezifischen Rollen. Mein spezieller Fokus auf Big Data, Advanced Analytics und das Internet der Dinge hat es mir ermöglicht, als unabhängiger Berater in einer zunehmend datengesteuerten Welt erfolgreich zu sein.
  • War als Lösungsarchitekt bei der Microsoft Corporation tätig und spielte eine entscheidende Rolle bei der Förderung digitaler Business-Transformationspraktiken von der Strategie bis zur Implementierung und unterstützte so Kunden bei der Transformation ihrer Kundenerlebnisse und Servicebereitstellungsfähigkeiten.
  • Ein Branchenexperte mit einem breiten Erfahrungsspektrum in verschiedenen Branchen, darunter Technologie, Telekommunikation, Energie, Finanzen, Chemie und Pharma, Einzelhandel und Automobil.
  • Ein vertrauenswürdiger Berater auf der C-Suite-Ebene, der sich mit der Entwicklung und Umsetzung von Strategien, der organisatorischen Ausrichtung und der Bereitstellung effektiver Berichterstattung an Vorstände und Führungsteams auskennt.
  • Demonstrierte praktische Beteiligung an der Entwicklung von Schulungskursen, Bereitstellungsmethoden und geistigem Eigentum und demonstrierte sein Engagement für kontinuierliches Lernen und intellektuelles Wachstum.


Big-Data-Produkte:

  • Storm
  • Amazon Kinesis
  • Elastic Search 
  • Logstash
  • Kibana
  • Apache Apark 
  • Akka 
  • Druid
  • Pentaho
  • Flume NG
  • SOLR
  • Hadoop CDH
  • HDP
  • MapR 
  • MapR -DB
  • Hive
  • Pig
  • Apache AirFlow
  • ElasticSearch 
  • Cassandra
  • KNIME
  • Talend
  • Impala
  • Apache Drill
  • Kudu
  • Digital Twins


Microsoft Azure-Dienste

  • Cortana Intelligent Suite 
    • Data Lake Store
    • Data Lake Analytics
    • HDInsight
    • Datenkatalog 
    • Data Factory
    • Stream Analytics
    • Event Hubs
    • Cognitive Services
    • SQL Data Warehouse
    • Machine Learning Studio
    • Power BI
  • Azure IoT Hub Suite
    • IoT Hub
    • DocumentDB 
    • Logic Apps
    • Notification Hubs
    • Service Fabric
    • Funktionen
    • SQL-Datenbank
    • Redis Cache
  • Log Analytics, Operations Management Suite (OMS)
  • Sicherheitszentrum


KI/ Maschinelles Lernen /Datenanalyse

  • (Überwacht, unbeaufsichtigt, Verstärkung) Lernen, Weka, R, KNIME
  • NumPy/Panda
  • TensorFlow
  • Microsoft Cognitive Toolkit (CNTK )
  • scikit-learn
  • LLMs:
    • ChatGPT 
    • LLaMA 
    • MPT
    • GPT4ALL
  •  Langchain 
  • hugging face


Web Applikationen:

  • Play Framework RESTful APIs 
  • Spring Framework 
  • JEE, HTML5
  • CSS
  • Struts2


Semantische Web-Technologien:

  • RDF
  • RDFS
  • Protégé
  • SPARQL
  • OpenRDF 
  • Jena


CEP-Technologien

  • Esper
  • Drools (Regelbasierte Engine)


Testwerkzeuge:

  • IBM-Funktionstester
  • Froglogic Squish
  • Selenium WebDriver
  • Aappium 
  • Android GUITAR
  • Android SDK


Anwendungsserver:

  • Tomcat
  • SOAP
  • NGINX


Änderung und Konfiguration, Abhängigkeitsmanagement:

  • SVN
  • Git 
  • Jenkins
  • Maven
  • Gradle 
  • Docker
  • SBT


Software-Projektmanagement:

  • Wasserfall 
  • XP
  • V
  • V-XT
  • Scrum 
  • Kanban


Verarbeitung natürlicher Sprache:

  • AlchemyAPI 
  • Microsoft Cognitive Services
  • Azure Bot Service


IDE

  • Eclipse
  • IntelliJ
  • NetBeans
  • PyCharm
  • VS 2016/2017
  • Xamarin
  • MS Code


Wissenschaftliche Software:

  • R
  • Microsoft R
  • Latex
  • SQLalchemie 
  • Neoalchemie


XML-Technologien und verknüpfte Daten:

  • XQuery
  • XPath
  • Mikroformate
  • Mikrodaten
  • XML-Schema


Parallele Programmierung:

  • CUDA
  • MPI
  • OpenMP
  • Akka 
  • Java 8
  • Vertx.io


Anforderungsmanagement und Modellierung:

  • IBM Rational DOORS
  • VOLERE
  • UML
  • UML-Profil
  • BPMN
  • SBPM
  • BPEL
  • ARIS
  • GMF
  • Node-Red


DevOps

  • Docker
  • Docker-Compose
  • Kubernetes
  • Ansible
  • Terraform
  • Nagios
  • Grafana
  • Prometheus
  • Datadog
  • ELK Stack
  • Postman
  • Bash 
  • Jenkins
  • Github Action
  • Azure DevOps
  • Travis CI
  • Jira
  • Trello
  • Git
  • Helm
  • Terragrunt Pulumi
  • Bizeps


Management:

  • Leiten Sie 20 thailändische Studenten bei 3 Projekten und generieren Sie 20 % RIO
  • Leitung von Advanced Analytics-Teams (Connected Car, Bot Service)

Betriebssysteme

Windows
Linux
iOS

Programmiersprachen

C++
Python
Scala
Java
JavaFX
Eclipse RCP
C/C++
Java-Script
Spring Boot
Quarkus

Datenbanken

SQL
Oracle
10/11g
MySQL
Redis
MS SQL
2014 (-SSIS(ETL), 2016
SSAS
Analyse
SSRS
Berichte
Visual Studio
2013
Cassandra
HBase
PostgreSQL
JDBC
H2
Kudu
U-SQL
MongoDB
Clickhaus
MS Data Warehouse
Exasol- Datenbank
6.1
Tannenzapfen
Vector DB
Croma
Vector DB


Einsatzorte

Einsatzorte

Deutschland, Österreich, Schweiz

Einsatzort: Gesamteuropa

Ich besitze einen deutschen Pass.

Arbeits- und Aufenthaltserlaubnis: Unbegrenzt

möglich

Projekte

Projekte

1 Jahr 8 Monate
2022-08 - 2024-03

Entwicklung Datenintegrations-Pipeline

Data Scientist
Data Scientist
  • Entwickelte und implementierte eine ausgefeilte Datenintegrations-Pipeline, die Daten von SAP Hana in Microsoft Fabric über Datenflüsse und PySpark überträgt, was die Datenverarbeitung vereinfachte und die Systemeffizienz steigerte.
  • Entwickelte und implementierte eine ausgeklügelte Datenintegrations-Pipeline, die Datenflüsse und PySpark nutzte, um Daten nahtlos von SAP Hana in Microsoft Fabric zu transferieren, was die Datenverarbeitungsprozesse vereinfachte und die Systemeffizienz steigerte.
  • Koordinierte ETL-Prozesse zur Konsolidierung von Daten aus SAP Hana, Excel-Dateien und CSV-Dateien in Microsoft Fabric, was zur Erstellung eines zentralisierten Repositorys führte, das erweiterte Analysen und Berichte für das Management des Materiallebenszyklus ermöglichte.
  • Implementierte Datenbereinigungsverfahren unter Einsatz von Pandas, Dataflows und PySpark, um qualitativ hochwertige Datensätze sicherzustellen und Datenintegrität sowie -konsistenz über verschiedene Analyseplattformen hinweg zu gewährleisten.
  • Verfeinerte das Datenmodell unter Einsatz von Microsoft Fabric, Denodo, Geat Expectations, und PowerBI-Datenmodellierungstools, was erweiterte Analyse- und Berichtsfunktionen ermöglichte und datengetriebene Entscheidungsfindungen im Unternehmen stärkte.
  • Nutzte Microsoft Fabrics, Azure ML, und Azure Databricks zur Entwicklung eines prädiktiven Analysemodells unter Verwendung von Pandas, LSTM, Zeitreihenzerlegung und PySpark, was die Vorhersagegenauigkeit signifikant verbesserte und zu einem zentralen Bestandteil der strategischen Planung wurde.
  • Entwickelte und wartete Datamarts innerhalb von Microsoft Fabric für das Materiallebenszyklusmanagement, die durch PowerBI visualisiert wurden und handlungsorientierte Berichte für Geschäftsinteressenten bereitstellten.
  • Erstellte umfassende Berichte und Dashboards für das Materiallebenszyklusmanagement und Modellprognosen in PowerBI, was das Verständnis komplexer Datenzusammenhänge für das Management erhöhte.
  • Innovierte eine benutzerfreundliche Web-App mit Microsoft Power Apps, die es den Nutzern ermöglichte, mit den in PowerBI präsentierten Daten zu interagieren und diese zuverlässig in die Datenbank zurückzuschreiben, wodurch das Benutzerengagement und die Dateninteraktion verbessert wurden.
  • Formulierte komplexe DAX-Ausdrücke in PowerBI zur Definition von KPIs für Berichte, was die Leistungsmessung vereinfachte und Stakeholdern wichtige Metriken für informierte Entscheidungen lieferte.
  • Überführen Sie bestehende Dashboards von SAP Analytics Cloud (SAC) zu PowerBI für verbesserte Datenvisualisierung.
  • Entwickelte eine KI-gestützte Schnittstelle, die es Benutzern erlaubte, über ChatGPT mit ihren Daten zu interagieren, sodass PowerBI-Benutzer analytische Einsichten auf konversationelle Weise basierend auf ihrem spezifischen Datenkontext abfragen und erhalten konnten.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
Enercon GmbH
1 Jahr 2 Monate
2022-06 - 2023-07

Implementierung einer umfassenden Datenanalyseplattform

Sr. Solution Architect, Data Engineer & Data Scientist Azure Data Lake Storage Gen 2 Apache Spark PySpark ...
Sr. Solution Architect, Data Engineer & Data Scientist
  • Entwarf und leitete die Implementierung einer umfassenden Datenanalyseplattform für Magentazuhause und nutzte fortschrittliche Technologien wie Microsoft Azure Synapse Analytics, MongoDB, Postgresql , ClickhouseDB , Apache DRUID, Azure CosmosDB, Dagster und Azure Machine Learning. Diese Plattform erhöhte die Datenzugänglichkeit um 30 % und verbesserte die Verarbeitungsgeschwindigkeit um 40 %.
  • Einsatz von Azure Purview zusammen mit Azure Technologies und Python zum Entwerfen und Implementieren eines effektiven Data Governance-Frameworks. Dieses Framework gewährleistete eine Datengenauigkeit von 95 % und verbesserte die Einhaltung gesetzlicher Vorschriften um 20 %.
  • Entwicklung eines robusten Datenschutz- und Anonymisierungssystems mit Microsoft Presidio, Python und Azure Synapse Analytics, dass die Sicherheit sensibler Informationen von IoT-Geräten um 35 % erhöht.
  • Verwaltete Datenaufnahme aus verschiedenen Quellen wie MongoDB, Apache Kafka, JSON-Dateien, CSV-Dateien und Prometheus und Speicherung der verarbeiteten Daten im Azure Synapse Analytics Datawarehouse mithilfe der Delta-Tabellen-Technologie, wodurch die Datenverfügbarkeit um 25 % erhöht wurde.
  • Entwurf und Einführung von CI/CD-Datenpipelines (Continuous Integration/Continuous Delivery) mithilfe von Azure DevOps mit Synapse Workspace Deployment, nahtlos integriert in GitLab, was zu einer Reduzierung der Bereitstellungszeit um 50 % führte.
  • Orchestrierte Aufnahme von Sprachdaten (Voice to Text) in Azure Data Lake Storage Gen 2 mithilfe von Azure Databricks und Bereitstellung von Apache Spark, PySpark, Python, PyTorch und Databricks Live Tables (DLT). 
  • Verbesserte Datenanalyse und Konfigurationsunterstützung durch Nutzung innovativer Tools wie ChatGPT, Langchain, llama_index, Hugging Face und OpenAI . Ermöglicht ChatGPT die Interaktion mit verschiedenen Datenbanken, einschließlich Vektordatenbanken (Chroma & Pinecone) und PostgreSQL, und die Verarbeitung von Kundendaten in verschiedenen Formaten wie PDF, CSV und Text. Diese verbesserte Bereitstellung erleichterte Datenbankabfragen in natürlicher Sprache, was zu einer erheblichen Verbesserung der Service-Abfrageauflösung um 60 % und einer Steigerung der Datenverarbeitungseffizienz um 45 % führte
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
Azure Data Lake Storage Gen 2 Apache Spark PySpark Python PyTorch Databricks Live Tables ChatGPT Langchain llama_index Hugging Face OpenAI Chroma Pinecone PostgreSQL
(2) Deutsche Telekom AG
1 Jahr 3 Monate
2021-08 - 2022-10

Entwurf und Implementierung einer On-Premise-Daten- und Analyseplattform

Sr. Solution Architect Kubernetes Docker MinIO (S3-kompatibel) ...
Sr. Solution Architect
  • Entwurf und Implementierung einer On-Premise-Daten- und Analyseplattform auf Basis von S3 unter Verwendung von Technologien wie Kubernetes, Docker, MinIO (S3-kompatibel), Apache Kafka, Apache Cassandra, Elasticsearch, Microsoft SQL, SSIS, FHIR Server, Apache Trino , Apache Spark, Apache IceBerg (ähnlich wie Delta Lake), Redash , Amundsen, Apache AirFlow , Neo4J, XML, FHIR , HL7, SNOMED und Ontology. Diese innovative Lösung verbesserte die Datenzugänglichkeit um 30 % und erhöhte die Verarbeitungsgeschwindigkeit um 40 %.
  • Entwarf und führte ein Überwachungssystem für die DMI-Daten- und Analyseplattform unter Einsatz von Technologien wie Kibana, ElasticSearch , Grafana und Prometheus aus. Dieses System verbesserte die Sichtbarkeit der Plattformleistung um 35 % und reduzierte die Ausfallzeit um 20 %, wodurch die Effizienz und Zuverlässigkeit des Gesamtsystems verbessert wurde.
  • Einsatz agiler Methoden mit Schwerpunkt auf Scrum zur Koordination interdisziplinärer Teams, Überwachung des Projektfortschritts, Identifizierung und Behebung von Hindernissen sowie Risikomanagement, um die termingerechte und budgetkonforme Lieferung hochwertiger Softwarelösungen sicherzustellen und eine agile Kultur im Unternehmen zu fördern.
Kubernetes Docker MinIO (S3-kompatibel) Apache Kafka Apache Cassandra Elasticsearch Microsoft SQL SSIS FHIR Server Apache Trino Apache Spark Apache IceBerg (ähnlich wie Delta Lake) Redash Amundsen Apache AirFlow Neo4J XML FHIR HL7 SNOMED Ontology Kibana ElasticSearch Grafana Prometheus
DMI GmbH & Co.KG
6 Monate
2021-12 - 2022-05

Migration des Data Warehouse

Sr. Data Solution Architect MSSQL SSIS Azure ...
Sr. Data Solution Architect
  • Leitung der Migration des Data Warehouse (MSSQL, SSIS) zu Azure Analytics unter Nutzung der Azure-Plattform, Terraform, Bicep, Apache Kafka, Spark, Delta Lake, Azure Synapse Analytics, Azure Data Factory, Salesforce, DBT, Denodo, Python und Web-APIs. Dieser Übergang führte zu einer Reduzierung der Datenabrufzeit um 50 % und einer Reduzierung der Kosten um 30 %.
  • Entwickelte und implementierte Datenqualitätsüberwachungs- und Datenverwaltungssysteme unter Verwendung von Azure Purview, Azure Technologies, Python und verschiedenen Microsoft-Produkten. Dadurch stieg die Datenqualität um 35 % und die Einhaltung gesetzlicher Vorschriften um 20 %.
  • Leitete die Umstellung des bestehenden Data Warehouse von MS SQL-basierten tabellarischen Modellen auf Star-Schema-Modelle in Azure Synapse Analytics unter Einsatz von Kimball-Methoden. Anschließend wurde der PowerBI- Dienst für die umfassende Dashboard-Erstellung genutzt , wodurch die Datenvisualisierung und die Effizienz der Geschäftsentscheidungen um 40 % verbessert wurden.
  • Entworfen und ausgeführt von CI/CD-Datenpipelines mit Azure DevOps, einschließlich Synapse Workspace Deployment für effizientes Datenmanagement. Diese Implementierung steigerte die Datenverarbeitungsgeschwindigkeit um 45 % und verkürzte die Bereitstellungszeit um 30 %.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
MSSQL SSIS Azure Azure-Plattform Terraform Bicep Apache Kafka Spark Delta Lake Azure Synapse Analytics Azure Data Factory Salesforce DBT Denodo Python Web-APIs Scrum Kanban
Computacenter AG & Co. oHG
7 Monate
2021-10 - 2022-04

Entwurf und Implementierung eines Echtzeit-Data Warehouse

Sr. Data Solution Architect Azure-Plattform Kubernetes EKS Terraform ...
Sr. Data Solution Architect
  • Entwurf und Implementierung eines Echtzeit-Data Warehouse unter Verwendung der Azure-Plattform, Kubernetes EKS, Terraform, Apache Kafka, Spark, Flink , Delta Lake, Azure Logic Apps, Microsoft Flows, Azure Synapse Analytics, Azure Data Factory, Azure Databricks, DBT und Apache Airflow , Python, GraphQL und APIs, was zu einer Verbesserung der Datenverarbeitungsgeschwindigkeit um 40 % und einer Reduzierung der damit verbundenen Kosten um 30 % führt.
  • Entworfen und etablierte Datenqualitätsüberwachungs- und Datenverwaltungssysteme unter Verwendung von Azure Purview, Azure Technologies, Python und anderen Microsoft-Produkten, die die Datengenauigkeit um 35 % verbesserten und zu einer besseren Einhaltung gesetzlicher Vorschriften führten.
  • Entwickelte Datenmodelle unter Verwendung von Star-Schema in Verbindung mit Synapse Analytics und PowerBI sowie Tabular mit Azure Analytics Service und Visual Studio, was zu einer 25-prozentigen Steigerung der Berichtserstellungseffizienz und einer 15-prozentigen Verbesserung der Geschäftsentscheidungsgeschwindigkeit führte.
  • Aufbau eines Clustering-Modells unter Verwendung von Synapse Analytics und Azure ML, das die Datensegmentierung und gezielte Marketingstrategien verbesserte und zu einer Steigerung der Kundenkonversionsraten um 20 % beitrug.
  • Entworfen und implementierte CI/CD-Datenpipelines unter Verwendung von Azure DevOps in Verbindung mit Synapse Workspace Deployment, wodurch die Bereitstellungszeiten um 50 % verkürzt und die Veröffentlichungshäufigkeit um 60 % erhöht wurden.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur
Azure-Plattform Kubernetes EKS Terraform Apache Kafka Spark Flink Delta Lake Azure Logic Apps Microsoft Flows Azure Synapse Analytics Azure Data Factory Azure Databricks DBT und Apache Airflow Python GraphQL APIs
FIEGE Logistik Stiftung & Co. KG
6 Monate
2021-10 - 2022-03

Überwachungsplattform

Sr. Solution Architect & Sr. DevOps Engineer AWS Datadog-Plattform Kubernetes EKS Terraform ...
Sr. Solution Architect & Sr. DevOps Engineer AWS
  • Entwickelte und implementierte eine Überwachungsplattform für die Fielmann AG unter Verwendung der Datadog-Plattform, Kubernetes EKS, Terraform, Pulumi , AWS Services, AWS Databases (RDS & Aurora), Apache Kafka, AWS MSK, Helm3, Microsoft Azure Logic Apps, Glue, AWS Lambda ,Microsoft Flows, Git, Github ,KONG Gateway, Git Actions und Spring Boot. Diese Plattform erhöhte die Systemtransparenz um 35 %, was eine schnellere Fehlerbehebung ermöglichte und die Ausfallzeit des Systems um 40 % reduzierte.
  • Entwickelte ein prädiktives Überwachungssystem, das Datadog, Python, SQL, API, C#, Terraform und Prognose-/ Zeitreihen-/ Clustering-/ Klassifizierungsmodelle nutzt. Dieses System verbesserte die Prognosegenauigkeit um 30 % und reduzierte ungeplante Systemunterbrechungen um 25 %, wodurch die Systemzuverlässigkeit erhöht wurde.
  • Verwaltete die erfolgreiche Migration bestehender Überwachungssysteme, einschließlich Grafana, Prometheus, Kibana, ElasticSearch und selbstverwalteter K8s, auf die neue Fielmann Monitoring-Plattform. Diese Migration verbesserte die Effizienz der Datenintegration um 45 % und steigerte die Gesamtsystemleistung um 20 %.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
Datadog-Plattform Kubernetes EKS Terraform Pulumi AWS Services AWS Databases (RDS & Aurora) Apache Kafka AWS MSK Helm3 Microsoft Azure Logic Apps Glue AWS Lambda Microsoft Flows Git Github KONG Gateway Git Actions Spring Boot Python SQL API C#
Fielmann AG
10 Monate
2020-11 - 2021-08

Multi-Cloud-Echtzeit-Datenanalyseplattform und Datenpipelines

Sr. Solution Architect Apache Kafka (Confluent Cloud) Kafka Connect Kafka Mirroring (MirrorMaker) ...
Sr. Solution Architect
  • Entwickelte und implementierte eine Multi-Cloud-Echtzeit-Datenanalyseplattform und Datenpipelines unter Verwendung von Technologien wie Apache Kafka (Confluent Cloud), Kafka Connect, Kafka Mirroring (MirrorMaker), Kubernetes, AKHQ, Strimzi, Docker, Travis, Java , Scala ,Python , Spring Boot, Quarkus, AWS, AWS Redshift, AWS Glue, AWS Lambda, Google Cloud, Apache Pinot, Google Big Query, Apache Beam, Kafka Connect, Apache Presto, PostgreSQL, OracleDB, TimeScale DB , YAML, REST API (Micro Services). Diese strategische Integration führte zu einer Reduzierung der Datenverarbeitungszeit um 30 % und einer Erhöhung der Datengenauigkeit um 25 %.
  • Konzeption und Implementierung eines Multi-Cloud-Enterprise-Observability-Systems für die Echtzeit-Datenanalyseplattform unter Verwendung von Technologien wie Prometheus, Grafana, DataDog , Terraform, Kubernetes, Docker, Wavefront, Loggly , PagerDuty, Microsoft Team, Microsoft Flows, Github , Jaeger, Posten. Dieses Observability-System verbesserte die Effizienz der Systemüberwachung um 40 % und reduzierte die Ausfallzeit um 35 %.
  • Entworfen und erstellte automatisierte Geschäftsworkflows mit Microsoft Power Automate, Power Apps, Logic Apps und OpenAPI 3.0, um interne Geschäftsanwendungsfälle zu bedienen. Diese Automatisierung führte zu einer 45-prozentigen Verbesserung der Geschäftsprozesseffizienz und einer um 20 % höheren Geschwindigkeit bei der Aufgabenerledigung.
  • Entworfen und implementiert: SharePoint Intelligent Workplace mit Microsoft Power Automate, Power Apps, Logic Apps, OpenAPI 3.0, Microsoft SharePoint, Microsoft List, Microsoft Planner, Microsoft Dataverse , Microsoft Teams, Microsoft Power Virtual Agents, Microsoft Forms und Power BI. Dies führte zu einer Steigerung der Teamzusammenarbeit um 50 %, einem verbesserten Dokumentenmanagement um 30 % und einer verbesserten datengesteuerten Entscheidungsfindung um 40 %.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur
Apache Kafka (Confluent Cloud) Kafka Connect Kafka Mirroring (MirrorMaker) Kubernetes AKHQ Strimzi Docker Travis Java Scala Python Spring Boot Quarkus AWS AWS Redshift AWS Glue AWS Lambda Google Cloud Apache Pinot Google Big Query Apache Beam Apache Presto PostgreSQL OracleDB TimeScale DB YAML REST API (Micro Services) Prometheus Grafana DataDog Terraform Wavefront Loggly PagerDuty Microsoft Team Microsoft Flows Github Jaeger Posten SharePoint Intelligent Workplace mit Microsoft Power Automate Power Apps Logic Apps OpenAPI 3.0 Microsoft SharePoint Microsoft List Microsoft Planner Microsoft Dataverse Microsoft Teams Microsoft Power Virtual Agents Microsoft Forms Power BI
Fashion Digital GmbH & Co.KG
4 Monate
2020-11 - 2021-02

Entwicklung und Implentierung von IoT-Datenerfassungspipelines

Sr. Data & Machine Learning Engineer Consultant Azure Data Lake ( Gen1 Gen2) Azure Data Factory ...
Sr. Data & Machine Learning Engineer Consultant
  • Entwickelte und implementierte IoT-Datenerfassungspipelines von Edge-Geräten bis zur Azure Cloud, was zu einer 40 % schnelleren Datenverarbeitung und 30 % Kosteneinsparungen bei der Infrastruktur führte.
  • Entworfen und ausgeführte Datenaufnahmepipelines von lokal in die Azure Cloud, um ein DWH zu erstellen, wodurch die Datenzugänglichkeit um 45 % verbessert und die Datenabrufzeit um 35 % verkürzt wird.
  • Mithilfe der CDC-Funktion (Change Data Capture) wurden Daten aus dem IoT zusammen mit lokalen Quellen vorbereitet, verarbeitet und integriert, wodurch die Datenaktualisierungen in Echtzeit um 50 % und die Datenqualität um 20 % verbessert wurden.
  • Aufgenommene Daten aus verschiedenen Quellen mithilfe von Azure Data Lake ( Gen1, Gen2), Azure Data Factory, Azure Databricks, Azure Function, Azure Synapse Analytics, Stream Analytics, IoT Hubs, ADT, IoT Stack, Edge, Denodo, Azure Data Bricks, CosmoDB, REST API , Python & Java, PyTorch, C# für Spark. Dies führte zu einer Verbesserung der Datenverarbeitungseffizienz um 30 % und der Speicheroptimierung um 25 %.
  • Durchführung von Feature-Engineering und Erstellung von Vorhersagemodellen und Pipelines zur Vorhersage von CO2-Emissionswerten, was zu einem Modell mit einer Genauigkeit von 80 % führte und bei strategischen Umweltentscheidungen hilfreich war.
  • Arbeitete mit einer Vielzahl von Technologien wie SQL, PySpark , Scikit Learn, Arrow, DVC, Panda, Keras , PyTorch, Docker , Kubernetes, Azure Synapse Analytics, Apache Iceberg, PowerBI , Dax, SQL, Python/Java, .Net, PySpark , Azure Databricks, Azure Data Lake, Data Factory, MySQL, PostgreSQL, IoT Hubs, IoT Stack Edge, Azure Function, CI /CD, Apache Nifi, verbessert die Gesamtprojekteffizienz um 40 % und trägt zu einer 25 %igen Reduzierung der Software bei. Verwandte Themen.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
Azure Data Lake ( Gen1 Gen2) Azure Data Factory Azure Databricks Azure Function Azure Synapse Analytics Stream Analytics IoT Hubs ADT IoT Stack Edge Denodo Azure Data Bricks CosmoDB REST API Python & Java PyTorch C# Spark SQL PySpark Scikit Learn Arrow DVC Panda Keras Docker Kubernetes Apache Iceberg PowerBI Dax Python/Java .Net Azure Data Lake Data Factory MySQL PostgreSQL IoT Stack Edge CI /CD Apache Nifi
HeidelbergCement AG
5 Monate
2020-07 - 2020-11

Optimierung der Architektur und des Entwicklungsrahmens

Sr. Data Engineer Consultant Azure Data Lake Azure Data Factory Azure Databricks ...
Sr. Data Engineer Consultant
  • Optimierung der Architektur und des Entwicklungsrahmens, Steigerung der Systemeffizienz um 20 % und Reduzierung der Wartungszeit um 15 %.
  • Alle vorhandenen Pipelines wurden erfolgreich auf ein neues Entwicklungsframework migriert, einschließlich Übergängen von Gen1 zu Gen2, Oracle DBs zu Gen2 und Hadoop zu Gen2. Dies führte zu einer Verbesserung der Datenverarbeitungsgeschwindigkeit um 30 % und einer Reduzierung der Betriebskosten um 10 %.
  • Fachmännische Abwicklung der Datenaufnahme aus mehreren Quellen in Azure Data Lake mithilfe von Azure Data Factory, Azure Databricks, Azure DWH, Azure Key Vault, Azure Kubernetes (K8), Netflix Conductor, Python und Scala, was zu einer Steigerung der Datenzugänglichkeit um 35 % führte eine Reduzierung der Datenlatenz um 25 %.
  • PowerBI wurden interaktive und umfassende Datenvisualisierungen erstellt , wodurch die datengesteuerte Entscheidungsfindung um 40 % verbessert wurde.
  • Sicherstellung strenger Tests der Datenpipelines, was zu einer Erfolgsquote von 99 % hinsichtlich der Richtigkeit und Vollständigkeit der Datenbereitstellung führte.
  • Erstellung und Überprüfung der gesamten Dokumentation sowohl für die Pipelines als auch für die Dienste, wodurch die Prozesstransparenz verbessert und die Prüfungsbereitschaft um 20 % erhöht wurde.
  • Durch die Optimierung der Ausführungslaufzeiten der Azure Databricks (Spark)-Pipeline von zwei Tagen auf zwei Stunden wurde ein wichtiger Meilenstein erreicht, was zu einer Verbesserung der Verarbeitungsgeschwindigkeit um 96 % und einer Steigerung der gesamten Projektproduktivität um 30 % führte.
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
Azure Data Lake Azure Data Factory Azure Databricks Azure DWH Azure Key Vault Azure Kubernetes (K8) Netflix Conductor Python Scala SQL Big Data Cloud Spark Docker Azure Kubernetes Python/Scala Data Factory PowerBI Spring Boot Maven Jenkins Artifactory HDInsight Apache Kafka DAX
Munich RE
7 Monate
2020-02 - 2020-08

Datenintegration

Sr. Solution Architect und Data engineer Consultant Apache Kafka Spring Boot Microsoft Dynamics 365 ...
Sr. Solution Architect und Data engineer Consultant
  • Entworfen und implementierte die Datenintegration zwischen SAP-ERP, SAP-CRM und Dynamics 365 Online unter Verwendung von Apache Kafka und Microsoft-Diensten. Diese integrierte Lösung verbesserte die Datenzugänglichkeit um 45 % und reduzierte die Datenverarbeitungszeit um 35 %.
  • Entwarf und baute ein Protokollierungs- und Überwachungssystem für die SAP-CRM- und MS-Dynamics 365-Datenpipeline mit Spring Boot, Kafka, Prometheus und Grafana, wodurch die Systemzuverlässigkeit um 40 % gesteigert und die Systemausfallzeit um 25 % reduziert wurde.
  • Entwurf und Ausführung einer Microservices Data Pipeline (CI/CD) von Datenquellen (SAP-CRM, SAP-ERP) zu Microsoft Dynamics 365 (D365). Dies führte zu einem nahtlosen Datenfluss, reduzierte die Datenlatenz um 50 % und steigerte die Effizienz der Datenvorgänge um 40 %.
    • Entwickelte Microservices mit einer Vielzahl von Technologien, erhöhte die Systemagilität und verkürzte die Entwicklungszeit um 30 %.
    • Nutzung von Microsoft Dynamics 365, Microsoft Flows, MS-Logic Apps, MS-Function, Event Hubs und Power Apps zur Optimierung von Geschäftsprozessen.
    • Analysierte und modellierte Daten mithilfe eines gemeinsamen Datenmodells (CDM) und eines gemeinsamen Datendienstes (CDS), wodurch die Datenkonsistenz um 25 % verbessert wurde.
    • Entwickelte PowerApps zur Aufnahme von Daten von Kafka in CDS für D365 und erhöhte die Geschwindigkeit der Datenaufnahme um 30 %.
    • Synchronisierte Daten zwischen D365 und SAP-CRM, wodurch die Datenkonsistenz auf allen Plattformen sichergestellt und die Datengenauigkeit um 40 % verbessert wird.
    • Überwachtes System und Dashboards mit PowerBI und Grafana, wodurch die betriebliche Transparenz um 35 % erhöht wird.
    • Verwendet Python und H20 Machine Learning Libs zusammen mit Kafka Streams, um Kundensegmentierungsmodelle zu erstellen und bereitzustellen und so die Genauigkeit der Kundensegmentierung um 50 % zu verbessern.
    • Verantwortlich für das agile Management mehrerer IT-Projekte unter Einsatz von Scrum und Kanban, Koordination interdisziplinärer Teams für eine nahtlose Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur Sicherstellung der termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen sowie die Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Kultur im Unternehmen.
Apache Kafka Spring Boot Microsoft Dynamics 365 Microsoft Flows MS-Logic Apps MS-Function Event Hubs Power Apps PowerBI Grafana Python
Mobility Services Holding
2 Monate
2019-11 - 2019-12

Entwicklung und Durchführung umfassender Workshops

Sr. Solution Architect Big Data Analytics Apache Pulsar ...
Sr. Solution Architect
  • Entwicklung und Durchführung umfassender Workshops mit Schwerpunkt auf Big Data, Analytics und der AWS- Datalake- Plattform unter Einbeziehung von Technologien wie Apache Pulsar, Kafka, Pulsar , Flink , Neo4J, Spark, MemSQL , Presto, AWS Redshift und Denodo. Diese Workshops steigerten das Fachwissen der Teilnehmer um 40 % und verbesserten die Plattformeffizienz um 30 %.
  • Entworfen und implementierte Datenerfassungspipelines unter Verwendung der in den Workshops hervorgehobenen Technologien, darunter AWS S3, Glacier, Glue, AWS Lambda, und RDS, wodurch der Datenfluss optimiert und die Datenverarbeitungsgeschwindigkeit um 35 % erhöht wurde.
  • Aufbau einer einheitlichen Hybridarchitektur für lokale und Multi-Cloud-Umgebungen (z. B. Migration in/aus der Cloud wie AWS, Azure), die den Datenzugriff um 25 % verbesserte und die Migrationszeit um 30 % verkürzte.
  • Nutzung von Java- und Scala-Kenntnissen für die Systementwicklung und -optimierung, was zu einer Verbesserung der Systemleistung um 20 % führte.
  • Nutzung von Terraform, Ansible, Terraform Docker, Kubernetes, EC2, Azure und Apache Presto für die Infrastrukturverwaltung und -automatisierung, was zu einer Reduzierung der Bereitstellungszeit um 50 % und einer Erhöhung der Infrastrukturstabilität um 30 % führte.
  • Einsatz agiler Methoden mit Schwerpunkt auf Scrum zur Koordination interdisziplinärer Teams, Überwachung des Projektfortschritts, Identifizierung und Behebung von Hindernissen sowie Risikomanagement, um die termingerechte und budgetkonforme Lieferung hochwertiger Softwarelösungen sicherzustellen und eine agile Kultur im Unternehmen zu fördern
Big Data Analytics Apache Pulsar Kafka Pulsar Flink Neo4J Spark MemSQL Presto AWS Redshift Denodo AWS S3 Glacier Glue AWS Lambda RDS Terraform Ansible Terraform Docker Kubernetes EC2 Azure Apache Presto
Berliner Content Platform Company
8 Monate
2019-04 - 2019-11

Durchführung praktischer Workshops mit Hadoop Hortonworks

Big Data, Analytics, IoT Trainer Apache Kafka IoT Azure ...
Big Data, Analytics, IoT Trainer
  • Konzipierte und implementierte umfassende Big Data-, Analytics- und IoT-Coaching-Programme und Workshops, die zu einer Steigerung der technischen Kompetenz der Teilnehmer um 35 % führten. Dazu gehörten intensive Sitzungen zu Apache Kafka, IoT mit Apache Kafka und Azure, Azure Data Lake, Azure Databricks, PowerBI , SQL und vielen mehr.
  • Durchführung praktischer Workshops mit Hadoop Hortonworks (HDP), Apache Hive, HDF (Apache Nifi ), SMM, SAM, PowerApps, Apache Spark, SAP Hana, BigQuery , Amazon Redshift, AWS Lambda ,Glue (PoC), wodurch die Produktivität um 20 % gesteigert und verbessert wurde Teamfähigkeiten.
  • Leitete den Aufbau einer einheitlichen Hybridarchitektur für lokale, Multi-Cloud- und Edge-Umgebungen und verbesserte die Effizienz der Cloud-Migration um 30 %.
  • Entwickelte eine IoT-Lösung mit Azure IoT Hubs, Raspberry Pi, Azure IoT Edge und IoT Digital Twins, die IoT-Daten von Energiestationen verarbeitete, was zu einer Steigerung der Datenverarbeitungsgeschwindigkeit um 25 % und einer Reduzierung der Latenz um 15 % führte.
  • Pionierarbeit bei der Entwicklung einer Analyseplattform mit Azure Cloud, die die Datenzugänglichkeit um 40 % steigerte und die Verarbeitungsgeschwindigkeit um 45 % verbesserte.
  • Angebot einer ausführlichen Apache Spark-Schulung mit Azure Databricks, die das Erstellen von Datensätzen, das Anwenden von Vorgängen auf Datensätze, das Erstellen und Überwachen von Apache Spark-Anwendungen und mehr umfasst. Diese Schulungen verbesserten die Apache Spark-Kenntnisse der Teilnehmer um 50 % und die Anwendungsleistung um 30 %.
  • Einsatz agiler Methoden mit Schwerpunkt auf Scrum zur Koordination interdisziplinärer Teams, Überwachung des Projektfortschritts, Identifizierung und Behebung von Hindernissen sowie Risikomanagement, um die termingerechte und budgetkonforme Lieferung hochwertiger Softwarelösungen sicherzustellen und eine agile Kultur im Unternehmen zu fördern.
Apache Kafka IoT Azure Azure Data Lake Azure Databricks PowerBI SQL Hadoop Hortonworks (HDP) Apache Hive HDF (Apache Nifi ) SMM SAM PowerApps Apache Spark SAP Hana BigQuery Amazon Redshift AWS Lambda Glue (PoC)
Open Grid Europe
4 Monate
2019-04 - 2019-07

Durchführung von Workshops und Coachings

Sr. Solution Architect und Data Ansible MapR LDAP ...
Sr. Solution Architect und Data
  • Durchführung von Workshops und Coachings zu MapR- und Big-Data-Technologien, wodurch das Kompetenzniveau des Teams gesteigert und die Produktivität um 30 % gesteigert wurde.
  • Entwickelte, baute und verwaltete Datenflüsse, Datenanalysetools, Überwachungstools und große MapR- Cluster für ein selbstfahrendes Autoprojekt bei der Daimler AG in Stuttgart. Verwaltet über 5 PB Daten mit einem maximalen Durchsatz von 4 GB/s und steigert die Datenverarbeitungsgeschwindigkeit um 35 %.
  • Bereitstellung und Feinabstimmung einer Vielzahl von Technologien wie Ansible, MapR , LDAP, AD, Python, Java, Scala, PySpark , UDF, UnitTest , InfluxDB , OpenTSDB , Elasticsearch, FluentD , Collectd , Grafana, Icinga , Kibana, Prometheus, Linux SUSE12 SP3, SUSE Manager, Docker, Kubernetes, Zeppelin und Jupyter Notebooks.
  • Verwaltete MapR- Cluster und MapR- Rechenzentren, einschließlich:
    • Installation neuer MapR- Cluster, Migration von MapR 5.2 auf 6.1, Überprüfung und Tests von Clustern, was zu einer Verbesserung der Clusterleistung um 30 % führt.
    • Speicherung und Schutz von Clusterdaten, einschließlich Erstellung und Konfiguration von MapR- Volumes, Verwaltung von Snapshots, Spiegeln und Remote-Spiegeln sowie Daten-Tiering für Cloud-Dienste, wodurch die Datensicherheit um 40 % erhöht wird.
    • Konfiguration von MapR- Clustern, einschließlich Benutzer- und Clusterparametern und Zugriff, wodurch die Zugänglichkeit und Effizienz des Systems um 25 % verbessert wird.
    • Wartung von MapR- Clustern, einschließlich Überwachung, Festplattenverwaltung und Verwendung von Fehlerbehebungstools, wodurch die Systemausfallzeit um 35 % reduziert wird.
    • Installation und Konfiguration von Apache Yarn-Diensten sowie Konfiguration des Kapazitätsplaners, was zu einer Verbesserung der Ressourcenzuteilungseffizienz um 20 % führt.
    • Optimierung der Clusterleistung und Planung der Jobressourcenzuweisung, wodurch die Gesamtsystemleistung um 30 % verbessert wird.
    • Erstellung und Verwaltung des MapR- Bereitstellungslebenszyklus mit Ansible und Docker, wodurch die Bereitstellungszeit um 50 % reduziert wird.
  • Verantwortlich für das agile Management mehrerer IT-Projekte unter Einsatz von Scrum und Kanban, Koordination interdisziplinärer Teams für eine nahtlose Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur Sicherstellung der termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen sowie die Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Kultur im Unternehmen.
Ansible MapR LDAP AD Python Java Scala PySpark UDF UnitTest InfluxDB OpenTSDB Elasticsearch FluentD Collectd Grafana Icinga Kibana Prometheus Linux SUSE12 SP3 SUSE Manager Docker Kubernetes Zeppelin Jupyter Notebooks
Daimler AG
8 Monate
2018-09 - 2019-04

Projektplanung, Workshops und Analyse

Sr. Data Scientist MapR- Hadoop-Distribution Semantic-Web-Technologien Oracle-Datenbank ...
Sr. Data Scientist
  • Fachmännisch geleitete Projektplanung, Workshops und Analyse aktueller Architekturen und Geschäftsanforderungen auf Basis von Scrum, wodurch die Effizienz der Projektabwicklung um 25 % gesteigert wird.
  • Entwarf und implementierte eine ?Data Analytics?- und Hochgeschwindigkeits-OLAP-Plattform unter Verwendung der MapR- Hadoop-Distribution, Semantic-Web-Technologien, Oracle-Datenbank, PL-SQL, Hive, Apache Nifi , Apache Kafka, ExaSolution DB und Apache Spark, was zu einer Verbesserung um 35 % führte in der Datenverarbeitung und -analyse.
  • Erstellung eines Vorhersagemodells für medizinische Analysen unter Verwendung von R, Scala, Python, H20, Java, UDF (benutzerdefinierte Funktion), Hive, ExaSolution DB, Exasol DB, Denodo, PL-SQL und Tibco Spotfire, wodurch die Vorhersagegenauigkeit um 30 % erhöht wurde.
  • Aufbau eines Exasol- Datenbankclusters mit MapR PoC, um Echtzeitvorhersagen auszuführen und ML-Modelle für Exasol bereitzustellen . Dies führte zu einem schnellen Übergang von PoC zu MVP und verkürzte die Markteinführungszeit um 40 %.
  • Visualisierte Ergebnisse mit der Exasol- Beschleuniger-Engine Dremio und verschiedenen BI-Tools wie Tibco Spotfire, Tableau, Microsoft PowerBI , DAX und  SQL , wodurch die Lesbarkeit der Daten und die Entscheidungsgeschwindigkeit um 25 % verbessert werden.
  • Effektive Verwaltung aller Vorgänge vor Ort , was zu vollständiger Datenkontrolle, erhöhter Sicherheit und einer Verringerung der Abhängigkeiten von Drittanbietern führt.
  • sowie die Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Kultur im Unternehmen
  • Verantwortlich für das agile Management mehrerer IT-Projekte mit Scrum und Kanban, einschließlich der Erstellung von User Stories, Product Backlogs und EPICs, Koordination interdisziplinärer Teams zur nahtlosen Integration, Überwachung des Projektfortschritts, Identifizierung und Lösung von Hindernissen, Risikomanagement zur termingerechten und budgetkonformen Lieferung hochwertiger Softwarelösungen, sowie Entwicklung und Implementierung von Best Practices im Projektmanagement zur Förderung einer agilen Unternehmenskultur.
MapR- Hadoop-Distribution Semantic-Web-Technologien Oracle-Datenbank PL-SQL Hive Apache Nifi Apache Kafka ExaSolution DB Apache Spark R Scala Python H20 Java UDF Exasol DB Denodo Tibco Spotfire Tableau Microsoft PowerBI DAX SQL Scrum Kanban
Ingelheim Böhringer
1 Jahr 6 Monate
2017-07 - 2018-12

Projektplanung und Analyse aktueller Architekturen

Sr. Solution Architect, Data Engineer, Data Scientist Hortonworks Hadoop Hive+LLAP Apache Nifi /Kylo ...
Sr. Solution Architect, Data Engineer, Data Scientist
  • Effizient geleitete Projektplanung und Analyse aktueller Architekturen und Geschäftsanforderungen auf Basis von Scrum, wodurch die Effizienz des Projektablaufs um 25 % verbessert wurde.
  • Entworfen und implementiert eine robuste ?Data Lake?-Plattform mit Hortonworks Hadoop, Hive+LLAP , Apache Nifi /Kylo, Ranger, Kyberos , Apache Kafka & Kafka Streaming, Apache Casandra, Apache Kite und Apache Spark, wodurch die Effizienz der Datenspeicherung und -abfrage verbessert wird 30 %.
  • Aufbau einer leistungsstarken ?Data Cube (OLAP) in Data Lake?-Plattform unter Verwendung von Hortonworks Hadoop, Hive+LLAP, Apache Nifi /Kylo, Casandra, Druid, Jethro und Apache Spark, was zu einer Verbesserung der OLAP-Vorgänge um 40 % führte.
  • Entwickelte eine dynamische ?Real-Time Analytics?-Plattform unter Verwendung von Hortonworks Hadoop, Apache Nifi (HDF)/Kylo, Apache Kafka, Casandra, Druid, IBM SPSS, Alteryx und Apache Spark, die die Echtzeit-Datenverarbeitung um 35 % beschleunigte.
  • Entwickelte eine fortschrittliche ?Advanced Analytics?-Plattform mit Hortonworks HDS, HDF+ Streaming Analytics Manager, Anaconda, KNIME, Apache Kafka, Casandra, Druid, IBM DSX, Alteryx und Apache Spark und erhöhte die Vorhersagegenauigkeit um 30 %.
  • Entwickelte anspruchsvolle Modelle für eine Customer Analytics-Lösung mit HD Insight, R, Python, String Boot, Java und Scala und verbesserte die Kundensegmentierung und Targeting-Genauigkeit um 25 %.
  • Implementierung eines Echtzeit-Facebook-Analytics-Systems mit Azure Bot Framework für Anwendungsfälle der Customer Journey und Kampagnenanalyse, was zu einer Steigerung des Kampagnen-ROI um 20 % führte.
  • Konstruierte Deutschebahn DataLab nutzt Microservices-Technologien, Docker, Kubernetes, Jupyterhub , RStudio, Knime , TensorFlow, H2O, Keras , Cloudera (CDP) und ermöglicht so eine 30-prozentige Verbesserung der Datenanalyseeffizienz.
  • Präsentiert Ergebnisse mit der Jethro Accelerator Engine und BI-Tools wie Tableau und Microsoft PowerBI , wodurch die Lesbarkeit der Daten und die Effizienz der Entscheidungsfindung um 20 % gesteigert wurden.
  • Der Einsatz von Agile-, Scrum-, Kanban- und SAFe- Methoden führte zu einer Verbesserung der Projektabwicklungsfristen um 25 %.
  • Durchführung von Workshops und Schulungen zu Big Data und Analytics, wodurch die Teamfähigkeiten und die Produktivität um 30 % verbessert wurden.
  • Koordinierter Betrieb mit AWS Cloud Provider, was zu einer Reduzierung der Infrastrukturkosten um 40 % führt.
  • Einsatz agiler Methoden mit Schwerpunkt auf Scrum zur Koordination interdisziplinärer Teams, Überwachung des Projektfortschritts, Identifizierung und Behebung von Hindernissen sowie Risikomanagement, um die termingerechte und budgetkonforme Lieferung hochwertiger Softwarelösungen sicherzustellen und eine agile Kultur im Unternehmen zu fördern.
Hortonworks Hadoop Hive+LLAP Apache Nifi /Kylo Ranger Kyberos Apache Kafka & Kafka Streaming Apache Casandra Apache Kite Apache Spark Casandra Druid Jethro Apache Nifi (HDF)/Kylo Apache Kafka IBM SPSS Alteryx Hortonworks HDS HDF+ Streaming Analytics Manager Anaconda KNIME IBM DSX
Deutsche Bahn AG
Frankfurt, Berlin, Erfurt

Aus- und Weiterbildung

Aus- und Weiterbildung

2 Jahre
2011-10 - 2013-09

Informatik-Studium

Master in Informatik, Freie Universität Berlin
Master in Informatik
Freie Universität Berlin

Informatik

3 Jahre 6 Monate
2006-10 - 2010-03

Informatik-Studium

Bachelor in Informatik, Stuttgart
Bachelor in Informatik
Stuttgart

Informatik

3 Jahre 1 Monat
2003-10 - 2006-10

BWL-Studium

Betriebswirtschaftslehre (BWL), Thailand
Betriebswirtschaftslehre (BWL)
Thailand

Betriebswirtschaftslehre (BWL)

Position

Position

  • Data Scientist
  • Data Enginieer
  • Data Architekt 
  • Big Data, Analytics, IoT  Beratung / Consulting 

Kompetenzen

Kompetenzen

Top-Skills

Big Data Advanced Analytics IoT Big Data Analytics Apache Hadoop Hive Python Java C++ Microsoft Azure Microsoft Azure SQL Database Oracle/SQL AWS Kafka Event Hubs AI KI chatgpt llm powerbi Microsoft Fabric

Produkte / Standards / Erfahrungen / Methoden

Apache Spark
Druid
Hortonworks
MS Office

Profil

  • Als außergewöhnlicher 10X-Freiberufler habe ich in den letzten 10 Jahren ein breites Spektrum an Erfahrungen gesammelt. Dies reicht von der Beratung über die Führung bis hin zu branchenspezifischen Rollen. Mein spezieller Fokus auf Big Data, Advanced Analytics und das Internet der Dinge hat es mir ermöglicht, als unabhängiger Berater in einer zunehmend datengesteuerten Welt erfolgreich zu sein.
  • War als Lösungsarchitekt bei der Microsoft Corporation tätig und spielte eine entscheidende Rolle bei der Förderung digitaler Business-Transformationspraktiken von der Strategie bis zur Implementierung und unterstützte so Kunden bei der Transformation ihrer Kundenerlebnisse und Servicebereitstellungsfähigkeiten.
  • Ein Branchenexperte mit einem breiten Erfahrungsspektrum in verschiedenen Branchen, darunter Technologie, Telekommunikation, Energie, Finanzen, Chemie und Pharma, Einzelhandel und Automobil.
  • Ein vertrauenswürdiger Berater auf der C-Suite-Ebene, der sich mit der Entwicklung und Umsetzung von Strategien, der organisatorischen Ausrichtung und der Bereitstellung effektiver Berichterstattung an Vorstände und Führungsteams auskennt.
  • Demonstrierte praktische Beteiligung an der Entwicklung von Schulungskursen, Bereitstellungsmethoden und geistigem Eigentum und demonstrierte sein Engagement für kontinuierliches Lernen und intellektuelles Wachstum.


Big-Data-Produkte:

  • Storm
  • Amazon Kinesis
  • Elastic Search 
  • Logstash
  • Kibana
  • Apache Apark 
  • Akka 
  • Druid
  • Pentaho
  • Flume NG
  • SOLR
  • Hadoop CDH
  • HDP
  • MapR 
  • MapR -DB
  • Hive
  • Pig
  • Apache AirFlow
  • ElasticSearch 
  • Cassandra
  • KNIME
  • Talend
  • Impala
  • Apache Drill
  • Kudu
  • Digital Twins


Microsoft Azure-Dienste

  • Cortana Intelligent Suite 
    • Data Lake Store
    • Data Lake Analytics
    • HDInsight
    • Datenkatalog 
    • Data Factory
    • Stream Analytics
    • Event Hubs
    • Cognitive Services
    • SQL Data Warehouse
    • Machine Learning Studio
    • Power BI
  • Azure IoT Hub Suite
    • IoT Hub
    • DocumentDB 
    • Logic Apps
    • Notification Hubs
    • Service Fabric
    • Funktionen
    • SQL-Datenbank
    • Redis Cache
  • Log Analytics, Operations Management Suite (OMS)
  • Sicherheitszentrum


KI/ Maschinelles Lernen /Datenanalyse

  • (Überwacht, unbeaufsichtigt, Verstärkung) Lernen, Weka, R, KNIME
  • NumPy/Panda
  • TensorFlow
  • Microsoft Cognitive Toolkit (CNTK )
  • scikit-learn
  • LLMs:
    • ChatGPT 
    • LLaMA 
    • MPT
    • GPT4ALL
  •  Langchain 
  • hugging face


Web Applikationen:

  • Play Framework RESTful APIs 
  • Spring Framework 
  • JEE, HTML5
  • CSS
  • Struts2


Semantische Web-Technologien:

  • RDF
  • RDFS
  • Protégé
  • SPARQL
  • OpenRDF 
  • Jena


CEP-Technologien

  • Esper
  • Drools (Regelbasierte Engine)


Testwerkzeuge:

  • IBM-Funktionstester
  • Froglogic Squish
  • Selenium WebDriver
  • Aappium 
  • Android GUITAR
  • Android SDK


Anwendungsserver:

  • Tomcat
  • SOAP
  • NGINX


Änderung und Konfiguration, Abhängigkeitsmanagement:

  • SVN
  • Git 
  • Jenkins
  • Maven
  • Gradle 
  • Docker
  • SBT


Software-Projektmanagement:

  • Wasserfall 
  • XP
  • V
  • V-XT
  • Scrum 
  • Kanban


Verarbeitung natürlicher Sprache:

  • AlchemyAPI 
  • Microsoft Cognitive Services
  • Azure Bot Service


IDE

  • Eclipse
  • IntelliJ
  • NetBeans
  • PyCharm
  • VS 2016/2017
  • Xamarin
  • MS Code


Wissenschaftliche Software:

  • R
  • Microsoft R
  • Latex
  • SQLalchemie 
  • Neoalchemie


XML-Technologien und verknüpfte Daten:

  • XQuery
  • XPath
  • Mikroformate
  • Mikrodaten
  • XML-Schema


Parallele Programmierung:

  • CUDA
  • MPI
  • OpenMP
  • Akka 
  • Java 8
  • Vertx.io


Anforderungsmanagement und Modellierung:

  • IBM Rational DOORS
  • VOLERE
  • UML
  • UML-Profil
  • BPMN
  • SBPM
  • BPEL
  • ARIS
  • GMF
  • Node-Red


DevOps

  • Docker
  • Docker-Compose
  • Kubernetes
  • Ansible
  • Terraform
  • Nagios
  • Grafana
  • Prometheus
  • Datadog
  • ELK Stack
  • Postman
  • Bash 
  • Jenkins
  • Github Action
  • Azure DevOps
  • Travis CI
  • Jira
  • Trello
  • Git
  • Helm
  • Terragrunt Pulumi
  • Bizeps


Management:

  • Leiten Sie 20 thailändische Studenten bei 3 Projekten und generieren Sie 20 % RIO
  • Leitung von Advanced Analytics-Teams (Connected Car, Bot Service)

Betriebssysteme

Windows
Linux
iOS

Programmiersprachen

C++
Python
Scala
Java
JavaFX
Eclipse RCP
C/C++
Java-Script
Spring Boot
Quarkus

Datenbanken

SQL
Oracle
10/11g
MySQL
Redis
MS SQL
2014 (-SSIS(ETL), 2016
SSAS
Analyse
SSRS
Berichte
Visual Studio
2013
Cassandra
HBase
PostgreSQL
JDBC
H2
Kudu
U-SQL
MongoDB
Clickhaus
MS Data Warehouse
Exasol- Datenbank
6.1
Tannenzapfen
Vector DB
Croma
Vector DB


Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.