Erfahrener Data Scientist mit Fokus auf Machine Learning, MLOps und datengetriebenen Geschäftsoptimierungen.
Aktualisiert am 06.11.2024
Profil
Freiberufler / Selbstständiger
Remote-Arbeit
Verfügbar ab: 05.11.2024
Verfügbar zu: 100%
davon vor Ort: 100%
1. Machine Learning & Data Science 2. Python & SQL 3. MLOps & Cloud Computing (Docker
Kubernetes
AWS)
TensorFlow
PyTorch
scikit-learn
Spark
Data Engineering
Data Visualization
NLP
Computer Vision
Git/GitHub
Big Data
SQL (PostgreSQL
MongoDB)
Prometheus
Grafana
Deutsch
Engish
Ukrainisch
Russisch

Einsatzorte

Einsatzorte

Hamburg (+50km)
Deutschland
möglich

Projekte

Projekte

Rakuten Classification Projekt


Aufgaben:

  • Entwicklung eines Klassifikationsmodells für Produkte
  • Kombination von TF-IDF und EfficientNetB0 für hochpräzise Vorhersagen
  • RAKUTEN-CLASSIFICATION ist ein Machine-Learning-Projekt zur Klassifizierung von Textund Bilddaten. Das Projekt umfasst eine modulare Struktur, die sowohl Text- als auch Bilddatenverarbeitung integriert, um eine präzise Klassifikation zu erreichen
  • Mithilfe leistungsstarker Visualisierungstools werden die Modellmetriken (Genauigkeit, Präzision und F1-Score) überwacht
  • Ergebnisse: Genauigkeit von 92 %, Präzision von 92 %, F1-Score von 92 %


Eingesetzte Produkte:

Python, TensorFlow, Keras, scikit-learn, Docker, CI/CD


RAG Pipeline


Aufgaben:

  • ETL Processes and Real-Time Data Management for optimal text processing and query performance.
  • Entwicklung einer Pipeline zur Extraktion von Text aus PDF- Dokumenten
  • Gefolgt von der Vektorisierung und Speicherung in einer Vektordatenbank für beschleunigte Suche und Verarbeitung von Textabfragen.
  • Verwendung von Sentence Transformers zur Erstellung von Vektorrepräsentationen von Texten und FAISS für die schnelle Suche nach relevanten Daten.
  • Ergebnisse: Präzise Textextraktion unter Verwendung von PyMuPDF und Tesseract.
  • Schnelle und genaue Bereitstellung relevanter Informationen basierend auf Benutzeranfragen.


Eingesetzte Produkte:

Python, PyMuPDF, Tesseract, Sentence Transformers, FAISS


MLOps-CLASSIFICATION


Aufgaben:

  • Key Tasks: Model Deployment and Real-Time Monitoring with Docker and Kubernetes, automated model retraining with CI/CD pipelines.
  • Automatisierung und Verwaltung des gesamten Lebenszyklus der Entwicklung Modular Architektur, automatisiertes Training, CI/CD mit Docker und Kubernetes, EchtzeitÜberwachung mit Prometheus und Grafana, umfassende Unit-Tests.


Eingesetzte Produkte:

Python, Docker, Kubernetes, TF-IDF, Prometheus, Grafana, CI/CD


Titanic: Machine Learning from Disaster


Aufgaben:

  • Machine-Learning-Projekt für die Kaggle-Competition
  • Ziel ist die Vorhersage des Überlebens von Passagieren anhand von Merkmalen wie Klasse, Alter und Geschlecht.
  • Ansatz: Datenvorverarbeitung, Feature Engineering (FamilySize, IsAlone), Skalierung und Training eines RandomForestClassifier.
  • Ergebnisse: Genauigkeit von 88,89 % auf dem Validierungssatz


Eingesetzte Produkte:

Python, pandas, scikit-learn, RandomForest


Santander Customer Transaction Prediction


Aufgaben:

  • Kaggle-Projekt zur Vorhersage des Transaktionsverhaltens von Kunden
  • Ziel ist es, mit einem LightGBM-Modell und erweiterten Feature- EngineeringMethoden wertvolle Erkenntnisse zu gewinnen.
  • Merkmale: Feature Engineering mit magischen Features, LightGBM-Modell, Cross-Validation mit StratifiedKFold, umfassendes Logging und Unit-Tests zur Code-Qualitätssicherung.
  • Ergebnisse: ROC AUC Score von 91.17


Eingesetzte Produkte:

Python, LightGBM, StratifiedKFold, Logging, Unit-Tests

Aus- und Weiterbildung

Aus- und Weiterbildung

6 Monate
2024-05 - 2024-10

Data Science and Machine Learning Engineer

University of ParisI: Panthéon- Sorbonne
University of ParisI: Panthéon- Sorbonne
Relevant courses
  • Entwicklung von MachineLearning-Modellen mit Tensor Flow und scikit-learn.
  • Implementierung von MLOps- Lösungen
  • mit Docker, Kubernetes und MLflow.
  • Arbeiten mit AWS zur
  • Bereitstellung skalierbarer
  • Lösungen.

Kompetenzen

Kompetenzen

Top-Skills

1. Machine Learning & Data Science 2. Python & SQL 3. MLOps & Cloud Computing (Docker Kubernetes AWS) TensorFlow PyTorch scikit-learn Spark Data Engineering Data Visualization NLP Computer Vision Git/GitHub Big Data SQL (PostgreSQL MongoDB) Prometheus Grafana

Produkte / Standards / Erfahrungen / Methoden

Profil:

Erfahrener Data Scientist und Machine Learning Engineer mit über 5 Jahren Erfahrung in der Entwicklung und Implementierung von Machine-Learning- Modellen sowie der Optimierung datengetriebener Geschäftsprozesse. Nachweisliche Erfolge in der Leitung von Projekten in Zusammenarbeit mit funktionsübergreifenden Teams. Erfolgreiche Implementierung von Klassifikationsmodellen mit klassischen Algorithmen (Logistic Regression, Decision Trees, SVM) und modernen DeepLearning-Frameworks (TensorFlow, PyTorch). Spezialisiert auf MLOps, CI/CDAutomatisierung und Cloud- Implementierungen (AWS,  zure, GCP). Umfangreiche Erfahrung im Einsatz von Data Engineering-Tools wie Apache Spark, Hadoop und Airflow sowie im Monitoring von  roduktionsmodellen  it Prometheus und Grafana. Nachgewiesene Erfolge in der Reduzierung der Bearbeitungszeit von Prozessen um 50 % und Verbesserung der Vorhersagegenauigkeit  um 20 %. Hervorragende Kommunikationsfähigkeiten und erfolgreiche Integration in das deutsche Berufs- und Gesellschaftssystem seit 2015.


Machine Learning & Data Science:

  • TensorFlow,scikit-learn
  • Pandas
  • NumPy
  • XGBoost
  • LightGBM
  • PyTorch
  • EfficientNet
  • StratifiedKFold
  • GridSearchCV
  • RandomizedSearchCV
  • Cross-Validation


Machine Learning Algorithmen:

  • Logistic Regression
  • Decision Trees
  • Random Forest
  • Support Vector Machines (SVM)
  • K- Nearest Neighbors(KNN)
  • Naive Bayes
  • Clustering (K-means)
  • PCA
  • LDA


Cloud-Technologien:

  • AWS (EC2, S3, Lambda)
  • Docker
  • Kubernetes
  • Azure
  • GCP


MLOps:

  • GitHub Actions
  • MLflow
  • Docker Compose
  • Prometheus
  • Grafana


Data Engineering:

  • Apache Spark
  • Hadoop
  • Apache Airflow
  • Kafka
  • PyMuPDF
  • Tesseract OCR

NLP-Tools:

  • TF-IDF
  • Sentence Transformers
  • FAISS


Visualisierung & BI:

  • Tableau
  • Power BI
  • Matplotlib
  • Seaborn

Version Control & Zusammenarbeit:

  • Git

Computer Vision:

  • EfficientNet
  • ResNet


Code Quality & Testing:

  • Unit- Tests


Beruflicher Werdegang:

10/2022 - 04/2024

Rolle: Data Scientist / Data Analyst

Kunde: Alfons Köster & Co. GmbH


Aufgaben:

  • Automatisierungsprojekt (03/23 ? 07/23): Entwicklung von Python-Skripten und SQLAbfragen zur Automatisierung der Datenverarbeitung im Seefracht-Export, was zu einer Reduktion der manuellen Bearbeitung und einer effizienteren Verwaltung führte.
  • NLP-Projekt (05/23 ? 04/24): Leitung eines Projekts zur Implementierung eines TF-IDF-Modells zur automatisierten Verarbeitung von Korrespondenz. 
  • Zusammenarbeit mit dem IT-Team und den Datenverarbeitungsteams, um die Integration der NLP-Lösung in bestehenden Workflows sicherzustellen. 
  • Reduzierung der Fehlerquote um 15 % und Einsparung von 96 Arbeitsstunden pro Woche durch Optimierung der Prozesse.


06/2021 - 09/2022

Rolle: Data Scientist

Kunde: MBS Logistics GmbH


Aufgaben:

  • Entwicklung von Python-Skripten zur Automatisierung der Importprozesse in Zusammenarbeit mit den Abteilungen IT und Operations. 
  • Regelmäßige Meetings und Abstimmungen mit den Teams führten zur erfolgreichen Implementierung und Erhöhung der Effizienz. 
  • Dies führte zu einer Effizienzsteigerung und einer Reduktion manueller Fehler um 30 %.


05/2019 - 05/2021

Rolle: Data Scientist / Data Analyst

Kunde: GTI Medicare GmbH


Aufgaben:

  • Leitung und Optimierung von Arbeitsprozessen


2006 - 2015

Rolle: Geschäftsführer

Kunde: auf Anfrage


Aufgaben:

  • Leitung eines Unternehmens mit 100 Mitarbeitern.
  • Führungserfahrung: Verantwortung für die Personalführung eines Teams von 100 Mitarbeitern, strategische Planung und Entwicklung neuer Logistiklösungen in enger Zusammenarbeit mit den Abteilungen Marketing und IT.
  • Einführung innovativer Ansätze und Softwarelösungen führte zu einer Reduktion der Transportkosten um 20 % und zur Steigerung der Produktivität der Mitarbeiter

Programmiersprachen

Python
SQL
R

Datenbanken

SQL (PostgreSQL)
NoSQL (MongoDB, ElasticSearch)

Einsatzorte

Einsatzorte

Hamburg (+50km)
Deutschland
möglich

Projekte

Projekte

Rakuten Classification Projekt


Aufgaben:

  • Entwicklung eines Klassifikationsmodells für Produkte
  • Kombination von TF-IDF und EfficientNetB0 für hochpräzise Vorhersagen
  • RAKUTEN-CLASSIFICATION ist ein Machine-Learning-Projekt zur Klassifizierung von Textund Bilddaten. Das Projekt umfasst eine modulare Struktur, die sowohl Text- als auch Bilddatenverarbeitung integriert, um eine präzise Klassifikation zu erreichen
  • Mithilfe leistungsstarker Visualisierungstools werden die Modellmetriken (Genauigkeit, Präzision und F1-Score) überwacht
  • Ergebnisse: Genauigkeit von 92 %, Präzision von 92 %, F1-Score von 92 %


Eingesetzte Produkte:

Python, TensorFlow, Keras, scikit-learn, Docker, CI/CD


RAG Pipeline


Aufgaben:

  • ETL Processes and Real-Time Data Management for optimal text processing and query performance.
  • Entwicklung einer Pipeline zur Extraktion von Text aus PDF- Dokumenten
  • Gefolgt von der Vektorisierung und Speicherung in einer Vektordatenbank für beschleunigte Suche und Verarbeitung von Textabfragen.
  • Verwendung von Sentence Transformers zur Erstellung von Vektorrepräsentationen von Texten und FAISS für die schnelle Suche nach relevanten Daten.
  • Ergebnisse: Präzise Textextraktion unter Verwendung von PyMuPDF und Tesseract.
  • Schnelle und genaue Bereitstellung relevanter Informationen basierend auf Benutzeranfragen.


Eingesetzte Produkte:

Python, PyMuPDF, Tesseract, Sentence Transformers, FAISS


MLOps-CLASSIFICATION


Aufgaben:

  • Key Tasks: Model Deployment and Real-Time Monitoring with Docker and Kubernetes, automated model retraining with CI/CD pipelines.
  • Automatisierung und Verwaltung des gesamten Lebenszyklus der Entwicklung Modular Architektur, automatisiertes Training, CI/CD mit Docker und Kubernetes, EchtzeitÜberwachung mit Prometheus und Grafana, umfassende Unit-Tests.


Eingesetzte Produkte:

Python, Docker, Kubernetes, TF-IDF, Prometheus, Grafana, CI/CD


Titanic: Machine Learning from Disaster


Aufgaben:

  • Machine-Learning-Projekt für die Kaggle-Competition
  • Ziel ist die Vorhersage des Überlebens von Passagieren anhand von Merkmalen wie Klasse, Alter und Geschlecht.
  • Ansatz: Datenvorverarbeitung, Feature Engineering (FamilySize, IsAlone), Skalierung und Training eines RandomForestClassifier.
  • Ergebnisse: Genauigkeit von 88,89 % auf dem Validierungssatz


Eingesetzte Produkte:

Python, pandas, scikit-learn, RandomForest


Santander Customer Transaction Prediction


Aufgaben:

  • Kaggle-Projekt zur Vorhersage des Transaktionsverhaltens von Kunden
  • Ziel ist es, mit einem LightGBM-Modell und erweiterten Feature- EngineeringMethoden wertvolle Erkenntnisse zu gewinnen.
  • Merkmale: Feature Engineering mit magischen Features, LightGBM-Modell, Cross-Validation mit StratifiedKFold, umfassendes Logging und Unit-Tests zur Code-Qualitätssicherung.
  • Ergebnisse: ROC AUC Score von 91.17


Eingesetzte Produkte:

Python, LightGBM, StratifiedKFold, Logging, Unit-Tests

Aus- und Weiterbildung

Aus- und Weiterbildung

6 Monate
2024-05 - 2024-10

Data Science and Machine Learning Engineer

University of ParisI: Panthéon- Sorbonne
University of ParisI: Panthéon- Sorbonne
Relevant courses
  • Entwicklung von MachineLearning-Modellen mit Tensor Flow und scikit-learn.
  • Implementierung von MLOps- Lösungen
  • mit Docker, Kubernetes und MLflow.
  • Arbeiten mit AWS zur
  • Bereitstellung skalierbarer
  • Lösungen.

Kompetenzen

Kompetenzen

Top-Skills

1. Machine Learning & Data Science 2. Python & SQL 3. MLOps & Cloud Computing (Docker Kubernetes AWS) TensorFlow PyTorch scikit-learn Spark Data Engineering Data Visualization NLP Computer Vision Git/GitHub Big Data SQL (PostgreSQL MongoDB) Prometheus Grafana

Produkte / Standards / Erfahrungen / Methoden

Profil:

Erfahrener Data Scientist und Machine Learning Engineer mit über 5 Jahren Erfahrung in der Entwicklung und Implementierung von Machine-Learning- Modellen sowie der Optimierung datengetriebener Geschäftsprozesse. Nachweisliche Erfolge in der Leitung von Projekten in Zusammenarbeit mit funktionsübergreifenden Teams. Erfolgreiche Implementierung von Klassifikationsmodellen mit klassischen Algorithmen (Logistic Regression, Decision Trees, SVM) und modernen DeepLearning-Frameworks (TensorFlow, PyTorch). Spezialisiert auf MLOps, CI/CDAutomatisierung und Cloud- Implementierungen (AWS,  zure, GCP). Umfangreiche Erfahrung im Einsatz von Data Engineering-Tools wie Apache Spark, Hadoop und Airflow sowie im Monitoring von  roduktionsmodellen  it Prometheus und Grafana. Nachgewiesene Erfolge in der Reduzierung der Bearbeitungszeit von Prozessen um 50 % und Verbesserung der Vorhersagegenauigkeit  um 20 %. Hervorragende Kommunikationsfähigkeiten und erfolgreiche Integration in das deutsche Berufs- und Gesellschaftssystem seit 2015.


Machine Learning & Data Science:

  • TensorFlow,scikit-learn
  • Pandas
  • NumPy
  • XGBoost
  • LightGBM
  • PyTorch
  • EfficientNet
  • StratifiedKFold
  • GridSearchCV
  • RandomizedSearchCV
  • Cross-Validation


Machine Learning Algorithmen:

  • Logistic Regression
  • Decision Trees
  • Random Forest
  • Support Vector Machines (SVM)
  • K- Nearest Neighbors(KNN)
  • Naive Bayes
  • Clustering (K-means)
  • PCA
  • LDA


Cloud-Technologien:

  • AWS (EC2, S3, Lambda)
  • Docker
  • Kubernetes
  • Azure
  • GCP


MLOps:

  • GitHub Actions
  • MLflow
  • Docker Compose
  • Prometheus
  • Grafana


Data Engineering:

  • Apache Spark
  • Hadoop
  • Apache Airflow
  • Kafka
  • PyMuPDF
  • Tesseract OCR

NLP-Tools:

  • TF-IDF
  • Sentence Transformers
  • FAISS


Visualisierung & BI:

  • Tableau
  • Power BI
  • Matplotlib
  • Seaborn

Version Control & Zusammenarbeit:

  • Git

Computer Vision:

  • EfficientNet
  • ResNet


Code Quality & Testing:

  • Unit- Tests


Beruflicher Werdegang:

10/2022 - 04/2024

Rolle: Data Scientist / Data Analyst

Kunde: Alfons Köster & Co. GmbH


Aufgaben:

  • Automatisierungsprojekt (03/23 ? 07/23): Entwicklung von Python-Skripten und SQLAbfragen zur Automatisierung der Datenverarbeitung im Seefracht-Export, was zu einer Reduktion der manuellen Bearbeitung und einer effizienteren Verwaltung führte.
  • NLP-Projekt (05/23 ? 04/24): Leitung eines Projekts zur Implementierung eines TF-IDF-Modells zur automatisierten Verarbeitung von Korrespondenz. 
  • Zusammenarbeit mit dem IT-Team und den Datenverarbeitungsteams, um die Integration der NLP-Lösung in bestehenden Workflows sicherzustellen. 
  • Reduzierung der Fehlerquote um 15 % und Einsparung von 96 Arbeitsstunden pro Woche durch Optimierung der Prozesse.


06/2021 - 09/2022

Rolle: Data Scientist

Kunde: MBS Logistics GmbH


Aufgaben:

  • Entwicklung von Python-Skripten zur Automatisierung der Importprozesse in Zusammenarbeit mit den Abteilungen IT und Operations. 
  • Regelmäßige Meetings und Abstimmungen mit den Teams führten zur erfolgreichen Implementierung und Erhöhung der Effizienz. 
  • Dies führte zu einer Effizienzsteigerung und einer Reduktion manueller Fehler um 30 %.


05/2019 - 05/2021

Rolle: Data Scientist / Data Analyst

Kunde: GTI Medicare GmbH


Aufgaben:

  • Leitung und Optimierung von Arbeitsprozessen


2006 - 2015

Rolle: Geschäftsführer

Kunde: auf Anfrage


Aufgaben:

  • Leitung eines Unternehmens mit 100 Mitarbeitern.
  • Führungserfahrung: Verantwortung für die Personalführung eines Teams von 100 Mitarbeitern, strategische Planung und Entwicklung neuer Logistiklösungen in enger Zusammenarbeit mit den Abteilungen Marketing und IT.
  • Einführung innovativer Ansätze und Softwarelösungen führte zu einer Reduktion der Transportkosten um 20 % und zur Steigerung der Produktivität der Mitarbeiter

Programmiersprachen

Python
SQL
R

Datenbanken

SQL (PostgreSQL)
NoSQL (MongoDB, ElasticSearch)

Vertrauen Sie auf Randstad

Im Bereich Freelancing
Im Bereich Arbeitnehmerüberlassung / Personalvermittlung

Fragen?

Rufen Sie uns an +49 89 500316-300 oder schreiben Sie uns:

Das Freelancer-Portal

Direktester geht's nicht! Ganz einfach Freelancer finden und direkt Kontakt aufnehmen.