Englisch, Französisch (Schule)
Data Warehouse, ETL, Integration of multiple data streams
Data piplines with DBT
Agile software development
Product Owner
Primary point of contact and collaboration with business units.
Support and enhancements for existing Data Warehouse and web applications.
Migration of functionality into Cloud.
Application 1: ORACLE 19c, ORACLE APEX, Windows Server, UC4
Application 2: Snowflake, Python Fast-API, Angular, Azure, RedHat Openshift, Argo
Application 3: Snowflake, .Net, F#, GraphQL, Angular, RedHat Openshift, Argo
Business Intelligence: Tableau, Data Virtuality Platform
Adhoc: Jupyter-Lab / Python
Continuous Integration (CI): GIT, Bitbucket, Bamboo
Agile Environment: Confluence, JIRA
Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate
Pflege und Weiterentwicklung der Deep Learning Modelle. Automatisierung des Deployment-Prozesses. Testphase.
ETL Marktdaten und Bestandsdaten.
Neuronale Netze für Regression, Klassifikation.
Rekurrente Netze (RNN, LSTM und GRU).
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden.
Neue Modell-Ideen wurden evaluiert und
Fine-Tuning der bestehenden Modelle vorgenommen.
Eine Test-Umgebung ist aufgebaut sowie Testfälle sind erstellt worden.
Die fachlichen Tests wurden begleitet und Bugs gefixt.
Ferner standen Code-Finishing und Dokumentierung an.
Das Deployment wurde automatisiert und verbessert.
Marktrisiko-Berechnung
für Aktien, Metalle, Commodities
und Derivate
Umstellung der JAVA und R Komponenten/Tools auf Python.
ETL Marktdaten und Bestandsdaten.
Pflege und Optimierung der Deep Learning Modelle. Backtest-Abläufe etablieren. Deployment im Docker-Container.
Neuronale Netze für Regression, Klassifikation.
Rekurrente Netze (RNN, LSTM und GRU).
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden.
Vorhandene Java-Komponenten wurden sämtlich nach Python
migriert.
Die besonders kritischen Stellen sind mit NUMBA und C-/Cython umgesetzt. Außerdem kamen parallele Packages zum Einsatz, wie Dask und Apache Spark. Die bisherigen R-Tools vornehmlich für die statistische Beurteilung der
Features und der Modelle sind ebenfalls nach Python mit den entsprechenden
Packages migriert worden.
Der existierende Python-Deep-Learning-Code wurde adaptiert und optimiert. Hinzu kamen neu-erstellte Backtesting-Abläufe.
Die Bestandteile wurden in Docker-Containern implementiert.
Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate
ETL Marktdaten und Bestandsdaten.
Verarbeitung von zusätzlichen Features, Scraping von Unternehmens-Nachrichten, Prototyp Sentiment Analyse, Rekurrente Netze (RNN, LSTM und GRU). Neuronale Netze für Klassifikation.
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden: Random Forrest, SVM, XGBoost, Clustering, t-SNE, PCA, MDS. Modell Optimierung.
Es wurde eine Umgebung geschaffen, um
Modell-Modifikationen schneller zu verifizieren. Die entsprechenden Tools
fundierten auf R und Shiny. Die überwiegende Zeit fiel auf das Engineering der Modelle, Parameter-Optimierung und Trainings-Läufe.
Neue Features wurden hinzugefügt und Features konfigurierbar gemacht.
Als Prototyp wurden Sentiment-Informationen für die Assets mit dem NLTK
und einem DL-Netz generiert. Die Schnittstelle für externe ?Abnehmer? bildete eine REST-API. Logging und Dokumentation der Läufe sind automatisiert worden.
Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate
ETL, Datenmodellierung, Prototypen,
Beschaffung Marktdaten (finnhub.io, investing.com, etc.)
Abzug Bestands-Daten,
Daten-Verdichtung, Feature Engineering, Machine-Learning,
Deep Learning mit Dense-Layern, Regression-Modell,
Statistische Beurteilung und Visualisierung der Modell-Qualität mit R und Shiny.
Vertikales Prototyping, Durchstich
Zunächst wurde eine Datenbank mit Intraday-Befüllung
aufgebaut. Der Hauptteil der Arbeit entfiel auf das Feature-Engineering. Da viel Rechenleistung erforderlich war, kam hier Java und OpenCL zur Anwendung.
Dies war die Basis für die weitere Modell-Entwicklung und Optimierung. Es wurden Entwicklungen mit TensorFlow-Java und TensorFlow-Python durchgeführt.
Die Wahl für diese Komponente fiel aber auf Python.
Die Datenanalyse und die Analyse der Deep-Learning Modelle erfolgte mit R. Primäres Ziel dieser Phase war ein vertikaler Prototyp, bei dem Kafka die Data
Streams steuerte.
Umstellung auf neue Gesetzeslage BASEL III
Übernahme der Daten vom Front End und den Risk Engines
Übernahme der Markdaten
Extract, Transform, Load (ETL)
Vorhalten der Roh-Daten
Kalkulation der Risiko-Kennzahlen basierend auf statistischen, mathematischen Modellen
Multi-dimensionale Aggregation und Daten-Analyse
Historische Simulation, Monte-Carlo-Simulation, Korrelations-Analysen
Value At Risk, verschiedene Konfidenz-Niveaus, Hedge-Effekte, Marginal, Residual
Stress-Testing, Sensitivitäten, Griechen
Backtesting, Q-Test und weitere Auslieferung an diverse Abnehmer-Systeme (Data Abstraction Layer)
Marktdaten Bereitstellung für Intraday Risk.
Neu-Entwicklung Client für EUREX und EEX in C und JAVA.
Weiterentwicklung und Betreuung der JAVA-Clients für Reuters und DataStream.
Erweiterung Daten-Modell
Ablage der FX- und Equity-Marktdaten in ORACLE-Datenbank.
Betriebswirtschaftliche Kenntnisse:
Unternehmensführung, Projektmanagement (GPM / IPMA, SCRUM),
Controlling, Bilanzierung (HGB, IFRS), Buchhaltung, Steuern (KStG, ESt)
Marketing, Recht
Finanzwirtschaftliche Kenntnisse:
Risiko Controlling (RC), Risiko Management (RM)
BASEL II/2.5/III, SolvV, Solvency II, CRD IV
Marktrisiko, Derivate Bepreisung, Margin Kalkulation, Marktdaten
Liquiditätsrisiko, Liquiditäts-Controlling, Liquiditäts-Ablauf-Bilanz (LAB),
Net Stable Funding Ratio (NSFR), Liquidity Coverage Ratio (LCR)
Kreditrisiko, Asset-Backed Securities (ABS)
Operationelles Risiko (OpRisk)
IT-Skills:
SAS Enterprise BI
Apache Spark
ORACLE, SYBASE, MySQL, Postgres Datenbank-Systeme
Tomcat, J2EE, JBOSS, IBM Websphere
Assembler, Basic, C, C++, Perl, PL/SQL, T-SQL, OpenCL
Java, JDBC, JOCL, JUnit, Jsoup, log4j, Spring, JSF, Hibernate, BIRT, Maven
JavaScript, HTML, CSS
Python, Jupyter, PyCharm, VsCode,
Numpy, Pandas, Sqlite, Matplotlib, NUMBA, Cython,
Flask, Shiny, Dash, Plotly,
scikit-learn, SciPy, XGBoost, Dask, Arrow, PySpark, PyTest,
Keras, TensorFlow, PyTorch, NTLK,
Apache Spark
R, RStudio, dplyr, tidyr, ggplot, TidyVerse, DT
Machine Learning (ML), Deep Learning (DL), Küstliche Intelligenz (KI),
Neuronale Netze (NN, CNN, RNN, LSTM, GRU)
Reinforcement Learning (RL)
Apache Kafka, Kubernetes, Docker
Git, Microsoft Project, Microsoft Office, JIRA, HP Quality Center
Microsoft Windows, Solaris, LINUX
AWS, Azure
Banken
Finanzdienstleistern
Versicherungen
Logistik
Pharmazeutik
Industrie
Data Warehouse, ETL, Integration of multiple data streams
Data piplines with DBT
Agile software development
Product Owner
Primary point of contact and collaboration with business units.
Support and enhancements for existing Data Warehouse and web applications.
Migration of functionality into Cloud.
Application 1: ORACLE 19c, ORACLE APEX, Windows Server, UC4
Application 2: Snowflake, Python Fast-API, Angular, Azure, RedHat Openshift, Argo
Application 3: Snowflake, .Net, F#, GraphQL, Angular, RedHat Openshift, Argo
Business Intelligence: Tableau, Data Virtuality Platform
Adhoc: Jupyter-Lab / Python
Continuous Integration (CI): GIT, Bitbucket, Bamboo
Agile Environment: Confluence, JIRA
Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate
Pflege und Weiterentwicklung der Deep Learning Modelle. Automatisierung des Deployment-Prozesses. Testphase.
ETL Marktdaten und Bestandsdaten.
Neuronale Netze für Regression, Klassifikation.
Rekurrente Netze (RNN, LSTM und GRU).
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden.
Neue Modell-Ideen wurden evaluiert und
Fine-Tuning der bestehenden Modelle vorgenommen.
Eine Test-Umgebung ist aufgebaut sowie Testfälle sind erstellt worden.
Die fachlichen Tests wurden begleitet und Bugs gefixt.
Ferner standen Code-Finishing und Dokumentierung an.
Das Deployment wurde automatisiert und verbessert.
Marktrisiko-Berechnung
für Aktien, Metalle, Commodities
und Derivate
Umstellung der JAVA und R Komponenten/Tools auf Python.
ETL Marktdaten und Bestandsdaten.
Pflege und Optimierung der Deep Learning Modelle. Backtest-Abläufe etablieren. Deployment im Docker-Container.
Neuronale Netze für Regression, Klassifikation.
Rekurrente Netze (RNN, LSTM und GRU).
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden.
Vorhandene Java-Komponenten wurden sämtlich nach Python
migriert.
Die besonders kritischen Stellen sind mit NUMBA und C-/Cython umgesetzt. Außerdem kamen parallele Packages zum Einsatz, wie Dask und Apache Spark. Die bisherigen R-Tools vornehmlich für die statistische Beurteilung der
Features und der Modelle sind ebenfalls nach Python mit den entsprechenden
Packages migriert worden.
Der existierende Python-Deep-Learning-Code wurde adaptiert und optimiert. Hinzu kamen neu-erstellte Backtesting-Abläufe.
Die Bestandteile wurden in Docker-Containern implementiert.
Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate
ETL Marktdaten und Bestandsdaten.
Verarbeitung von zusätzlichen Features, Scraping von Unternehmens-Nachrichten, Prototyp Sentiment Analyse, Rekurrente Netze (RNN, LSTM und GRU). Neuronale Netze für Klassifikation.
Unsupervised Learning, Modell-Variationen mit Machine-Learning-Methoden: Random Forrest, SVM, XGBoost, Clustering, t-SNE, PCA, MDS. Modell Optimierung.
Es wurde eine Umgebung geschaffen, um
Modell-Modifikationen schneller zu verifizieren. Die entsprechenden Tools
fundierten auf R und Shiny. Die überwiegende Zeit fiel auf das Engineering der Modelle, Parameter-Optimierung und Trainings-Läufe.
Neue Features wurden hinzugefügt und Features konfigurierbar gemacht.
Als Prototyp wurden Sentiment-Informationen für die Assets mit dem NLTK
und einem DL-Netz generiert. Die Schnittstelle für externe ?Abnehmer? bildete eine REST-API. Logging und Dokumentation der Läufe sind automatisiert worden.
Marktrisiko-Berechnung
für Aktien, Metalle, Commodities und Derivate
ETL, Datenmodellierung, Prototypen,
Beschaffung Marktdaten (finnhub.io, investing.com, etc.)
Abzug Bestands-Daten,
Daten-Verdichtung, Feature Engineering, Machine-Learning,
Deep Learning mit Dense-Layern, Regression-Modell,
Statistische Beurteilung und Visualisierung der Modell-Qualität mit R und Shiny.
Vertikales Prototyping, Durchstich
Zunächst wurde eine Datenbank mit Intraday-Befüllung
aufgebaut. Der Hauptteil der Arbeit entfiel auf das Feature-Engineering. Da viel Rechenleistung erforderlich war, kam hier Java und OpenCL zur Anwendung.
Dies war die Basis für die weitere Modell-Entwicklung und Optimierung. Es wurden Entwicklungen mit TensorFlow-Java und TensorFlow-Python durchgeführt.
Die Wahl für diese Komponente fiel aber auf Python.
Die Datenanalyse und die Analyse der Deep-Learning Modelle erfolgte mit R. Primäres Ziel dieser Phase war ein vertikaler Prototyp, bei dem Kafka die Data
Streams steuerte.
Umstellung auf neue Gesetzeslage BASEL III
Übernahme der Daten vom Front End und den Risk Engines
Übernahme der Markdaten
Extract, Transform, Load (ETL)
Vorhalten der Roh-Daten
Kalkulation der Risiko-Kennzahlen basierend auf statistischen, mathematischen Modellen
Multi-dimensionale Aggregation und Daten-Analyse
Historische Simulation, Monte-Carlo-Simulation, Korrelations-Analysen
Value At Risk, verschiedene Konfidenz-Niveaus, Hedge-Effekte, Marginal, Residual
Stress-Testing, Sensitivitäten, Griechen
Backtesting, Q-Test und weitere Auslieferung an diverse Abnehmer-Systeme (Data Abstraction Layer)
Marktdaten Bereitstellung für Intraday Risk.
Neu-Entwicklung Client für EUREX und EEX in C und JAVA.
Weiterentwicklung und Betreuung der JAVA-Clients für Reuters und DataStream.
Erweiterung Daten-Modell
Ablage der FX- und Equity-Marktdaten in ORACLE-Datenbank.
Betriebswirtschaftliche Kenntnisse:
Unternehmensführung, Projektmanagement (GPM / IPMA, SCRUM),
Controlling, Bilanzierung (HGB, IFRS), Buchhaltung, Steuern (KStG, ESt)
Marketing, Recht
Finanzwirtschaftliche Kenntnisse:
Risiko Controlling (RC), Risiko Management (RM)
BASEL II/2.5/III, SolvV, Solvency II, CRD IV
Marktrisiko, Derivate Bepreisung, Margin Kalkulation, Marktdaten
Liquiditätsrisiko, Liquiditäts-Controlling, Liquiditäts-Ablauf-Bilanz (LAB),
Net Stable Funding Ratio (NSFR), Liquidity Coverage Ratio (LCR)
Kreditrisiko, Asset-Backed Securities (ABS)
Operationelles Risiko (OpRisk)
IT-Skills:
SAS Enterprise BI
Apache Spark
ORACLE, SYBASE, MySQL, Postgres Datenbank-Systeme
Tomcat, J2EE, JBOSS, IBM Websphere
Assembler, Basic, C, C++, Perl, PL/SQL, T-SQL, OpenCL
Java, JDBC, JOCL, JUnit, Jsoup, log4j, Spring, JSF, Hibernate, BIRT, Maven
JavaScript, HTML, CSS
Python, Jupyter, PyCharm, VsCode,
Numpy, Pandas, Sqlite, Matplotlib, NUMBA, Cython,
Flask, Shiny, Dash, Plotly,
scikit-learn, SciPy, XGBoost, Dask, Arrow, PySpark, PyTest,
Keras, TensorFlow, PyTorch, NTLK,
Apache Spark
R, RStudio, dplyr, tidyr, ggplot, TidyVerse, DT
Machine Learning (ML), Deep Learning (DL), Küstliche Intelligenz (KI),
Neuronale Netze (NN, CNN, RNN, LSTM, GRU)
Reinforcement Learning (RL)
Apache Kafka, Kubernetes, Docker
Git, Microsoft Project, Microsoft Office, JIRA, HP Quality Center
Microsoft Windows, Solaris, LINUX
AWS, Azure
Banken
Finanzdienstleistern
Versicherungen
Logistik
Pharmazeutik
Industrie