Bei internationalen Einsätzen gilt ein anderer Stundensatz.
- Definition und Dokumentation von Standards für die Dokumentation der Anwendungsarchitektur sowie Anleitung, Validierung und Durchsetzung der Einhaltung dieser Standards innerhalb des Projektteams
- Definition und Pflege des relevanten Taylor-Made Development (TMD) Technologie-Stacks, Erkundung neuer Lösungen und Technologien
- Sicherstellung einer prüfbaren Einhaltung der Anforderungen der kritischen IT-Infrastruktur, z.B. ISMS-Prozess, BSI-Kritis-Verordnung.
In der Enterpriseumgebung des Kunden (> 100 Microservices) ist es unabdingbar ein Live Monitoring der kritischen Geschäftsprozesse zu implementieren. Hierfür wurde der klassische Stack Prometheus und Grafana neben AppDynamics und Azure Monitoring gewählt.
Über ein Whitebox- sowie Blackbox-Testing wurden die Metriken ermittelt und nach Prometheus exportiert.
Meine Aufgabe war die Implementierung von Blackboxtests mit Playwright, Einweisung der Teams für ein strukturiertes anliefern der Metriken via Prometheus API und die Unterstützung im CI/CD Prozess für das automatische Deployment von Grafana Dashboards.
Im Rahmen des Umbaus der Softwaresysteme von einer Legacy Architektur auf Microservices in Quarkus ergibt sich ein hoher Schulungsbedarf. Mit der gleichzeitigen Einführung von Camunda, Kafka, OpenShift, Docker, Programmierung mit dem Apache Camel sowie die konsequente Nutzung von Quarkus für die Microservices braucht es einige PoC Implementierungen sowie Trainingsunterlagen und Aufgabenstellungen.
Meine Aufgabe war es diverse PoC durchzuführen, in Eigenleistung oder einem kleinen Team. Die Erstellung von Schulungsszenarien, sowie die Schulung der Mitarbeiter war eine weitere Aufgabe von mir.
API Design mit REST
Quarkus
Docker
Microservices Workshop
Active MQ / Artemis Schulung
Apache Kafka Schulung
Teilnehmer der Schulung sind in der Lage einen clusterfähigen Kafka zu installieren, konfigurieren und fortlaufend zu kontrollieren. Darüber hinaus können die Teilnehmer ganze Teams/oder Serviceteams einweisen und denen die Arbeit mit Kafka erklären. Teilnehmer der Schulung haben selbst in Ihren Konzernen und Unternehmen Kafka installiert oder auch nach der Schulung angepasst. Die Teilnehmer stammen aus den Branchen:
Spring Boot
Kubernetes
Der Kunde des Projekts kaufte für diverse Bereiche (Vertragsverwaltung, Partnerverwaltung, Kundenbuchhaltung) Standardsoftware dazu. Die Aufgabe bestand darin, die Verträge einer neuen Sparte in das neue Vertragsverwaltungssystem zu integrieren und Bestandsdaten zu migrieren.
Ich war dafür zuständig, die Unternehmensarchitektur aus diversen Softwarebestandteilen (Kernsystem Cobol, Java Module, Fremdsoftware) zu analysieren, die bestehenden Interaktionen fachlich zu verstehen und in die Integration der neuen Software anzupassen.
Die Modellierung der neuen Schnittstellen über Apache Kafka, Rest, SOAP sollten exakt vorgenommen werden, damit die Softwareentwicklung außer Haus sowie die internen Entwickler genaue Vorgaben haben.
Im Rahmen des Softwareentwicklungsprozesses für einen Kreditkartenanbeiter war es notwendig ein Release-Tool zu pflegen welche die Vorbereitung eines Releases über mehrere z.T. abhängige Microservices managet.
Dabei war die Anbindung von Jira als Datenquelle notwendig. Damit wurde eine Übersicht des Gesamtreleases in Confluence erstellt, Releasenummern vergeben und eine Übergabe an das Testmanagment und das Rollout übergeben.
Zur Erweiterung der Core Banking Software wurde der Aufbau des Integration Layers definiert. Dieser besteht aus dem Messaging System Apache Kafka, Spring Boot Services, die in einem OpenShift Cluster betrieben werden. Meine Beteiligung in dem Projekt war neben der Beratung die Implementierung und Umsetzung von Aufgaben:
Basis Stack:
Operationstasks
Development
Für die Anbindung des Integration Layers war es notwendig tiefgehendes Wissen mit der Arbeit von Kafka zu haben. Hier wurden Mitarbeiter/Teams geschult und Wissen an diese weitergegeben. Darüber hinaus war es notwendig bei der Entscheidung der Kafka Topics zu helfen. In folgendes Fragen erfolgt die Beratung und auch die Umsetzung:
Für die Entkopplung der Microservices von dem ERP System war es notwendig einen Kafka zu implementieren. Dabei bestand die Aufgabe darin den Kafka in einer geeigneten und angepassten Installation auf dem Kubernetes Cluster zu installieren.
Die folgenden Entscheidungen wurden getroffen.
Daraufhin wurde ein Kafka Adapter gebaut, der Event abhängig aufgerufen wird und dadurch Änderungen an den Artikel, Preisen, Bildern oder auch Kunden auf die entsprechenden Topics pushed.
Erstellen einer REST basierten Import Möglichkeit für:
Die Orderdaten die aus dem Drittsystem abgerufen wurden sollten in das JTL Wawi importiert werden. Hierzu wurde ein Import Tool (Ameise.exe) via Java gewrappt und der Import sowie Command Line ausgaben via Rest zurück gegeben.
Erstellen der REST Schnittstelle um Daten an Drittsysteme ausliefern zu können.
Die Herausforderung war es, die Daten systemspezifisch auszuliefern. So sollten Kategorien in einem rekursiven Baum dargestellt werden, Bilddaten je nach Bedarf resized werden sowie Attribute zu Artikel und Styles gesteuert werden.
Um die gewünschte Performance bei der Auslieferung zu erreichen, wurde ein Redis Cache vor die Schnittstellen geschaltet, der große Requests sehr schnell beantwortet.
Die Aufgabe in diesem Projekt bestand darin, die ideale Infrastruktur für eine TV Ausstrahlung mit einer gleichzeitigen Besucherzahl von mindestens 100.000 gleichzeitigen Benutzern zur Verfügung zu stellen.
Meine Aufgaben waren:
- die Optimierung der bestehenden Webseitenrequests auf ein Minimum
- die Umsetzung einer Cachingstrategie für die hohe Besucherzahl
- das Sicherstellen der ERP Auftragseingänge und die Bearbeitung dieser
Das Modestratup MOROTAI GmbH expandiert sehr stark. In diesem Zusammenhang musste ein ERP-Software eingeführt werden, die den Anforderungen von MOROTAI entspricht. Im Rahmen dieses Projekt wurde für die Auswahl eines Anbieters eine Geschäftsprozessanalyse gemacht. Diese mündeten in einer Short/Longlist für die Anbieter Kommunikation.
Im Rahmen eines Pitches hat man die passende Software ausgesucht.
In der Einführung mussten technische Anpassungen durchgeführt werden. So musste der Import der Produktdaten, Kundendaten, bisherige Bestelldaten organisiert und ausgeführt werden. Darüberhinaus musste der Logistik Prozess im Versand definiert und implementiert werden.
Aufbau einer Webpräsenz mit angeschlossenem E-Commerce WebShop auf Basis der Vision der Gründer.
Die Anforderungen waren Designvorgaben und funktionale Vorgaben, die speziell dafür angepasst werden mussten.
Hierfür wurde als Basis eine WooCommerce Installation genommen und erweitert. Eine Versionierung mit Git wurde eingeführt, die in Echtzeit über Änderungen in Slack informiert.
Funktionale Anpassungen waren für schaltende Kampagnen notwendig.
Beispiel: Ab einem Warenkorbwert von x werden Produkte automatisch hinzugefügt.
Die technische Verantwortung bestand darin, die komplette Seite von einem klassischen Hosting auf Amazon Web Services zu bringen. Angebunden waren ein Cloud ERP-System, Zahlungsanbieter. Aus den Produktdaten mussten für die Produktion Exports generiert werden.
Im Rahmen der Weiterentwicklung des Kundenverkaufsportals sind Änderungen in der bestehenden Architektur notwendig. Ziel beim Umbau ist Nutzung der bestehenden Funktionalität auf mobilen Geräten.
In einer Bankanwendung müssen gesetzliche Anforderungen umgesetzt werden. Hierbei geht es im Speziellen um die Anpassung des Kreditprozesses. Verbundpartner, die ebenfalls an den Kreditprozess angebunden sind, müssen neue Daten bekommen. Die Erweiterung einschließlich der E2E Tests wurden übernommen. Weiter ist es notwendig viele Teilprozesse technisch anzupassen wie z.B. Kreditentscheidungsprüfung, Modellrechnung, Kreditsicherheiten. Bei der Erweiterung von Services mussten entsprechend Modelle angepasst und Klassen generiert werden.
Aufbau einer Behaviour Driven Testing Implementierungs- und Ausführungsumgebung für einen neuen Teilbereich des Portals. Unterstützung und Beratung des Quality Assurance Teams für Performance- , SEO- sowie Tracking Testing. Dabei wurde die Analyse von passenden Werkzeugen sowie Prozessen evaluiert und eingeführt.
Die Aufgabe innerhalb dieses Teilprojekts waren die Planung der Kapazitäten im Team, einfordern von Ressourcen, Planung der Meilensteine und Demands für diverse Anforderungen aus der Betriebsorganisation und den Fachabteilungen. Weiter bestand die Aufgabe in der Abnahme der implementierten Funktionen und Weitergabe in das Testcenter, Report und Statusmeldung an die Großprojektleitung sowie die Budgetplanung und das Einfordern von Budgettöpfen. Die Planung für die Release Einführung den außerordentlichen Einsatz der Teammitglieder war ebenso die Aufgabe des Teilprojektleiters.
Das Kundenportal des großen Versicherungskonzerns bietet dem Kunden die Möglichkeit Verträge zu verwalten, persönliche Daten einzustellen, Schadenmeldungen vorzunehmen und viele weitere Funktionen auszuführen. Die Komplexität liegt vor allem in der herausfordernden Systemlandschaft des Konzerns. Dem Kunden ein einheitliches und durchgängiges Interface zu bieten bedarf vieler Anpassungen und Abstimmungen der Schnittstellen.
PROVI/PDB ist ein System in dem alle Versicherungsprodukte einer Sparte abgebildet werden. Aufgrund der Produktvielfalt ergibt sich eine sehr komplexe Datenbasis. Diese ist häufig Strukturänderungen unterworfen, die eine Anpassung der Weboberfläche erfordern. Darüber hinaus werden aus der Datenbank denormalisiert Daten als Container abgezogen. Diese dienen den nachgelagerten Systemen als hoch performanter Zugriff auf die Produktbasis.
Um eine neu entwickelte Zwischenschicht zu einem Rechenkern zu testen wurde das Quality Gate entwickelt. Dieses dient dazu fachliche Tests über die Zwischenschicht an den Rechenkern zu schicken und die Ergebnisse auszuwerten. Das Quality Gate hat eine Testverwaltung, eine Benutzerverwaltung sowie eine Verwaltung der auszuführenden Tests. Die Ergebnisse des Tests können in Echtzeit über eine Weboberfläche eingesehen werden.
Bei der Entwicklung/Test und Abnahme von Steuergeräten werden diverse Dokumente erstellt. Diese Dokumente enthalten Schaltpläne, Testergebnisse und Architekturinformationen. Diese werden werden im EEB dem Dokumentenmanagement System abgelegt und verwaltet. Dieses Dokumentenmanagement System bietet diverse Schnittstellen zu angrenzenden System und passt sich ideal in die IT-Landschaft des Automobilherstellers an.
Für die ?metatrader? Plattform wurde ein Plug in sowie Auswertungskomponente entwickelt. Das Plug- In lieferte zum Ende eines Trading-Tages alle gehandelten Daten an einen zentralen Server. Die Auswertungskomponente hat die Daten aufbereitet und ansprechend dargestellt.
Im Rahmen der Entwicklung von Systemen mit Hardware in the Loop und Software in the Loop Methoden wurden Dokumente erstellt die in DoRIS archiviert wurden. DoRIS besteht aus einer C# Oberfläche und einem Java Backend. Versionsverwaltung, hierarchische Dokumentenstruktur sowie Versionsstandvergleich sind einige der Use Case's von DoRIS.
Teamleitung ?Finanzbuchhaltungsmodul?
Das Finanzbuchhaltungsmodul verfügt über Use Case's zur Buchung, Gewinn und Verlustrechnung sowie Kostengruppierung für die Gruppensummen und Gruppensalden. Die Architektur wurde nach dem Dreischicht-Prinzip und dem Best Practices Java Patterns umgesetzt.
- Java, Juni, Apache Derby, Swing
Softwareentwickler?Wertpapierhandel?
In einer JEE Architektur erhält die Börse Kauf- und Verkaufssignale. Diese sind entsprechend glatt zu stellen unter Voraussetzungen des vorgegebenen Algorithmus. Die durchgeführten Orders sind in einer Datenbank zu persistieren und die Transparenz ist durch einen Tickerdienst gewährleistet.
- Java EE, Junit, Hibernate, MySQL, JSF 2.0, Swing GUI, XML, Swing
Softwarearchitekt?Analysis of Workflow Data?
Anwenden von Process Mining Algorithmen auf unstrukturierte Workflow Daten und vergleichen von Performance Daten in Abhängigkeit der verwendeten Algorithmen. Dem Management sollen die Unterschiede und Ähnlichkeiten der Prozesse benutzerdefiniert dargestellt werden.
- Java, Oracle DB, SQL, Swing, Data Mining, Open Source Tools Weka, KNIME
Tools und Plugins
Build Error Communicator
Softwareentwickler
Der Builderrorcommunicator ist ein Tool um Entwickler über Buildfehler im Buildprozess zu informieren. Das Tool besteht aus drei Teilen - Parsen eines Errorlogs, Suchen nach Textpatterns und Auflösung von BenutzerIDs zu E-Mailadressen. Die Auflösung erfolgte über eine Anbindung des LDAP Servers. Danach konnte personifiziert eine E-Mail zugestellt werden. Als weiteres Feature wurde eine Komponente entwickelt die den Mailversand aufgrund des Releaseplans steuert.
- Java, Jenkins/Hudson, LDAP
GrowingTradingSystem
Softwareentwickler
GrowingTradingSystem ist ein Werkzeug um innerhalb des JForex Frameworks eigene Tradingroboter bestehend aus diversen Indikatoren zu definieren und diese auf den Devisenmarkt anzuwenden. Weitere Features sind eine GUI mit Swing/javaFX, Backtesting Komponente und Tradingroboterüberwachung.
- Java, JForex, JavaFX, HSQL
OptimizeTrades
Softwareentwickler
OptimizeTrades ist ein Plugins innerhalb des JForex Frameworks welche das Überwachen von manuellen Trades ermöglicht. Weiter wird auch eine Anpassung des Trades vorgenommen z.B. SL Optimierung oder Anpassung der Zeitfensterreferenz.
- Java, JForex, JavaFX
MMR Metatrader
Softwareentwickler
Ein vollautomatischer Tradingroboter auf Basis der Indikatoren Stochastic, MACD und Ichimoku Kino Hyo.
- Metatrader, MQL4, MQL5, C++
DB2 DDL Exporter
Softwareentwickler
Der DDL Exporter ist darauf spezialisiert in der Datenbank abhängige Objekte als DDL exportieren zu können.
- Java, DB2Look, DB2, Swing
Schulungen
AS Server/WebServer
Versioncontrol / Konfigurationsmanagement
Prozessunterstützung
Erfahrung
Backend/Basic
Web
Mobile
Trading
Skripting
General
Persistenzframeworks O/R Mapper
DB Tools
Frameworks
Entwicklung
Bei internationalen Einsätzen gilt ein anderer Stundensatz.
- Definition und Dokumentation von Standards für die Dokumentation der Anwendungsarchitektur sowie Anleitung, Validierung und Durchsetzung der Einhaltung dieser Standards innerhalb des Projektteams
- Definition und Pflege des relevanten Taylor-Made Development (TMD) Technologie-Stacks, Erkundung neuer Lösungen und Technologien
- Sicherstellung einer prüfbaren Einhaltung der Anforderungen der kritischen IT-Infrastruktur, z.B. ISMS-Prozess, BSI-Kritis-Verordnung.
In der Enterpriseumgebung des Kunden (> 100 Microservices) ist es unabdingbar ein Live Monitoring der kritischen Geschäftsprozesse zu implementieren. Hierfür wurde der klassische Stack Prometheus und Grafana neben AppDynamics und Azure Monitoring gewählt.
Über ein Whitebox- sowie Blackbox-Testing wurden die Metriken ermittelt und nach Prometheus exportiert.
Meine Aufgabe war die Implementierung von Blackboxtests mit Playwright, Einweisung der Teams für ein strukturiertes anliefern der Metriken via Prometheus API und die Unterstützung im CI/CD Prozess für das automatische Deployment von Grafana Dashboards.
Im Rahmen des Umbaus der Softwaresysteme von einer Legacy Architektur auf Microservices in Quarkus ergibt sich ein hoher Schulungsbedarf. Mit der gleichzeitigen Einführung von Camunda, Kafka, OpenShift, Docker, Programmierung mit dem Apache Camel sowie die konsequente Nutzung von Quarkus für die Microservices braucht es einige PoC Implementierungen sowie Trainingsunterlagen und Aufgabenstellungen.
Meine Aufgabe war es diverse PoC durchzuführen, in Eigenleistung oder einem kleinen Team. Die Erstellung von Schulungsszenarien, sowie die Schulung der Mitarbeiter war eine weitere Aufgabe von mir.
API Design mit REST
Quarkus
Docker
Microservices Workshop
Active MQ / Artemis Schulung
Apache Kafka Schulung
Teilnehmer der Schulung sind in der Lage einen clusterfähigen Kafka zu installieren, konfigurieren und fortlaufend zu kontrollieren. Darüber hinaus können die Teilnehmer ganze Teams/oder Serviceteams einweisen und denen die Arbeit mit Kafka erklären. Teilnehmer der Schulung haben selbst in Ihren Konzernen und Unternehmen Kafka installiert oder auch nach der Schulung angepasst. Die Teilnehmer stammen aus den Branchen:
Spring Boot
Kubernetes
Der Kunde des Projekts kaufte für diverse Bereiche (Vertragsverwaltung, Partnerverwaltung, Kundenbuchhaltung) Standardsoftware dazu. Die Aufgabe bestand darin, die Verträge einer neuen Sparte in das neue Vertragsverwaltungssystem zu integrieren und Bestandsdaten zu migrieren.
Ich war dafür zuständig, die Unternehmensarchitektur aus diversen Softwarebestandteilen (Kernsystem Cobol, Java Module, Fremdsoftware) zu analysieren, die bestehenden Interaktionen fachlich zu verstehen und in die Integration der neuen Software anzupassen.
Die Modellierung der neuen Schnittstellen über Apache Kafka, Rest, SOAP sollten exakt vorgenommen werden, damit die Softwareentwicklung außer Haus sowie die internen Entwickler genaue Vorgaben haben.
Im Rahmen des Softwareentwicklungsprozesses für einen Kreditkartenanbeiter war es notwendig ein Release-Tool zu pflegen welche die Vorbereitung eines Releases über mehrere z.T. abhängige Microservices managet.
Dabei war die Anbindung von Jira als Datenquelle notwendig. Damit wurde eine Übersicht des Gesamtreleases in Confluence erstellt, Releasenummern vergeben und eine Übergabe an das Testmanagment und das Rollout übergeben.
Zur Erweiterung der Core Banking Software wurde der Aufbau des Integration Layers definiert. Dieser besteht aus dem Messaging System Apache Kafka, Spring Boot Services, die in einem OpenShift Cluster betrieben werden. Meine Beteiligung in dem Projekt war neben der Beratung die Implementierung und Umsetzung von Aufgaben:
Basis Stack:
Operationstasks
Development
Für die Anbindung des Integration Layers war es notwendig tiefgehendes Wissen mit der Arbeit von Kafka zu haben. Hier wurden Mitarbeiter/Teams geschult und Wissen an diese weitergegeben. Darüber hinaus war es notwendig bei der Entscheidung der Kafka Topics zu helfen. In folgendes Fragen erfolgt die Beratung und auch die Umsetzung:
Für die Entkopplung der Microservices von dem ERP System war es notwendig einen Kafka zu implementieren. Dabei bestand die Aufgabe darin den Kafka in einer geeigneten und angepassten Installation auf dem Kubernetes Cluster zu installieren.
Die folgenden Entscheidungen wurden getroffen.
Daraufhin wurde ein Kafka Adapter gebaut, der Event abhängig aufgerufen wird und dadurch Änderungen an den Artikel, Preisen, Bildern oder auch Kunden auf die entsprechenden Topics pushed.
Erstellen einer REST basierten Import Möglichkeit für:
Die Orderdaten die aus dem Drittsystem abgerufen wurden sollten in das JTL Wawi importiert werden. Hierzu wurde ein Import Tool (Ameise.exe) via Java gewrappt und der Import sowie Command Line ausgaben via Rest zurück gegeben.
Erstellen der REST Schnittstelle um Daten an Drittsysteme ausliefern zu können.
Die Herausforderung war es, die Daten systemspezifisch auszuliefern. So sollten Kategorien in einem rekursiven Baum dargestellt werden, Bilddaten je nach Bedarf resized werden sowie Attribute zu Artikel und Styles gesteuert werden.
Um die gewünschte Performance bei der Auslieferung zu erreichen, wurde ein Redis Cache vor die Schnittstellen geschaltet, der große Requests sehr schnell beantwortet.
Die Aufgabe in diesem Projekt bestand darin, die ideale Infrastruktur für eine TV Ausstrahlung mit einer gleichzeitigen Besucherzahl von mindestens 100.000 gleichzeitigen Benutzern zur Verfügung zu stellen.
Meine Aufgaben waren:
- die Optimierung der bestehenden Webseitenrequests auf ein Minimum
- die Umsetzung einer Cachingstrategie für die hohe Besucherzahl
- das Sicherstellen der ERP Auftragseingänge und die Bearbeitung dieser
Das Modestratup MOROTAI GmbH expandiert sehr stark. In diesem Zusammenhang musste ein ERP-Software eingeführt werden, die den Anforderungen von MOROTAI entspricht. Im Rahmen dieses Projekt wurde für die Auswahl eines Anbieters eine Geschäftsprozessanalyse gemacht. Diese mündeten in einer Short/Longlist für die Anbieter Kommunikation.
Im Rahmen eines Pitches hat man die passende Software ausgesucht.
In der Einführung mussten technische Anpassungen durchgeführt werden. So musste der Import der Produktdaten, Kundendaten, bisherige Bestelldaten organisiert und ausgeführt werden. Darüberhinaus musste der Logistik Prozess im Versand definiert und implementiert werden.
Aufbau einer Webpräsenz mit angeschlossenem E-Commerce WebShop auf Basis der Vision der Gründer.
Die Anforderungen waren Designvorgaben und funktionale Vorgaben, die speziell dafür angepasst werden mussten.
Hierfür wurde als Basis eine WooCommerce Installation genommen und erweitert. Eine Versionierung mit Git wurde eingeführt, die in Echtzeit über Änderungen in Slack informiert.
Funktionale Anpassungen waren für schaltende Kampagnen notwendig.
Beispiel: Ab einem Warenkorbwert von x werden Produkte automatisch hinzugefügt.
Die technische Verantwortung bestand darin, die komplette Seite von einem klassischen Hosting auf Amazon Web Services zu bringen. Angebunden waren ein Cloud ERP-System, Zahlungsanbieter. Aus den Produktdaten mussten für die Produktion Exports generiert werden.
Im Rahmen der Weiterentwicklung des Kundenverkaufsportals sind Änderungen in der bestehenden Architektur notwendig. Ziel beim Umbau ist Nutzung der bestehenden Funktionalität auf mobilen Geräten.
In einer Bankanwendung müssen gesetzliche Anforderungen umgesetzt werden. Hierbei geht es im Speziellen um die Anpassung des Kreditprozesses. Verbundpartner, die ebenfalls an den Kreditprozess angebunden sind, müssen neue Daten bekommen. Die Erweiterung einschließlich der E2E Tests wurden übernommen. Weiter ist es notwendig viele Teilprozesse technisch anzupassen wie z.B. Kreditentscheidungsprüfung, Modellrechnung, Kreditsicherheiten. Bei der Erweiterung von Services mussten entsprechend Modelle angepasst und Klassen generiert werden.
Aufbau einer Behaviour Driven Testing Implementierungs- und Ausführungsumgebung für einen neuen Teilbereich des Portals. Unterstützung und Beratung des Quality Assurance Teams für Performance- , SEO- sowie Tracking Testing. Dabei wurde die Analyse von passenden Werkzeugen sowie Prozessen evaluiert und eingeführt.
Die Aufgabe innerhalb dieses Teilprojekts waren die Planung der Kapazitäten im Team, einfordern von Ressourcen, Planung der Meilensteine und Demands für diverse Anforderungen aus der Betriebsorganisation und den Fachabteilungen. Weiter bestand die Aufgabe in der Abnahme der implementierten Funktionen und Weitergabe in das Testcenter, Report und Statusmeldung an die Großprojektleitung sowie die Budgetplanung und das Einfordern von Budgettöpfen. Die Planung für die Release Einführung den außerordentlichen Einsatz der Teammitglieder war ebenso die Aufgabe des Teilprojektleiters.
Das Kundenportal des großen Versicherungskonzerns bietet dem Kunden die Möglichkeit Verträge zu verwalten, persönliche Daten einzustellen, Schadenmeldungen vorzunehmen und viele weitere Funktionen auszuführen. Die Komplexität liegt vor allem in der herausfordernden Systemlandschaft des Konzerns. Dem Kunden ein einheitliches und durchgängiges Interface zu bieten bedarf vieler Anpassungen und Abstimmungen der Schnittstellen.
PROVI/PDB ist ein System in dem alle Versicherungsprodukte einer Sparte abgebildet werden. Aufgrund der Produktvielfalt ergibt sich eine sehr komplexe Datenbasis. Diese ist häufig Strukturänderungen unterworfen, die eine Anpassung der Weboberfläche erfordern. Darüber hinaus werden aus der Datenbank denormalisiert Daten als Container abgezogen. Diese dienen den nachgelagerten Systemen als hoch performanter Zugriff auf die Produktbasis.
Um eine neu entwickelte Zwischenschicht zu einem Rechenkern zu testen wurde das Quality Gate entwickelt. Dieses dient dazu fachliche Tests über die Zwischenschicht an den Rechenkern zu schicken und die Ergebnisse auszuwerten. Das Quality Gate hat eine Testverwaltung, eine Benutzerverwaltung sowie eine Verwaltung der auszuführenden Tests. Die Ergebnisse des Tests können in Echtzeit über eine Weboberfläche eingesehen werden.
Bei der Entwicklung/Test und Abnahme von Steuergeräten werden diverse Dokumente erstellt. Diese Dokumente enthalten Schaltpläne, Testergebnisse und Architekturinformationen. Diese werden werden im EEB dem Dokumentenmanagement System abgelegt und verwaltet. Dieses Dokumentenmanagement System bietet diverse Schnittstellen zu angrenzenden System und passt sich ideal in die IT-Landschaft des Automobilherstellers an.
Für die ?metatrader? Plattform wurde ein Plug in sowie Auswertungskomponente entwickelt. Das Plug- In lieferte zum Ende eines Trading-Tages alle gehandelten Daten an einen zentralen Server. Die Auswertungskomponente hat die Daten aufbereitet und ansprechend dargestellt.
Im Rahmen der Entwicklung von Systemen mit Hardware in the Loop und Software in the Loop Methoden wurden Dokumente erstellt die in DoRIS archiviert wurden. DoRIS besteht aus einer C# Oberfläche und einem Java Backend. Versionsverwaltung, hierarchische Dokumentenstruktur sowie Versionsstandvergleich sind einige der Use Case's von DoRIS.
Teamleitung ?Finanzbuchhaltungsmodul?
Das Finanzbuchhaltungsmodul verfügt über Use Case's zur Buchung, Gewinn und Verlustrechnung sowie Kostengruppierung für die Gruppensummen und Gruppensalden. Die Architektur wurde nach dem Dreischicht-Prinzip und dem Best Practices Java Patterns umgesetzt.
- Java, Juni, Apache Derby, Swing
Softwareentwickler?Wertpapierhandel?
In einer JEE Architektur erhält die Börse Kauf- und Verkaufssignale. Diese sind entsprechend glatt zu stellen unter Voraussetzungen des vorgegebenen Algorithmus. Die durchgeführten Orders sind in einer Datenbank zu persistieren und die Transparenz ist durch einen Tickerdienst gewährleistet.
- Java EE, Junit, Hibernate, MySQL, JSF 2.0, Swing GUI, XML, Swing
Softwarearchitekt?Analysis of Workflow Data?
Anwenden von Process Mining Algorithmen auf unstrukturierte Workflow Daten und vergleichen von Performance Daten in Abhängigkeit der verwendeten Algorithmen. Dem Management sollen die Unterschiede und Ähnlichkeiten der Prozesse benutzerdefiniert dargestellt werden.
- Java, Oracle DB, SQL, Swing, Data Mining, Open Source Tools Weka, KNIME
Tools und Plugins
Build Error Communicator
Softwareentwickler
Der Builderrorcommunicator ist ein Tool um Entwickler über Buildfehler im Buildprozess zu informieren. Das Tool besteht aus drei Teilen - Parsen eines Errorlogs, Suchen nach Textpatterns und Auflösung von BenutzerIDs zu E-Mailadressen. Die Auflösung erfolgte über eine Anbindung des LDAP Servers. Danach konnte personifiziert eine E-Mail zugestellt werden. Als weiteres Feature wurde eine Komponente entwickelt die den Mailversand aufgrund des Releaseplans steuert.
- Java, Jenkins/Hudson, LDAP
GrowingTradingSystem
Softwareentwickler
GrowingTradingSystem ist ein Werkzeug um innerhalb des JForex Frameworks eigene Tradingroboter bestehend aus diversen Indikatoren zu definieren und diese auf den Devisenmarkt anzuwenden. Weitere Features sind eine GUI mit Swing/javaFX, Backtesting Komponente und Tradingroboterüberwachung.
- Java, JForex, JavaFX, HSQL
OptimizeTrades
Softwareentwickler
OptimizeTrades ist ein Plugins innerhalb des JForex Frameworks welche das Überwachen von manuellen Trades ermöglicht. Weiter wird auch eine Anpassung des Trades vorgenommen z.B. SL Optimierung oder Anpassung der Zeitfensterreferenz.
- Java, JForex, JavaFX
MMR Metatrader
Softwareentwickler
Ein vollautomatischer Tradingroboter auf Basis der Indikatoren Stochastic, MACD und Ichimoku Kino Hyo.
- Metatrader, MQL4, MQL5, C++
DB2 DDL Exporter
Softwareentwickler
Der DDL Exporter ist darauf spezialisiert in der Datenbank abhängige Objekte als DDL exportieren zu können.
- Java, DB2Look, DB2, Swing
Schulungen
AS Server/WebServer
Versioncontrol / Konfigurationsmanagement
Prozessunterstützung
Erfahrung
Backend/Basic
Web
Mobile
Trading
Skripting
General
Persistenzframeworks O/R Mapper
DB Tools
Frameworks
Entwicklung