Datenverarbeitung, Modelltraining und Leistungsbewertung zur automatischen Klassifizierung defekter Kunststoffteile mittels Deep Learning. Verwendung eines ImageNet-Modells für die binäre und mehrstufige Klassifizierung
Verantwortliche Tätigkeit als Data Steward zur Gewährleistung der Datenqualität der Autokonfigurationsdaten. Meine Aufgaben umfassten Datenbereinigung und Berichtserstellung unter Verwendung von OEM-internen Tools wie Palantir/ Impact. Einsatz als Datenbankmanager und Nutzung von SQL & AWS Athena für Analysen sowie Palantir/Impact. Verwendung von Python und Apache Spark bei der Arbeit mit Big Data.
Integration von Ortungsgerätedaten in das Sigfox-Backend (Cloud), Übertragung in Wissensgraphen-Technologie und Durchführung komplexer Datentransformationen. Dashboard-Erstellung zur detaillierten Analyse der Ergebnisse.
Entwicklung eines Dashboards zur Identifikation von fehlenden oder fehlerhaften Daten, die die eCall-Funktionalität beeinträchtigen könnten. Durchführung von Systemkorrekturen. Überführung und Integration der Informationen in eccenca Corporate Memory unter Verwendung von eccenca Corporate Memory Data Integration Support, SPARQL, Cmemc und Cmempy.
Die Arbeit untersucht die Leistung von Stream- und Batch-orientierten Systemen mithilfe eines Linear Road Streaming Benchmarks. Big Data Technologien wie Apache Spark, Apache Flink, Apache Kafka und Apache Zookeeper, um die beiden Streaming-Frameworks zu vergleichen. Metriken bilden die Grundlage für den Vergleich, während die Auswirkungen verschiedener Konfigurationsparameter auf die Streaming-Frameworks innerhalb dieser Arbeit bewertet werden.
Datenverarbeitung, Modelltraining und Leistungsbewertung zur automatischen Klassifizierung defekter Kunststoffteile mittels Deep Learning. Verwendung eines ImageNet-Modells für die binäre und mehrstufige Klassifizierung
Verantwortliche Tätigkeit als Data Steward zur Gewährleistung der Datenqualität der Autokonfigurationsdaten. Meine Aufgaben umfassten Datenbereinigung und Berichtserstellung unter Verwendung von OEM-internen Tools wie Palantir/ Impact. Einsatz als Datenbankmanager und Nutzung von SQL & AWS Athena für Analysen sowie Palantir/Impact. Verwendung von Python und Apache Spark bei der Arbeit mit Big Data.
Integration von Ortungsgerätedaten in das Sigfox-Backend (Cloud), Übertragung in Wissensgraphen-Technologie und Durchführung komplexer Datentransformationen. Dashboard-Erstellung zur detaillierten Analyse der Ergebnisse.
Entwicklung eines Dashboards zur Identifikation von fehlenden oder fehlerhaften Daten, die die eCall-Funktionalität beeinträchtigen könnten. Durchführung von Systemkorrekturen. Überführung und Integration der Informationen in eccenca Corporate Memory unter Verwendung von eccenca Corporate Memory Data Integration Support, SPARQL, Cmemc und Cmempy.
Die Arbeit untersucht die Leistung von Stream- und Batch-orientierten Systemen mithilfe eines Linear Road Streaming Benchmarks. Big Data Technologien wie Apache Spark, Apache Flink, Apache Kafka und Apache Zookeeper, um die beiden Streaming-Frameworks zu vergleichen. Metriken bilden die Grundlage für den Vergleich, während die Auswirkungen verschiedener Konfigurationsparameter auf die Streaming-Frameworks innerhalb dieser Arbeit bewertet werden.