Projektverantwortung
Konzeption und Steuerung
Projektverantwortung
Projektverantwortung
Beratung, Konzeption und Umsetzung
PROJEKTVERANTWORTUNG
Projektverantwortung
Beratung des Reporting-Teams, Analyse, Umsetzung, Schulungen
Projektverantwortung
Beratung, Konzeption und Umsetzung
Projektverantwortung
Konzeption und Training
Projektverantwortung
Anforderungsanalyse, Beratung, Projektsteuerung
Projektverantwortung
Anforderungsanalyse, Beratung, Projektsteuerung
Projektverantwortung
Architektur, Beratung, Anforderungsanalyse, UmsetzungPROJEKTVERANTWORTUNG
Leitung der Abteilung für IT, Business Intelligence und ControllingPROJEKTVERANTWORTUNG
Analyse, Beratung und Umsetzung
PROJEKTVERANTWORTUNG
Dokumentation und Fehlerbehebung
PROJEKTVERANTWORTUNG
Architektur, Implementierung, Anforderungsanalyse, Dashboard-Design, DatenmodellierungPROJEKTVERANTWORTUNG
Beratung, Schulung, Umsetzung
PROJEKTVERANTWORTUNG
SoftwareentwicklungProjektverantwortung
Architektur, Implementierung, Anforderungsanalyse, Dashboard-Design, DatenmodellierungProjektverantwortung:
Technische Begleitung während der gesamten ProjektlaufzeitSystemumgebung:
Es wurden mit C# sowie SSIS Export-Programme für die Quelldatenbanken geschrieben, die die Daten aus verschiedensten Formaten in eine MS-SQL-Server-Datenbank überführen. Diese Datenbank diente dabei als Data Warehouse. Dort wurden die Daten über T-SQL und SSIS so aufbereitet, dass sie eine einheitliche Struktur haben. Schließlich wurden sie in einen ?Cube? überführt, der die Daten in Microsoft Analysis Services (SSAS) so indiziert bereit hält, dass er zur Laufzeit Aggregationen in Sekundenbruchteilen berechnen und dem Nutzer anzeigen kann. Fest vorgegebene Reports wurden über Microsoft Reporting Services (SSRS) implementiert. Zudem wurde ein Frontend in ASP.NET / C# mit Einbindung von AJAX Controls umgesetzt. Ad-hoc-Reporting funktioniert über Microsoft PowerView sowie Excel.Projektverantwortung:
Implementierung, Projektmanagement, Leitung, Analyse sowie Key Account Management.Systemumgebung
Es wurde mit SQL Server das Data Warehouse modelliert, und per Stored Procedures (T-SQL) mit SQL Agent Jobs befüllt. Alle Dashboards wurden mit Tableau erstellt. Das Data Warehouse wurde in ein LIMS (Labor-Informations- und Management-System) integriert.
Projektverantwortung
Implementierung, Projektmanagement, Leitung, Analyse, Durchführung von WorkshopsSystemumgebung:
Das Webportal wurde auf .NET-Basis mit C#, ASP.NET sowie Javascript/JQuery implementiert. Als Datenbank wurde SQL Server 2008 R2 eingesetzt, allerdings mittlerweile durch SQL Server 2014 auf Microsoft Azure (Cloud) abgelöst. SQL Server Reporting Services (SSRS) greift per MDX auf die Daten im SQL Server Analysis Services (SSAS)-Cube zu, in dem die analytische Logik definiert ist. Adhoc-Reporting wurde auf Basis von PowerView mit der Microsoft PowerPivot Gallery in Sharepoint umgesetzt.Projektverantwortung:
Fachliche Unterstützung, Teamleitung, Präsentationen, Durchführung von Workshops und Schulungen
Systemumgebung
Die beim Kunden vorhandenen Systeme (z.B. SQL Server, Oracle, Exasol) wurden an Tableau angebunden. Für das Verknüpfen von Daten wurden während des Workshops Lyza und SQL verwendet.Projektverantwortung:
Leitung und Durchführung der Workshops, Erstellung der Dashboards, Schulung und Beratung der Kunden
Da eine bestehende Access-Applikation den Anforderungen an Sicherheit, Compliance und Wartbarkeit nicht mehr gewachsen war, wurde sie mit State-of-the-Art-Technologien neu implementiert. Aufgabe war die Verwaltung aller Personal-Stammdaten, Zeiterfassungen sowie Zielen. Darüber hinaus wurden verschiedene Reports erstellt, die Human Resources als Grundlage für ihre Arbeit dienen. Dafür musste die bestehende Software auf alle Features hin untersucht, verbessert und neu umgesetzt werden.
Systemumgebung:
Die ehemalige Software auf MS-Access-Basis wurde untersucht, und mit C#, ASP.NET MVC sowie SQL Server (Entity Framework) neu implementiert. Reports basieren nun auf Logik in T-SQL.
Projektverantwortung:
Teamleitung, Anforderungsanalyse, Implementierung der Reporting-Komponenten, Durchführung von Workshops
Systemumgebung
Einige Rohdaten lagen bereits in Apache Hadoop (HDFS mit HiveDB) vor. Mit dem Microsoft Analytical Platform System (APS, ehemals PDW, heute SQL Data Warehouse) wurde auf Basis von SQL Server 2014 ein Mechanismus geschaffen, der zur Laufzeit die in SQL Server vorliegenden Daten mit denen aus Hadoop verknüpft. Alle Abfragen auf Hadoop waren somit einheitlich über T-SQL möglich. Microsoft Polybase wurde für die Verknüpfung und das Caching eingesetzt. In Kombination mit Clustered Columnstore Indices (spaltenorientierten Tabellen) wurde der Speicherplatz der restlichen Daten um das 10-fache komprimiert. ETL-Strecken wurden mit SSIS implementiert. Der Proof of Concept war erfolgreich ? Antwortzeiten lagen ohne explizite Performance-Optimierung im sehr guten Bereich.
Projektverantwortung:
Leitung, Implementierung, Koordination und PräsentationenProjektverantwortung:
Analyse der fachlichen Anforderungen, Beratung der Kunden, Architektur des Datenbankschemas sowie Implementierung von Features in der Legacy-SoftwareSystemumgebung:
Die Basis der Anwendung bildete das .NET-Framework 4.0. Die Entwicklung erfolgte unter Visual Studio 2010 in der Programmiersprache C#. Nach dem Prinzip ?Software as a Service (SaaS)? gab es mehrere in sich abgeschlossene WCF-Dienste, die über SOAP und REST miteinander kommunizierten. Linguistisches und ontologisches Wissen, das für die Zuordnung der Produktnamen benötigt wurde, war in der No-SQL-Datenbank ?Mongo DB? abgespeichert. Die aus den Texten extrahierten Informationen wurden mit Hilfe von Lucene .NET so abgespeichert, dass sie auf semantische Volltextsuche und die Bereitstellung der benötigten Trend-Statistiken optimiert waren. Für das Frontend kam Microsoft Silverlight zum Einsatz. Die Qualität der Software wurde über mehrere tausend Unit-Tests mit NUnit sowie Continuous Integration über Cruise Control sichergestellt.
Projektverantwortung:
Konzeption und Implementierung der mehrsprachigen Erkennung von Autoteilen und Abbilden auf die Ontologie. Konzeption und Implementierung der semantischen Suche im Team. Konzeption und Spezifikation der Trenderkennungs-Algorithmen. Erstellung von Unit-Tests und Spezifikation von Integrationstests.
Systemumgebung:
Entwickelt wurde die Anwendung mit dem .NET-Framework 4.0 unter Visual Studio 2010. Ein selbst entwickelter ?Crawler? kam zum Einsatz, der Dateien aus dem Internet lokal abspeichert und verarbeitet. Der Crawler selbst bestand aus einer Vielzahl von WCF Services, die über Microsoft Message Queuing (MSMQ) miteinander interagierten. Es wurden MS SQL Server-Datenbanken eingesetzt, auf die der C#-Code über NHibernate zugegriffen hat. Als Frontend wurde Microsoft Silverlight eingesetzt.Projektverantwortung:
Leitung des Forschungsprojektes und Koordination des Teams. Architektur der benutzten Softwareweitere Projekte gern auf Anfrage
Fachliche Schwerpunkte
Technologische Schwerpunkte
Kenntnisse
Projektverantwortung
Konzeption und Steuerung
Projektverantwortung
Projektverantwortung
Beratung, Konzeption und Umsetzung
PROJEKTVERANTWORTUNG
Projektverantwortung
Beratung des Reporting-Teams, Analyse, Umsetzung, Schulungen
Projektverantwortung
Beratung, Konzeption und Umsetzung
Projektverantwortung
Konzeption und Training
Projektverantwortung
Anforderungsanalyse, Beratung, Projektsteuerung
Projektverantwortung
Anforderungsanalyse, Beratung, Projektsteuerung
Projektverantwortung
Architektur, Beratung, Anforderungsanalyse, UmsetzungPROJEKTVERANTWORTUNG
Leitung der Abteilung für IT, Business Intelligence und ControllingPROJEKTVERANTWORTUNG
Analyse, Beratung und Umsetzung
PROJEKTVERANTWORTUNG
Dokumentation und Fehlerbehebung
PROJEKTVERANTWORTUNG
Architektur, Implementierung, Anforderungsanalyse, Dashboard-Design, DatenmodellierungPROJEKTVERANTWORTUNG
Beratung, Schulung, Umsetzung
PROJEKTVERANTWORTUNG
SoftwareentwicklungProjektverantwortung
Architektur, Implementierung, Anforderungsanalyse, Dashboard-Design, DatenmodellierungProjektverantwortung:
Technische Begleitung während der gesamten ProjektlaufzeitSystemumgebung:
Es wurden mit C# sowie SSIS Export-Programme für die Quelldatenbanken geschrieben, die die Daten aus verschiedensten Formaten in eine MS-SQL-Server-Datenbank überführen. Diese Datenbank diente dabei als Data Warehouse. Dort wurden die Daten über T-SQL und SSIS so aufbereitet, dass sie eine einheitliche Struktur haben. Schließlich wurden sie in einen ?Cube? überführt, der die Daten in Microsoft Analysis Services (SSAS) so indiziert bereit hält, dass er zur Laufzeit Aggregationen in Sekundenbruchteilen berechnen und dem Nutzer anzeigen kann. Fest vorgegebene Reports wurden über Microsoft Reporting Services (SSRS) implementiert. Zudem wurde ein Frontend in ASP.NET / C# mit Einbindung von AJAX Controls umgesetzt. Ad-hoc-Reporting funktioniert über Microsoft PowerView sowie Excel.Projektverantwortung:
Implementierung, Projektmanagement, Leitung, Analyse sowie Key Account Management.Systemumgebung
Es wurde mit SQL Server das Data Warehouse modelliert, und per Stored Procedures (T-SQL) mit SQL Agent Jobs befüllt. Alle Dashboards wurden mit Tableau erstellt. Das Data Warehouse wurde in ein LIMS (Labor-Informations- und Management-System) integriert.
Projektverantwortung
Implementierung, Projektmanagement, Leitung, Analyse, Durchführung von WorkshopsSystemumgebung:
Das Webportal wurde auf .NET-Basis mit C#, ASP.NET sowie Javascript/JQuery implementiert. Als Datenbank wurde SQL Server 2008 R2 eingesetzt, allerdings mittlerweile durch SQL Server 2014 auf Microsoft Azure (Cloud) abgelöst. SQL Server Reporting Services (SSRS) greift per MDX auf die Daten im SQL Server Analysis Services (SSAS)-Cube zu, in dem die analytische Logik definiert ist. Adhoc-Reporting wurde auf Basis von PowerView mit der Microsoft PowerPivot Gallery in Sharepoint umgesetzt.Projektverantwortung:
Fachliche Unterstützung, Teamleitung, Präsentationen, Durchführung von Workshops und Schulungen
Systemumgebung
Die beim Kunden vorhandenen Systeme (z.B. SQL Server, Oracle, Exasol) wurden an Tableau angebunden. Für das Verknüpfen von Daten wurden während des Workshops Lyza und SQL verwendet.Projektverantwortung:
Leitung und Durchführung der Workshops, Erstellung der Dashboards, Schulung und Beratung der Kunden
Da eine bestehende Access-Applikation den Anforderungen an Sicherheit, Compliance und Wartbarkeit nicht mehr gewachsen war, wurde sie mit State-of-the-Art-Technologien neu implementiert. Aufgabe war die Verwaltung aller Personal-Stammdaten, Zeiterfassungen sowie Zielen. Darüber hinaus wurden verschiedene Reports erstellt, die Human Resources als Grundlage für ihre Arbeit dienen. Dafür musste die bestehende Software auf alle Features hin untersucht, verbessert und neu umgesetzt werden.
Systemumgebung:
Die ehemalige Software auf MS-Access-Basis wurde untersucht, und mit C#, ASP.NET MVC sowie SQL Server (Entity Framework) neu implementiert. Reports basieren nun auf Logik in T-SQL.
Projektverantwortung:
Teamleitung, Anforderungsanalyse, Implementierung der Reporting-Komponenten, Durchführung von Workshops
Systemumgebung
Einige Rohdaten lagen bereits in Apache Hadoop (HDFS mit HiveDB) vor. Mit dem Microsoft Analytical Platform System (APS, ehemals PDW, heute SQL Data Warehouse) wurde auf Basis von SQL Server 2014 ein Mechanismus geschaffen, der zur Laufzeit die in SQL Server vorliegenden Daten mit denen aus Hadoop verknüpft. Alle Abfragen auf Hadoop waren somit einheitlich über T-SQL möglich. Microsoft Polybase wurde für die Verknüpfung und das Caching eingesetzt. In Kombination mit Clustered Columnstore Indices (spaltenorientierten Tabellen) wurde der Speicherplatz der restlichen Daten um das 10-fache komprimiert. ETL-Strecken wurden mit SSIS implementiert. Der Proof of Concept war erfolgreich ? Antwortzeiten lagen ohne explizite Performance-Optimierung im sehr guten Bereich.
Projektverantwortung:
Leitung, Implementierung, Koordination und PräsentationenProjektverantwortung:
Analyse der fachlichen Anforderungen, Beratung der Kunden, Architektur des Datenbankschemas sowie Implementierung von Features in der Legacy-SoftwareSystemumgebung:
Die Basis der Anwendung bildete das .NET-Framework 4.0. Die Entwicklung erfolgte unter Visual Studio 2010 in der Programmiersprache C#. Nach dem Prinzip ?Software as a Service (SaaS)? gab es mehrere in sich abgeschlossene WCF-Dienste, die über SOAP und REST miteinander kommunizierten. Linguistisches und ontologisches Wissen, das für die Zuordnung der Produktnamen benötigt wurde, war in der No-SQL-Datenbank ?Mongo DB? abgespeichert. Die aus den Texten extrahierten Informationen wurden mit Hilfe von Lucene .NET so abgespeichert, dass sie auf semantische Volltextsuche und die Bereitstellung der benötigten Trend-Statistiken optimiert waren. Für das Frontend kam Microsoft Silverlight zum Einsatz. Die Qualität der Software wurde über mehrere tausend Unit-Tests mit NUnit sowie Continuous Integration über Cruise Control sichergestellt.
Projektverantwortung:
Konzeption und Implementierung der mehrsprachigen Erkennung von Autoteilen und Abbilden auf die Ontologie. Konzeption und Implementierung der semantischen Suche im Team. Konzeption und Spezifikation der Trenderkennungs-Algorithmen. Erstellung von Unit-Tests und Spezifikation von Integrationstests.
Systemumgebung:
Entwickelt wurde die Anwendung mit dem .NET-Framework 4.0 unter Visual Studio 2010. Ein selbst entwickelter ?Crawler? kam zum Einsatz, der Dateien aus dem Internet lokal abspeichert und verarbeitet. Der Crawler selbst bestand aus einer Vielzahl von WCF Services, die über Microsoft Message Queuing (MSMQ) miteinander interagierten. Es wurden MS SQL Server-Datenbanken eingesetzt, auf die der C#-Code über NHibernate zugegriffen hat. Als Frontend wurde Microsoft Silverlight eingesetzt.Projektverantwortung:
Leitung des Forschungsprojektes und Koordination des Teams. Architektur der benutzten Softwareweitere Projekte gern auf Anfrage
Fachliche Schwerpunkte
Technologische Schwerpunkte
Kenntnisse