Projektziel:
Entwicklung und Implementierung eines spezialisierten Large Language Models für IBM Planning Analytics durch Fine-Tuning, mit dem Fokus auf TM1/PAW-spezifische Aufgaben und Prozesse.
Projektinhalt:
? Evaluierung verschiedener Fine-Tuning Methoden und Auswahl geeigneter Ansätze
? Aufbereitung und Strukturierung von Bedrock-Datensätzen für das Training
? Implementation eines LoRA-basierten Fine-Tuning Prozesses
? Implementation eines LAB basierend auf IBM Research ?Large-scale Alignment for chatBots? (LAB) aus MIT-IBM Watson AI Lab Forschung, 2024 mit InctructLab (Red Hat).
o Taxonomiegesteuerte Datenkuration: Menschlich kuratierte Trainingsdaten für neues Wissen und Kompetenzen.
?o Generierung synthetischer Daten: Modell erstellt neue Beispiele, automatisierte Verfeinerung sichert Qualität und Sicherheit.
o Iterative Abstimmung: Zweistufiges Tuning (Wissenstuning und Kompetenztuning) auf Basis der synthetischen Daten.
? Integration des optimierten Modells in die Planning Analytics Umgebung
Besondere Herausforderungen:
? Tuning Prozesses auf Google Colab mit Tesla T4
? Aufbereitung und Konvertierung von TM1/Bedrock Prozessen in trainingstaugliche Formate
? Mehrsprachiges Training (Deutsch/Englisch) für verbesserte Anwendbarkeit
? Integration verschiedener Modelloptimierungen (GGUF Konvertierung, Quantisierung) Technologien/Produkte
Projektziel:
Entwicklung einer zentralen, containerisierten Plattform für Machine Learning, ETL und Konnektivität, die IBM Planning Analytics TM1 um innovative Funktionen erweitert.
Diese Plattform, soll die fachbereichsübergreifende, interdisziplinäre Zusammenarbeit zwischen TM1-Architekten, Data Scientists, Data Engineers und Business Analysts revolutionieren. Durch den Einsatz eines leistungsstarken Open-Source-Stacks und die Integration von Tools wie Jupyterlab, Git sowie kundenspezifischen Python-Frameworks wird eine sichere, versionskontrollierte und CI/CD-fähige Umgebung geschaffen, die eine effiziente Umsetzung von Machine Learning-, ETL- und Data Engineering-Projekten ermöglicht. Die Sicherheit wird dabei durch SSL/TLS gewährleistet.
Projektinhalt:
? Implementierung eines leistungsstarken Open-Source-Stacks in einer Docker-Umgebung
? Integration eines Jupyter Data Science Image als Basistechnologie
? Entwicklung und Integration kundenspezifischer Python-Frameworks
? Einrichtung einer modernen IDE mit JupyterLab
? Implementation einer versionssicheren Git-Integration
? Konfiguration von SSL/TLS für maximale Sicherheit
Projektziel:
Umfassende Migration und Modernisierung der C.REST API sowie Integration mit mySQL, DRUPAL und IBM Cognos BI, mit Fokus auf verbesserte Performance, Sicherheit und Benutzerfreundlichkeit.
Projektinhalt:
? Durchführung einer detaillierten Anforderungsanalyse der bestehenden C.REST API
? Migration der API in eine neue Infrastruktur - Installation und Konfiguration von mySQL und DRUPAL
? Integration neuer Login-Methoden im IBM Cognos BI Content Store - Einrichtung einer umfassenden Testumgebung
? Produktivschaltung und Übergabe an den Fachbereich
Weiterentwicklung einer Weboberfläche für die halbautomatische Datentestung, Datenaufbereitung und den anschließenden Datenexport von Mietvertragsdaten
Besondere Herausforderung: ausschließlich Cloud-basierte Technologie
Design
und Implementierung eines Planning Analytics-Datenmodells und Canvas Frontend / Entwicklung von Eingabemasken und Berichten
tägliche Stammdaten-Aktualisierung mit mehr als 1.000.000 Dimensionselementen
User-spezifische Hierarchien
User-spezifische Filterung komplexer Summen
Speicherung des kompletten Navigationszustandes in einem Client-Key-Value-Store
Einsatz des Pivotierungstools Flexmonster und Implementierung eigener Export- und View-Speicherungsmechanismen
Umsetzung einer generischen Prozesskettensteuerung über die Standard-TM1-Jobs hinaus
Experienceoptimiertes Frontend
Entwicklung einer Weboberfläche für die halbautomatische Datentestung, Datenaufbereitung und den anschließenden Datenexport
Besondere Herausforderung: ausschließlich cloud-basierte Technologie
Entwicklung einer Weboberfläche für die halbautomatische Datentestung, Datenaufbereitung und den anschließenden Datenexport
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Erfassung von Sekundärkostenverteilungsschlüsseln (SKV) gemäß Stammdatendefinition in unterschiedlichen Werttypen (%, Liter, DM, Menge, ??.)
Entwicklung einer Softwarelösung für IBCS-konforme Visualisierungen in IBM Cognos Analytics
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Erfassung von Sekundärkostenverteilungsschlüsseln (SKV) gemäß Stammdatendefinition in unterschiedlichen Werttypen (%, Liter, DM, Menge, ??.)
Automatische Berechnung der Verteilung von Lizenzkosten im Konzern
Export der Sekundärkostenverteilungsschlüssel nach SAP
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Korrekte Zuordnung von IST-Daten
Prefilling
Kombination von geöffneter und geschlossener Dateneingabezeilen
Statuskonzept
Integration von Daten unterschiedlicher Datenquellen
Exportmechanismen nach SAP
Verarbeitung von Stammdaten aus heterogenen Datenquellen
Handover von Innenauftragsdaten (IO Tracker)
In-Process Strukturupdates
Implementierung einer MDX-basierten,
benutzerfreundlichen, Audit-konformen, sicheren Daten-Export und
-Import-Schnittstelle über eine direkte Python-Anbindung an die TM1-REST API
Besondere Herausforderungen:
Anpassen und Erweitern auf neue Anforderungen
Präsentieren des Ergebnisses bei Bereichs- und Abteilungsleiter JF
Datenbanken, Anwendungsentwicklung, Programmierung
Anwendungsentwicklung
Business Intelligence & GenAI
IBM Cognos Analytics, IBM Planning Analytics TM1
Ticketing
Energie
Industrie
Dienstleistung
Real Estate / Immobilien
Einzelhandel
Flugzeugbau
Projektziel:
Entwicklung und Implementierung eines spezialisierten Large Language Models für IBM Planning Analytics durch Fine-Tuning, mit dem Fokus auf TM1/PAW-spezifische Aufgaben und Prozesse.
Projektinhalt:
? Evaluierung verschiedener Fine-Tuning Methoden und Auswahl geeigneter Ansätze
? Aufbereitung und Strukturierung von Bedrock-Datensätzen für das Training
? Implementation eines LoRA-basierten Fine-Tuning Prozesses
? Implementation eines LAB basierend auf IBM Research ?Large-scale Alignment for chatBots? (LAB) aus MIT-IBM Watson AI Lab Forschung, 2024 mit InctructLab (Red Hat).
o Taxonomiegesteuerte Datenkuration: Menschlich kuratierte Trainingsdaten für neues Wissen und Kompetenzen.
?o Generierung synthetischer Daten: Modell erstellt neue Beispiele, automatisierte Verfeinerung sichert Qualität und Sicherheit.
o Iterative Abstimmung: Zweistufiges Tuning (Wissenstuning und Kompetenztuning) auf Basis der synthetischen Daten.
? Integration des optimierten Modells in die Planning Analytics Umgebung
Besondere Herausforderungen:
? Tuning Prozesses auf Google Colab mit Tesla T4
? Aufbereitung und Konvertierung von TM1/Bedrock Prozessen in trainingstaugliche Formate
? Mehrsprachiges Training (Deutsch/Englisch) für verbesserte Anwendbarkeit
? Integration verschiedener Modelloptimierungen (GGUF Konvertierung, Quantisierung) Technologien/Produkte
Projektziel:
Entwicklung einer zentralen, containerisierten Plattform für Machine Learning, ETL und Konnektivität, die IBM Planning Analytics TM1 um innovative Funktionen erweitert.
Diese Plattform, soll die fachbereichsübergreifende, interdisziplinäre Zusammenarbeit zwischen TM1-Architekten, Data Scientists, Data Engineers und Business Analysts revolutionieren. Durch den Einsatz eines leistungsstarken Open-Source-Stacks und die Integration von Tools wie Jupyterlab, Git sowie kundenspezifischen Python-Frameworks wird eine sichere, versionskontrollierte und CI/CD-fähige Umgebung geschaffen, die eine effiziente Umsetzung von Machine Learning-, ETL- und Data Engineering-Projekten ermöglicht. Die Sicherheit wird dabei durch SSL/TLS gewährleistet.
Projektinhalt:
? Implementierung eines leistungsstarken Open-Source-Stacks in einer Docker-Umgebung
? Integration eines Jupyter Data Science Image als Basistechnologie
? Entwicklung und Integration kundenspezifischer Python-Frameworks
? Einrichtung einer modernen IDE mit JupyterLab
? Implementation einer versionssicheren Git-Integration
? Konfiguration von SSL/TLS für maximale Sicherheit
Projektziel:
Umfassende Migration und Modernisierung der C.REST API sowie Integration mit mySQL, DRUPAL und IBM Cognos BI, mit Fokus auf verbesserte Performance, Sicherheit und Benutzerfreundlichkeit.
Projektinhalt:
? Durchführung einer detaillierten Anforderungsanalyse der bestehenden C.REST API
? Migration der API in eine neue Infrastruktur - Installation und Konfiguration von mySQL und DRUPAL
? Integration neuer Login-Methoden im IBM Cognos BI Content Store - Einrichtung einer umfassenden Testumgebung
? Produktivschaltung und Übergabe an den Fachbereich
Weiterentwicklung einer Weboberfläche für die halbautomatische Datentestung, Datenaufbereitung und den anschließenden Datenexport von Mietvertragsdaten
Besondere Herausforderung: ausschließlich Cloud-basierte Technologie
Design
und Implementierung eines Planning Analytics-Datenmodells und Canvas Frontend / Entwicklung von Eingabemasken und Berichten
tägliche Stammdaten-Aktualisierung mit mehr als 1.000.000 Dimensionselementen
User-spezifische Hierarchien
User-spezifische Filterung komplexer Summen
Speicherung des kompletten Navigationszustandes in einem Client-Key-Value-Store
Einsatz des Pivotierungstools Flexmonster und Implementierung eigener Export- und View-Speicherungsmechanismen
Umsetzung einer generischen Prozesskettensteuerung über die Standard-TM1-Jobs hinaus
Experienceoptimiertes Frontend
Entwicklung einer Weboberfläche für die halbautomatische Datentestung, Datenaufbereitung und den anschließenden Datenexport
Besondere Herausforderung: ausschließlich cloud-basierte Technologie
Entwicklung einer Weboberfläche für die halbautomatische Datentestung, Datenaufbereitung und den anschließenden Datenexport
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Erfassung von Sekundärkostenverteilungsschlüsseln (SKV) gemäß Stammdatendefinition in unterschiedlichen Werttypen (%, Liter, DM, Menge, ??.)
Entwicklung einer Softwarelösung für IBCS-konforme Visualisierungen in IBM Cognos Analytics
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Erfassung von Sekundärkostenverteilungsschlüsseln (SKV) gemäß Stammdatendefinition in unterschiedlichen Werttypen (%, Liter, DM, Menge, ??.)
Automatische Berechnung der Verteilung von Lizenzkosten im Konzern
Export der Sekundärkostenverteilungsschlüssel nach SAP
Design und Implementierung eines Planning Analytics-Datenmodells und Canvas-Frontend
Korrekte Zuordnung von IST-Daten
Prefilling
Kombination von geöffneter und geschlossener Dateneingabezeilen
Statuskonzept
Integration von Daten unterschiedlicher Datenquellen
Exportmechanismen nach SAP
Verarbeitung von Stammdaten aus heterogenen Datenquellen
Handover von Innenauftragsdaten (IO Tracker)
In-Process Strukturupdates
Implementierung einer MDX-basierten,
benutzerfreundlichen, Audit-konformen, sicheren Daten-Export und
-Import-Schnittstelle über eine direkte Python-Anbindung an die TM1-REST API
Besondere Herausforderungen:
Anpassen und Erweitern auf neue Anforderungen
Präsentieren des Ergebnisses bei Bereichs- und Abteilungsleiter JF
Datenbanken, Anwendungsentwicklung, Programmierung
Anwendungsentwicklung
Business Intelligence & GenAI
IBM Cognos Analytics, IBM Planning Analytics TM1
Ticketing
Energie
Industrie
Dienstleistung
Real Estate / Immobilien
Einzelhandel
Flugzeugbau