12.11.2025 aktualisiert


Premiumkunde
nicht verfügbarDWH/BI Data Engineer | Business Analyst | Cloud Solution Architect
Mainz, Deutschland
Deutschland +2
Diplom-Informatiker (FH)Skills
Sql Data WarehouseJavaJavascriptThird Normal FormAmazon Web ServicesData AnalysisMicrosoft AzureBusiness IntelligenceBusiness AnalysisGeschäftsprozessmodellierungC++ComputerprogrammierungDatenbankenInformation EngineeringData IntegrationETLData MigrationDatenmodellData VaultIBM DB2Infosphere DatastageDB2 SQLJ2EECognos BiIbm InfospherePythonPcapPostgresqlMicrosoft Sql-ServerMysqlOracle Business Intelligence Enterprise EditionVisualisierungPower BiSAP ApplicationsSap HanaSolution ArchitecturePL/SQLTableauWeb ApplikationenExtensible Markup LanguageSnowflakeSAP Business Objects
Seit über 25 Jahren begleite ich Unternehmen auf ihrer datengetriebenen Reise. Von der Architektur-Beratung bis zur praktischen Entwicklung bringe ich umfassende Erfahrungen mit, um moderne Datenplattformen von Grund auf zu konzipieren, komplexe Migrationen erfolgreich umzusetzen oder bestehende Datenmodelle zu analysieren und nachhaltig zu optimieren. Pragmatismus und meine Hands-on-Mentalität sind dabei zentrale Erfolgsfaktoren. Mit einem stets weiten Blick über den Tellerrand hinaus suche ich kontinuierlich nach innovativen und intelligenten Lösungen, um nachhaltigen Mehrwert zu schaffen.
Kernkompetenzen
Kernkompetenzen
- Business/Data Analysis, Data Engineering, Solution Architecture
- Data Integration ETL/ELT
- Data Migration
- Data Modelling (3NF, multi-dimensional, Data Vault 2.0)
- Data Visualization
- Snowflake (zertifiziert)
- IBM DB2 (zertifiziert)
- SAP HANA
- Oracle (inkl. PL/SQL)
- Microsoft SQLServer
- PostgreSQL/EnterpriseDB
- Microsoft Azure
- Amazon Web Service (AWS)
- IBM InfoSphere DataStage
- Informatica (zertifiziert)
- Matillion (zertifiziert)
- Microsoft PowerBI (zertifiziert)
- Tableau
- Cognos
- SAP BusinessObjects WebIntelligence (zertifiziert)
- Java (zertifiziert)
- Javascript
- Python (zertifiziert)
- C/C++
- Microsoft Certified: Power BI Data Analyst Associate (PL-300)
- Certified Associate in Python Programming (PCAP-31-03)
- Certified Entry-Level Python Programmer (PCEP-30-02)
- Matillion Certified Associate
- Snowflake SnowPro Core Certification
- SAP Business Objects Certified Professional XI
- Informatica Certified ETL Designer
- IBM Certified DB2 Administrator DB2 UDB
- IBM Certified Solution Designer
- IBM Certified Database Associate DB2 UDB
- XML Master Basic
- IBM Certified Solution Developer XML and Related Technologies
- Sun Certified Web Component Developer for J2EE (SCWCD)
- Sun Certified Programmer for Java2 Platform (SCJP2)
Sprachen
DeutschMutterspracheEnglischverhandlungssicher
Projekthistorie
Im DataMart Kundendialog wird jeder telefonischer, schriftliche oder per Chat vorgenommene Kontakte mit dem Kunden dokumentiert. Neben fachlichen Erweiterungen wurde der DataMart auch technisch weiterentwickelt. Die bisherige Ladejobs waren nicht deltaload-fähig und damit nicht automatisiert wiederanstartbar.
Als Folgeprojekt wurde die Datenbewirtschaftung für ein Prozess-Mining mit Hilfe des Tools Celonis auf Basis von Materialized Views und Denodo aufgebaut. Für die Datenaufbereitung wird eine große Anzahl fachlicher Informationen aus dem Operational Data Store zusammengetragen und gezielt für den Use Case Prozessdatenanalyse aufbereitet. (Größenordnung: Tabellengröße bis 2 TB (komprimiert) und bis zu 9 Mrd. Datensätzen)
Aufgaben:
Abstimmungen mit Fachbereich, Implementierung der Erweiterungen, Konzeption Delta-Load- und automatisierbare Restart-Fähigkeit, Oracle Performance Optimierung, ETL-Entwicklung in Datastage, Implementierung Scheduling-Framework in Automic inkl. Messaging und Exception Handling, PL/SQL Implementierung
Technologien:
Oracle 19 Exadata, Toad for Oracle, IBM Infosphere Datastage 11.7, IBM Infosphere Governance Catalog (IGC), CA Automic 21, Github, Azure DevOps, Azure Pipeline, Azure Repos, Denodo Platform/Design Studio 8.0
Als Folgeprojekt wurde die Datenbewirtschaftung für ein Prozess-Mining mit Hilfe des Tools Celonis auf Basis von Materialized Views und Denodo aufgebaut. Für die Datenaufbereitung wird eine große Anzahl fachlicher Informationen aus dem Operational Data Store zusammengetragen und gezielt für den Use Case Prozessdatenanalyse aufbereitet. (Größenordnung: Tabellengröße bis 2 TB (komprimiert) und bis zu 9 Mrd. Datensätzen)
Aufgaben:
Abstimmungen mit Fachbereich, Implementierung der Erweiterungen, Konzeption Delta-Load- und automatisierbare Restart-Fähigkeit, Oracle Performance Optimierung, ETL-Entwicklung in Datastage, Implementierung Scheduling-Framework in Automic inkl. Messaging und Exception Handling, PL/SQL Implementierung
Technologien:
Oracle 19 Exadata, Toad for Oracle, IBM Infosphere Datastage 11.7, IBM Infosphere Governance Catalog (IGC), CA Automic 21, Github, Azure DevOps, Azure Pipeline, Azure Repos, Denodo Platform/Design Studio 8.0
Aufbau eines Data Warehouse für den europaweiten Zahlungsverkehr T2/T2S
Kunde Deutsche Bundesbank
Branche Finanzwesen
Beschreibung
Die TARGET2/T2S-Konsolidierung ist neben TIPS und ECMS eines der drei Projekte, die das Eurosystem
im Jahr 2017 zur Weiterentwicklung seiner Marktinfrastruktur auf den Weg gebracht hat.
Ziel des Projekts ist, das Leistungsangebot des Eurosystems im Bereich des
Individualzahlungsverkehrs und der Wertpapierabwicklung durch die noch stärkere Nutzung gemeinsamer
Komponenten und die weitere Automatisierung von Prozessen zu verbessern und Synergien zu heben.
Kernelemente der TARGET2/T2S-Konsolidierung sind die Einführung eines zentralen
Liquiditätsmanagements, die Trennung des klassischen Individualzahlungsverkehrs von den
Zentralbankoperationen sowie die flächendeckende Einführung des ISO 20022-Standards.
Position Senior Consultant ETL and Data Integration
Aufgaben Design und Implementierung von ETL-Strecken, Datenanalysen, Performance-Optimierung
Technologien IBM DB2 z/OS, IBM Infosphere Datastage, IBM Cognos Analytics, DBVisualizer, Citrix, Unix,
Shell-Scripting
Kunde Deutsche Bundesbank
Branche Finanzwesen
Beschreibung
Die TARGET2/T2S-Konsolidierung ist neben TIPS und ECMS eines der drei Projekte, die das Eurosystem
im Jahr 2017 zur Weiterentwicklung seiner Marktinfrastruktur auf den Weg gebracht hat.
Ziel des Projekts ist, das Leistungsangebot des Eurosystems im Bereich des
Individualzahlungsverkehrs und der Wertpapierabwicklung durch die noch stärkere Nutzung gemeinsamer
Komponenten und die weitere Automatisierung von Prozessen zu verbessern und Synergien zu heben.
Kernelemente der TARGET2/T2S-Konsolidierung sind die Einführung eines zentralen
Liquiditätsmanagements, die Trennung des klassischen Individualzahlungsverkehrs von den
Zentralbankoperationen sowie die flächendeckende Einführung des ISO 20022-Standards.
Position Senior Consultant ETL and Data Integration
Aufgaben Design und Implementierung von ETL-Strecken, Datenanalysen, Performance-Optimierung
Technologien IBM DB2 z/OS, IBM Infosphere Datastage, IBM Cognos Analytics, DBVisualizer, Citrix, Unix,
Shell-Scripting
Aufbau eines cloud-basierten (Azure) Data Warehouse im Bereich Energiehandel
Zeitraum 01.2022 bis 12.2022
Kunde Energie AG Oberösterreich (in Kooperation mit Infomotion)
Branche Energieversorger
Beschreibung
Aufbau eines cloud-basierten Data Warehouse im Bereich Energiehandel zur Verrechnung der
Handelsgeschäfte von Kraftwerken auf Basis eines Best-of-breed Ansatzes. Die Realisierung erfolgte
anhand eines mehrstufiges Schichten-Modells (DataLake, Stage, Raw/Business Data Vault, Data Mart)
Position Senior Cloud Data Engineer
Aufgaben Beratung, Architektur, Design, Implementierung
Technologien Snowflake, Matillion, Microsoft PowerBI, Microsoft Azure, Data Vault 2.0, SqlDBM, DataLake, Scrum,
DevOps
Zeitraum 01.2022 bis 12.2022
Kunde Energie AG Oberösterreich (in Kooperation mit Infomotion)
Branche Energieversorger
Beschreibung
Aufbau eines cloud-basierten Data Warehouse im Bereich Energiehandel zur Verrechnung der
Handelsgeschäfte von Kraftwerken auf Basis eines Best-of-breed Ansatzes. Die Realisierung erfolgte
anhand eines mehrstufiges Schichten-Modells (DataLake, Stage, Raw/Business Data Vault, Data Mart)
Position Senior Cloud Data Engineer
Aufgaben Beratung, Architektur, Design, Implementierung
Technologien Snowflake, Matillion, Microsoft PowerBI, Microsoft Azure, Data Vault 2.0, SqlDBM, DataLake, Scrum,
DevOps
Zertifikate
SAP Business Objects Certified Professional XI
SAP2010
Sun Certified Programmer for Java2 Platform (SCJP2)
Sun Microsystems2009
Sun Certified Web Component Developer for J2EE (SCWCD)
Sun Microsystems2009
IBM Certified Solution Developer XML and Related Technologies (IBM 000-141)
IBM2009
IBM Certified Database Associate DB2 UDB V8.1 Family Fundamentals (IBM 000-700)
IBM2009
IBM Certified Solution Designer DB2 Business Intelligence Version 8 (IBM 000-705)
IBM2009
IBM Certified DB Administrator DB2 UDB V8.1 UNIX/Windows Admin. (IBM 000-701)
IBM2009