01.10.2025 aktualisiert

**** ******** ****
Premiumkunde
100 % verfügbar

Data Engineer

Hannover, Deutschland Diplom-Physiker
Hannover, Deutschland Diplom-Physiker

Profilanlagen

CV_MvG_2025.docx
CV_MvG_2025.pdf
CV_MvG_2025.pages

Skills

Big-Data: Hadoop (HDFS / YARN), MapReduce, Hive LLAP, Pig, Sqoop, Alation, Solr, Oozie, Kafka, Databricks Spark. HDInsight
DevOps: Ansible, Git, Gitlab CI, Docker, Eclipse, Kubernetes, Azure Cloud
Business-Intelligence: BIRT, Pentaho Data Integration (PDI) Kettle, SQL Explorer, TCR, Cognos, Informatica Powercenter
Management Tools: Tivoli Enterprise Software (Netcool/Omnibus, Monitoring, Provisioning Manager, TWS, TEC)
Application-Server: WebSphere AS ND, Tomcat
Prozesse / Methoden: ITIL, UseCases, UML, KPI, Capacity- und Availability-Management, Scrum
Datenbanken (Modelle): Oracle, DB2, MySQL, MS-SQL, PostgreSQL, Sybase,
HBase, (ER-Modelle, Dimensionale Modelle )
Programmiersprachen: Python, Perl, SQL, Shell Skript-Spachen (bash, ksh), Java, Scala
Betriebssysteme: Diverse Unix-Derivate (AIX, Solaris, Linux), Windows, Mac OS X

2014Cloudera Hadoop Certified (CCAH)
2014OracIe Database SQL Expert
2013ITIL Foundation 2011 Certified
2013IBM Certified Designer Cognos 10 BI Reports & Admitsrator Cognos 10 BI
2013iX: Ausgabe 4, Seite 118: Marktübersicht Event-Processing Produkte
2008IBM Certified Deployment Professional – Tivoli Provisioning Manager V5.1
2006IBM Certified Deployment Professional Configuration Manager 4.2.2
2006-2007IBM Certified Advanced Deployment Professional 2005 und 2006
2006IBM Certified Deployment Professional Tivoli Workload Scheduler 8.2
2000-2005IBM Certified Deployment Professional Tivoli Enterprise Console 3.6, 3.7 und 3.9
2000-2007IBM Certified Deployment Professional Tivoli Monitoring 3.6, 4.1, 5.1.2 und 6.1
2003Sun Certified System Administrator for Solaris 8
2002Tivoli Certified Consultant Netview 6.0
2002Tivoli Certified Consultant Inventory 4.0
2002Tivoli Certified Consultant Software Distribution 4.1

Sprachen

DeutschMutterspracheEnglischverhandlungssicherFranzösischGrundkenntnisseNiederländischMuttersprache

Projekthistorie

Mitarbeit Einführung Data Lake und Big Data and Analytics Platform. Einführung zuerst on Prem, anschließend Migration in die Cloud. Technical Product Owner des Data Catalog & Governance Tools.

Munich Re

Versicherungen

>10.000 Mitarbeiter

Projekt:
Einführung des Data Lakes und der Big Data & Analytics Plattform Migration Big Data Plattform von On-Prem in die (Azure-)Cloud
Technical Product Owner Enterprise Data Catalog & Data Governance Tool (Alation)
Unterstützung / Beratung Fachabteilungen bei der Nutzung des Data Lakes, der Analyse-Tools und des Data Catalogs

Aufgaben:
Betreuung des Enterprise Data Catalogs & Data Governance Tools
Beschäftigung mit Data Lineage und Data Governance innerhalb des Data Catalogs
Programmatische Erweiterungen des Data Catalogs (z.B. Integration von Glossaries mittels REST-API oder Routinen zur Überwachung der Daten-Qualität)
Migration des Catalogs in die Cloud
Migration von Big-Data Anwendungen nach Microsoft Azure / HDInsight / Databricks
Einführung von Near-Sourcing Mitarbeitern
Aufbau und Erweiterungen im Big-Data-Umfeld
Unterstützung Fachabteilungen bei Umsetzung von UseCases im Big-Data Umfeld.
Alle Arbeiten erfolgten nach SCRUM

Umfeld:
Hadoop (Hortonworks / Cloudera), YARN, Hive, Hive LLAP, HBase, Spark, Solr, Kafka, Alation, RStudio, Python, Scala, Azure Cloud / HDInsight / ARM, Scrum, Ansible, Docker, Kubernetes, Azure DevOps, Visual Studio Code, REST API, Postman, Python, Python Django

Migration von J2EE-Anwendungen einer Landesbank von WNI zur FITS. Aufbau einer mandantenfähigen neuen Kernbank-Umgebung für Privatbanken.

FITS

Banken und Finanzdienstleistungen

500-1000 Mitarbeiter

## Projekt

Migration von J2EE-Anwendungen einer Landesbank von WNI[^Wincor Nixdorf] zur FITS.  

### Aufgaben

- Erstellung automatischer Deployments mittels Ansible Playbooks
- Konfiguration der WebSphere-Umgebung mittels Python-Skripte und Property-Based-Verfahren
- Anbindungen der Applikationen an Datenbanken und Queueing-Systeme
- Monitoring der Komponenten
- Dokumentation und Betriebsübergabe

### Technisches Umfeld

WebSphere Application Server (ND), git, Gitlab CI, Docker, Ansible, Python, diverse DB, Websphere MQ

## Projekt

Aufbau einer mandantenfähigen neuen Kernbank-Umgebung für Privatbanken.

### Aufgaben

- Schnittstellen-Entwicklung und Konfiguration für das Kernbanken-System
- Report-Erstellungen
- Dokumentation und Betriebsübergabe

### Technisches Umfeld

Avaloq, Div. Avaloq-Schnittstellen, SQL, Oracle, Cognos, Python und Shell-Programmierung

Div. Projekt im Umfeld SystemsManagement (DevOps), ETL und Big Data

Raiffeisen Schweiz

Banken und Finanzdienstleistungen

1000-5000 Mitarbeiter

## Projekt

Aufbau technisches DWH inklusive ETL-Prozesse.  Aufbau Reporting im IT-Betrieb für diverse Fragestellungen.  
Aufbau der DWH-Lösung in einer Big-Data-Umgebung (Hadoop).  

### Aufgaben

- Aufbau technisches DWH.
- Datenaufbereitungen (ETL) im technischen Umfeld mittels Kettle (Pentaho Data Integration).
- Datenlieferungen aus Monitoring-, Scheduling-, Deployment-, Event-Verarbeitungs- SAN-, Backup-, DB-Applikationen und direkt aus Applikationen
- Aufbau von Automatisierungen (Integration ins Scheduling, Funktionalitätserweiterungen mittels Java)
- Report-Erstellung mittels Eclipse-BIRT / Cognos für IKS, Capacity-, Availability und Licence-Management
- Aufbau eines Hadoop-Clusters und Toolevaluierungen
- Erstellung der Reporting Lösung in einem Hadoop-Cluster

### Technisches Umfeld

Eclipse, SQL-Explorer, div. SQL-Varianten (Oracle, DB2, MS-SQL, Sybase-SQL, MySQL) BIRT, Pentaho PDI Kettle, Informatica Powercenter, Cognos, Java, Perl
Hadoop (HDFS / YARN), Sqoop, Hive, Pig, HBase

## Projekt

Migration(en) und Redesign der Event-Verarbeitung.  
Produktevaluation für Event-Verarbeitung.

### Aufgaben

- Migration Event-Verarbeitungstool von TEC nach Omnibus
- Migration einer Regel-Datenbank vom Trouble-Ticket-Tool ins Netcool Omnibus
- Redesign der technischen Event-Verarbeitung
- Produktevaluation für Event-Verarbeitung
- Integration ins Business Service Management Reporting

### Technisches Umfeld

Tivoli Netcool Omnibus, Tivoli Event Console (TEC), Kyberna Ky2Help, AIX, Java, Sybase, Oracle, PL/SQL, BIRT

## Projekt

Design, Entwicklung und Einführung einer Provisioning Lösung für Unix-Server im Avaloq-Umfeld.

### Aufgaben

- Projektleitung und Mitarbeit bei der Einführung des Unix-Provisionings
- Anpassen des Provisionings an die Umgebungen und Betriebsabläufe (Test-Umgebungen, Produktions-Umgebung)
- Entwicklung von TPM-Workflows
- Integration der ersten (Pilot-)Applikationen in die Provisioning Lösung (Avaloq-R und Avaloq-Z)
- Reporting
- Migration der Provisioning-Lösung

### Technisches Umfeld

Tivoli Provisioning Manager, Eclipse, Avaloq, AIX, Subversion, Maximo, BIRT, Cognos

## Projekt

Ablösung einer Monitoring-Installation primär unter Kostenaspekten (Open-Source-Lösung)

### Aufgaben

Evaluation von Monitoring-Lösungen
Ablösung vom IBM Tivoli Monitoring durch Groundwork
Reporting

### Technisches Umfeld
Tivoli Monitoring, Groundwork (Nagios), PostgreSQL, Cognos. BIRT

Zertifikate

Certified Kubernetes Application Developer (CKAD)

Linux Foundation

2025

Cloudera Hadoop Certified (CCAH)

Cloudera

2014

OracIe Database SQL Expert

Oracle

2014

ITIL Foundation 2011 Certified

ITIL

2013


Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden