01.10.2025 aktualisiert


Premiumkunde
100 % verfügbarData Engineer
Hannover, Deutschland Diplom-Physiker
Skills
Big-Data: Hadoop (HDFS / YARN), MapReduce, Hive LLAP, Pig, Sqoop, Alation, Solr, Oozie, Kafka, Databricks Spark. HDInsight
DevOps: Ansible, Git, Gitlab CI, Docker, Eclipse, Kubernetes, Azure Cloud
Business-Intelligence: BIRT, Pentaho Data Integration (PDI) Kettle, SQL Explorer, TCR, Cognos, Informatica Powercenter
Management Tools: Tivoli Enterprise Software (Netcool/Omnibus, Monitoring, Provisioning Manager, TWS, TEC)
Application-Server: WebSphere AS ND, Tomcat
Prozesse / Methoden: ITIL, UseCases, UML, KPI, Capacity- und Availability-Management, Scrum
Datenbanken (Modelle): Oracle, DB2, MySQL, MS-SQL, PostgreSQL, Sybase,
HBase, (ER-Modelle, Dimensionale Modelle )
Programmiersprachen: Python, Perl, SQL, Shell Skript-Spachen (bash, ksh), Java, Scala
Betriebssysteme: Diverse Unix-Derivate (AIX, Solaris, Linux), Windows, Mac OS X
2014Cloudera Hadoop Certified (CCAH)
2014OracIe Database SQL Expert
2013ITIL Foundation 2011 Certified
2013IBM Certified Designer Cognos 10 BI Reports & Admitsrator Cognos 10 BI
2013iX: Ausgabe 4, Seite 118: Marktübersicht Event-Processing Produkte
2008IBM Certified Deployment Professional – Tivoli Provisioning Manager V5.1
2006IBM Certified Deployment Professional Configuration Manager 4.2.2
2006-2007IBM Certified Advanced Deployment Professional 2005 und 2006
2006IBM Certified Deployment Professional Tivoli Workload Scheduler 8.2
2000-2005IBM Certified Deployment Professional Tivoli Enterprise Console 3.6, 3.7 und 3.9
2000-2007IBM Certified Deployment Professional Tivoli Monitoring 3.6, 4.1, 5.1.2 und 6.1
2003Sun Certified System Administrator for Solaris 8
2002Tivoli Certified Consultant Netview 6.0
2002Tivoli Certified Consultant Inventory 4.0
2002Tivoli Certified Consultant Software Distribution 4.1
DevOps: Ansible, Git, Gitlab CI, Docker, Eclipse, Kubernetes, Azure Cloud
Business-Intelligence: BIRT, Pentaho Data Integration (PDI) Kettle, SQL Explorer, TCR, Cognos, Informatica Powercenter
Management Tools: Tivoli Enterprise Software (Netcool/Omnibus, Monitoring, Provisioning Manager, TWS, TEC)
Application-Server: WebSphere AS ND, Tomcat
Prozesse / Methoden: ITIL, UseCases, UML, KPI, Capacity- und Availability-Management, Scrum
Datenbanken (Modelle): Oracle, DB2, MySQL, MS-SQL, PostgreSQL, Sybase,
HBase, (ER-Modelle, Dimensionale Modelle )
Programmiersprachen: Python, Perl, SQL, Shell Skript-Spachen (bash, ksh), Java, Scala
Betriebssysteme: Diverse Unix-Derivate (AIX, Solaris, Linux), Windows, Mac OS X
2014Cloudera Hadoop Certified (CCAH)
2014OracIe Database SQL Expert
2013ITIL Foundation 2011 Certified
2013IBM Certified Designer Cognos 10 BI Reports & Admitsrator Cognos 10 BI
2013iX: Ausgabe 4, Seite 118: Marktübersicht Event-Processing Produkte
2008IBM Certified Deployment Professional – Tivoli Provisioning Manager V5.1
2006IBM Certified Deployment Professional Configuration Manager 4.2.2
2006-2007IBM Certified Advanced Deployment Professional 2005 und 2006
2006IBM Certified Deployment Professional Tivoli Workload Scheduler 8.2
2000-2005IBM Certified Deployment Professional Tivoli Enterprise Console 3.6, 3.7 und 3.9
2000-2007IBM Certified Deployment Professional Tivoli Monitoring 3.6, 4.1, 5.1.2 und 6.1
2003Sun Certified System Administrator for Solaris 8
2002Tivoli Certified Consultant Netview 6.0
2002Tivoli Certified Consultant Inventory 4.0
2002Tivoli Certified Consultant Software Distribution 4.1
Sprachen
DeutschMutterspracheEnglischverhandlungssicherFranzösischGrundkenntnisseNiederländischMuttersprache
Projekthistorie
Projekt:
Einführung des Data Lakes und der Big Data & Analytics Plattform Migration Big Data Plattform von On-Prem in die (Azure-)Cloud
Technical Product Owner Enterprise Data Catalog & Data Governance Tool (Alation)
Unterstützung / Beratung Fachabteilungen bei der Nutzung des Data Lakes, der Analyse-Tools und des Data Catalogs
Aufgaben:
Betreuung des Enterprise Data Catalogs & Data Governance Tools
Beschäftigung mit Data Lineage und Data Governance innerhalb des Data Catalogs
Programmatische Erweiterungen des Data Catalogs (z.B. Integration von Glossaries mittels REST-API oder Routinen zur Überwachung der Daten-Qualität)
Migration des Catalogs in die Cloud
Migration von Big-Data Anwendungen nach Microsoft Azure / HDInsight / Databricks
Einführung von Near-Sourcing Mitarbeitern
Aufbau und Erweiterungen im Big-Data-Umfeld
Unterstützung Fachabteilungen bei Umsetzung von UseCases im Big-Data Umfeld.
Alle Arbeiten erfolgten nach SCRUM
Umfeld:
Hadoop (Hortonworks / Cloudera), YARN, Hive, Hive LLAP, HBase, Spark, Solr, Kafka, Alation, RStudio, Python, Scala, Azure Cloud / HDInsight / ARM, Scrum, Ansible, Docker, Kubernetes, Azure DevOps, Visual Studio Code, REST API, Postman, Python, Python Django
Einführung des Data Lakes und der Big Data & Analytics Plattform Migration Big Data Plattform von On-Prem in die (Azure-)Cloud
Technical Product Owner Enterprise Data Catalog & Data Governance Tool (Alation)
Unterstützung / Beratung Fachabteilungen bei der Nutzung des Data Lakes, der Analyse-Tools und des Data Catalogs
Aufgaben:
Betreuung des Enterprise Data Catalogs & Data Governance Tools
Beschäftigung mit Data Lineage und Data Governance innerhalb des Data Catalogs
Programmatische Erweiterungen des Data Catalogs (z.B. Integration von Glossaries mittels REST-API oder Routinen zur Überwachung der Daten-Qualität)
Migration des Catalogs in die Cloud
Migration von Big-Data Anwendungen nach Microsoft Azure / HDInsight / Databricks
Einführung von Near-Sourcing Mitarbeitern
Aufbau und Erweiterungen im Big-Data-Umfeld
Unterstützung Fachabteilungen bei Umsetzung von UseCases im Big-Data Umfeld.
Alle Arbeiten erfolgten nach SCRUM
Umfeld:
Hadoop (Hortonworks / Cloudera), YARN, Hive, Hive LLAP, HBase, Spark, Solr, Kafka, Alation, RStudio, Python, Scala, Azure Cloud / HDInsight / ARM, Scrum, Ansible, Docker, Kubernetes, Azure DevOps, Visual Studio Code, REST API, Postman, Python, Python Django
## Projekt
Migration von J2EE-Anwendungen einer Landesbank von WNI[^Wincor Nixdorf] zur FITS.
### Aufgaben
- Erstellung automatischer Deployments mittels Ansible Playbooks
- Konfiguration der WebSphere-Umgebung mittels Python-Skripte und Property-Based-Verfahren
- Anbindungen der Applikationen an Datenbanken und Queueing-Systeme
- Monitoring der Komponenten
- Dokumentation und Betriebsübergabe
### Technisches Umfeld
WebSphere Application Server (ND), git, Gitlab CI, Docker, Ansible, Python, diverse DB, Websphere MQ
## Projekt
Aufbau einer mandantenfähigen neuen Kernbank-Umgebung für Privatbanken.
### Aufgaben
- Schnittstellen-Entwicklung und Konfiguration für das Kernbanken-System
- Report-Erstellungen
- Dokumentation und Betriebsübergabe
### Technisches Umfeld
Avaloq, Div. Avaloq-Schnittstellen, SQL, Oracle, Cognos, Python und Shell-Programmierung
Migration von J2EE-Anwendungen einer Landesbank von WNI[^Wincor Nixdorf] zur FITS.
### Aufgaben
- Erstellung automatischer Deployments mittels Ansible Playbooks
- Konfiguration der WebSphere-Umgebung mittels Python-Skripte und Property-Based-Verfahren
- Anbindungen der Applikationen an Datenbanken und Queueing-Systeme
- Monitoring der Komponenten
- Dokumentation und Betriebsübergabe
### Technisches Umfeld
WebSphere Application Server (ND), git, Gitlab CI, Docker, Ansible, Python, diverse DB, Websphere MQ
## Projekt
Aufbau einer mandantenfähigen neuen Kernbank-Umgebung für Privatbanken.
### Aufgaben
- Schnittstellen-Entwicklung und Konfiguration für das Kernbanken-System
- Report-Erstellungen
- Dokumentation und Betriebsübergabe
### Technisches Umfeld
Avaloq, Div. Avaloq-Schnittstellen, SQL, Oracle, Cognos, Python und Shell-Programmierung
## Projekt
Aufbau technisches DWH inklusive ETL-Prozesse. Aufbau Reporting im IT-Betrieb für diverse Fragestellungen.
Aufbau der DWH-Lösung in einer Big-Data-Umgebung (Hadoop).
### Aufgaben
- Aufbau technisches DWH.
- Datenaufbereitungen (ETL) im technischen Umfeld mittels Kettle (Pentaho Data Integration).
- Datenlieferungen aus Monitoring-, Scheduling-, Deployment-, Event-Verarbeitungs- SAN-, Backup-, DB-Applikationen und direkt aus Applikationen
- Aufbau von Automatisierungen (Integration ins Scheduling, Funktionalitätserweiterungen mittels Java)
- Report-Erstellung mittels Eclipse-BIRT / Cognos für IKS, Capacity-, Availability und Licence-Management
- Aufbau eines Hadoop-Clusters und Toolevaluierungen
- Erstellung der Reporting Lösung in einem Hadoop-Cluster
### Technisches Umfeld
Eclipse, SQL-Explorer, div. SQL-Varianten (Oracle, DB2, MS-SQL, Sybase-SQL, MySQL) BIRT, Pentaho PDI Kettle, Informatica Powercenter, Cognos, Java, Perl
Hadoop (HDFS / YARN), Sqoop, Hive, Pig, HBase
## Projekt
Migration(en) und Redesign der Event-Verarbeitung.
Produktevaluation für Event-Verarbeitung.
### Aufgaben
- Migration Event-Verarbeitungstool von TEC nach Omnibus
- Migration einer Regel-Datenbank vom Trouble-Ticket-Tool ins Netcool Omnibus
- Redesign der technischen Event-Verarbeitung
- Produktevaluation für Event-Verarbeitung
- Integration ins Business Service Management Reporting
### Technisches Umfeld
Tivoli Netcool Omnibus, Tivoli Event Console (TEC), Kyberna Ky2Help, AIX, Java, Sybase, Oracle, PL/SQL, BIRT
## Projekt
Design, Entwicklung und Einführung einer Provisioning Lösung für Unix-Server im Avaloq-Umfeld.
### Aufgaben
- Projektleitung und Mitarbeit bei der Einführung des Unix-Provisionings
- Anpassen des Provisionings an die Umgebungen und Betriebsabläufe (Test-Umgebungen, Produktions-Umgebung)
- Entwicklung von TPM-Workflows
- Integration der ersten (Pilot-)Applikationen in die Provisioning Lösung (Avaloq-R und Avaloq-Z)
- Reporting
- Migration der Provisioning-Lösung
### Technisches Umfeld
Tivoli Provisioning Manager, Eclipse, Avaloq, AIX, Subversion, Maximo, BIRT, Cognos
## Projekt
Ablösung einer Monitoring-Installation primär unter Kostenaspekten (Open-Source-Lösung)
### Aufgaben
Evaluation von Monitoring-Lösungen
Ablösung vom IBM Tivoli Monitoring durch Groundwork
Reporting
### Technisches Umfeld
Tivoli Monitoring, Groundwork (Nagios), PostgreSQL, Cognos. BIRT
Aufbau technisches DWH inklusive ETL-Prozesse. Aufbau Reporting im IT-Betrieb für diverse Fragestellungen.
Aufbau der DWH-Lösung in einer Big-Data-Umgebung (Hadoop).
### Aufgaben
- Aufbau technisches DWH.
- Datenaufbereitungen (ETL) im technischen Umfeld mittels Kettle (Pentaho Data Integration).
- Datenlieferungen aus Monitoring-, Scheduling-, Deployment-, Event-Verarbeitungs- SAN-, Backup-, DB-Applikationen und direkt aus Applikationen
- Aufbau von Automatisierungen (Integration ins Scheduling, Funktionalitätserweiterungen mittels Java)
- Report-Erstellung mittels Eclipse-BIRT / Cognos für IKS, Capacity-, Availability und Licence-Management
- Aufbau eines Hadoop-Clusters und Toolevaluierungen
- Erstellung der Reporting Lösung in einem Hadoop-Cluster
### Technisches Umfeld
Eclipse, SQL-Explorer, div. SQL-Varianten (Oracle, DB2, MS-SQL, Sybase-SQL, MySQL) BIRT, Pentaho PDI Kettle, Informatica Powercenter, Cognos, Java, Perl
Hadoop (HDFS / YARN), Sqoop, Hive, Pig, HBase
## Projekt
Migration(en) und Redesign der Event-Verarbeitung.
Produktevaluation für Event-Verarbeitung.
### Aufgaben
- Migration Event-Verarbeitungstool von TEC nach Omnibus
- Migration einer Regel-Datenbank vom Trouble-Ticket-Tool ins Netcool Omnibus
- Redesign der technischen Event-Verarbeitung
- Produktevaluation für Event-Verarbeitung
- Integration ins Business Service Management Reporting
### Technisches Umfeld
Tivoli Netcool Omnibus, Tivoli Event Console (TEC), Kyberna Ky2Help, AIX, Java, Sybase, Oracle, PL/SQL, BIRT
## Projekt
Design, Entwicklung und Einführung einer Provisioning Lösung für Unix-Server im Avaloq-Umfeld.
### Aufgaben
- Projektleitung und Mitarbeit bei der Einführung des Unix-Provisionings
- Anpassen des Provisionings an die Umgebungen und Betriebsabläufe (Test-Umgebungen, Produktions-Umgebung)
- Entwicklung von TPM-Workflows
- Integration der ersten (Pilot-)Applikationen in die Provisioning Lösung (Avaloq-R und Avaloq-Z)
- Reporting
- Migration der Provisioning-Lösung
### Technisches Umfeld
Tivoli Provisioning Manager, Eclipse, Avaloq, AIX, Subversion, Maximo, BIRT, Cognos
## Projekt
Ablösung einer Monitoring-Installation primär unter Kostenaspekten (Open-Source-Lösung)
### Aufgaben
Evaluation von Monitoring-Lösungen
Ablösung vom IBM Tivoli Monitoring durch Groundwork
Reporting
### Technisches Umfeld
Tivoli Monitoring, Groundwork (Nagios), PostgreSQL, Cognos. BIRT
Zertifikate
Certified Kubernetes Application Developer (CKAD)
Linux Foundation2025
Cloudera Hadoop Certified (CCAH)
Cloudera2014
OracIe Database SQL Expert
Oracle2014
ITIL Foundation 2011 Certified
ITIL2013