07.10.2025 aktualisiert


Premiumkunde
100 % verfügbarSenior IT-Projektleiter & ITIL Expert | Big Data, DevOps
München, Deutschland
Deutschland
Diplom-Informatiker (Univ.), TU MünchenSkills
C (Programmiersprache)HTMLJavascriptIBM AixAmazon S3Apache TomcatAnwendungsserverArchitekturConfluenceJiraTest AutomationAutomobilindustrieNawkMicrosoft AzureOracle Weblogic ServerBig DataBMC Remedy Action Request SystemUNIXC++Client-Server-ArchitekturUbuntuCSSCentosKundendienstCloud ComputingDatenbankenContinuous IntegrationData CentersData IntegrationData MartData VaultLinuxDevopsMiddlewarePerlGlassfish 3R (Programmiersprache)Apache HadoopApache HiveRational Unified ProcessITILInfrastrukturInternationale GeschäfteIt Service ManagementPythonKerberosLatexLinux-AdministrationLinux-BefehleLinux ServersMicrosoft ProjectMicrosoft-ServerMicrosoft Sql-ServerWindows-ServerMicrostrategyMongodbMultidisziplinären AnsatzScrumSoftware ArchitectureRabbitmqRed Hat Enterprise LinuxPower BiAnsiblePrometheusAnforderungsanalyseDienstleistungsverwaltungSoftwareentwicklungSoftware SystemsSystem DesignVersionierungInformixAblaufplanungSed (Programming Language)Demonstrations-FähigkeitenBeelineGrafanaApache SparkSAP Business ObjectsGitKubernetesCoaching und MentoringRancherTeam ManagementApache NifiBetriebssystemeTez (Software)DockerAmbariJenkinsIT-Projektmanagement
Fähigkeiten
Kenntnisse
Technologien & Plattformen:
NorCom DaSense, Hadoop, Spark, S3, Kubernetes, Rancher, MinIO, Apache NiFi, Linux, RabbitMQ, MongoDB, Hive, Ambari, Tez, Kerberos
Programmiersprachen & Tools:
C, C++, Python, Prolog, Perl, ksh, awk, sed
Methoden & Standards:
ITIL Expert, ISTQB Foundation, Agile/Scrum, Software Engineering, Anforderungsanalyse, Softwarearchitektur, Testautomatisierung
Erfahrungen
- IT-Projektmanagement (klassisch & agil: Scrum, RUP)
- IT-Service-Management nach ITIL (Incident-, Problem-, Change-, Availability-, Continuity-, Capacity-, Service Level Management)
- Architektur- und Systemdesign komplexer IT-Lösungen
- Betrieb und Optimierung komplexer Anwendungen/Plattformen in großen Rechenzentren
- Big-Data-Architektur, Datenpipelines & Datenintegration
- DevOps- und Automatisierungsprozesse (CI/CD)
- Anforderungsanalyse & Konzeption
- Teamführung und Coaching von Entwicklungsteams
- Erstellung und Umsetzung von Migrations- und Optimierungskonzepten
- Kundenberatung & Präsentation komplexer IT-Lösungen
Kenntnisse
Technologien & Plattformen:
NorCom DaSense, Hadoop, Spark, S3, Kubernetes, Rancher, MinIO, Apache NiFi, Linux, RabbitMQ, MongoDB, Hive, Ambari, Tez, Kerberos
- Cloud & Big Data: Azure, S3, SparkQL, Data Vault, Datamart-Architekturen
- Application Server: Oracle WebLogic, Apache Tomcat, Glassfish
- Versionierung & Build: Git, CVS, Docker
- Monitoring & Analyse: Prometheus, Grafana
- Reporting & BI: PowerBI
- Planung & Doku: MS Project, JIRA/Confluence, MS Office, LaTeX
- Datenbanken: MS SQL Server, Informix, Hive, beeline, MongoDB
- Betriebssysteme: UNIX/Linux (RedHat, Ubuntu), Windows Server & Client
Programmiersprachen & Tools:
C, C++, Python, Prolog, Perl, ksh, awk, sed
Methoden & Standards:
ITIL Expert, ISTQB Foundation, Agile/Scrum, Software Engineering, Anforderungsanalyse, Softwarearchitektur, Testautomatisierung
Erfahrungen
- 30+ Jahre IT-Erfahrung als Entwickler, Projektleiter, Softwarearchitekt und IT-Service-Manager
- Langjährige Leitung komplexer IT-Projekte im öffentlichen Sektor, Banken und Industrie
- Erfolgreiche Migration von Big-Data-Architekturen auf moderne Container-Infrastrukturen
- Betrieb & Optimierung hochverfügbarer Plattformen mit tausenden Nutzern
- Einführung und Umsetzung von ITIL-Prozessen in Großorganisationen
- Entwicklung & Integration komplexer Middleware- und Client/Server-Architekturen
- Durchführung von Projekten und Zusammenarbeit mit interdisziplinären Teams
Sprachen
DeutschMutterspracheEnglischverhandlungssicher
Projekthistorie
Kunde: Stihl AG | Zeitraum: 10/2024 – 07/2025 | Branche: Industrie
Rolle: Datenanalyst, Konzeptentwickler, Automatisierungsexperte, Change-Manager, Tester
Projektbeschreibung:
Migration mehrerer Datenpipelines von einer Hive/HDFS/Hadoop-basierten Architektur auf eine moderne Spark/S3/Kubernetes-Plattform. Daten von Produktionsmaschinen werden per Camel-K Route aufgenommen, in RabbitMQ abgelegt und mittels NiFi in MongoDB für Auswertungen bereitgestellt. RabbitMQ, NiFi und MongoDB laufen als Kubernetes-PODs, verwaltet über Rancher.
Aufgaben im Projekt:
Rolle: Datenanalyst, Konzeptentwickler, Automatisierungsexperte, Change-Manager, Tester
Projektbeschreibung:
Migration mehrerer Datenpipelines von einer Hive/HDFS/Hadoop-basierten Architektur auf eine moderne Spark/S3/Kubernetes-Plattform. Daten von Produktionsmaschinen werden per Camel-K Route aufgenommen, in RabbitMQ abgelegt und mittels NiFi in MongoDB für Auswertungen bereitgestellt. RabbitMQ, NiFi und MongoDB laufen als Kubernetes-PODs, verwaltet über Rancher.
Aufgaben im Projekt:
- Change Management: Koordination der Changes und Deployments für die migrierten Pipelines sowie nahtlose Umschaltung auf die neue Plattform
- Migration der NiFi-Ladestrecken inklusive Performance- und Sizing-Anforderungen
- Umsetzung der Umstellung von Hive/HDFS/Hadoop auf SparkQL/S3/Kubernetes
- Ermittlung und Konfiguration von Speicher- und CPU-Ressourcen in Kubernetes für NiFi, Spark und RabbitMQ
Kunde: Stihl AG | Zeitraum: 02/2025 – 04/2025 | Branche: Industrie
Rolle: Datenanalyst, Konzeptentwickler, Automatisierungsexperte, Change-Manager, Tester
Projektbeschreibung:
Erstellung von PowerBI-Dashboards für Kamera-Qualitätssicherungsdaten aus SPDM (Stihl Production Data Management). Daten werden aus einem Hive-basierten Datavault extrahiert, aggregiert und als Datamarts in MSSQL bereitgestellt. Migration der Datenhaltung von Hive/HDFS/Hadoop auf Spark/S3/Kubernetes durchgeführt.
Aufgaben im Projekt:
Rolle: Datenanalyst, Konzeptentwickler, Automatisierungsexperte, Change-Manager, Tester
Projektbeschreibung:
Erstellung von PowerBI-Dashboards für Kamera-Qualitätssicherungsdaten aus SPDM (Stihl Production Data Management). Daten werden aus einem Hive-basierten Datavault extrahiert, aggregiert und als Datamarts in MSSQL bereitgestellt. Migration der Datenhaltung von Hive/HDFS/Hadoop auf Spark/S3/Kubernetes durchgeführt.
Aufgaben im Projekt:
- Analyse und Konzeption der zu extrahierenden Daten
- Implementierung der Ladestrecken von SPDM zu Datavault, Aggregation zu Datamarts und Übertragung auf Zielcluster mittels NiFi
- Test und Deployment im Rahmen des Change- und Release-Managements
Kunde: Öffentliche Verwaltung | Zeitraum: 11/2023 – 07/2024 | Branche: Öffentliche Verwaltung
Rolle: Technologieberater, Bid Manager
Projektbeschreibung:
Bearbeitung von Ausschreibungen für Dienstleistungs- und Rahmenverträge im öffentlichen Sektor, mit Schwerpunkt auf Data-Analytics- und KI-Lösungen auf Basis von NorCom DaSense.
Aufgaben im Projekt:
Rolle: Technologieberater, Bid Manager
Projektbeschreibung:
Bearbeitung von Ausschreibungen für Dienstleistungs- und Rahmenverträge im öffentlichen Sektor, mit Schwerpunkt auf Data-Analytics- und KI-Lösungen auf Basis von NorCom DaSense.
Aufgaben im Projekt:
- Erstellung von Lösungsvorschlägen im Umfeld Data Analytics und KI
- Beantwortung von Fachaufgaben in Ausschreibungen
- Vorbereitung und Durchführung von Präsentationen
- Aufbau von Partnerschaften mit Unterauftragnehmern
- Erstellung von Referenz- und Ressourcenprofilen