24.11.2025 aktualisiert


verifiziert
100 % verfügbarData Engineer & Python Developer (SV Versichert)
Darmstadt, Deutschland Master of Science Informatik
Über mich
Ich bin ein engagierter Senior Software Engineer mit Masterabschluss in Informatik und verfüge seit 2015 über fundierte Erfahrung im Bereich des Data Engineerings so wie der Software-Entwicklung in Python.
Skills
- Master of Science in Informatik
- Berufserfahrung seit 2015 als Software Engineer mit Schwerpunkt auf Softwareentwicklung und Data Engineering
- Praxis in unterschiedlichen Branchen, darunter Energie, Transport und Gesundheitswesen
- Umfassende Erfahrung in der Entwicklung in Python so wie angrenzenden Technologien. Fundierte Kenntnisse im Umgang mit diversen Datenbanksystemen, in etwa MSSQL, Oracle DB, MySQL, PostgreSQL und MongoDB
- Breites Know-how im ETL-Bereich mit Tools wie SSIS, Glue, Talend und Apache Airflow durchgängig seit 2017
- Erfahren im Einsatz von Apache Kafka, Containerisierung mit Docker, Kubernetes sowie Cloud-Plattformen wie AWS und Azure
- Mehr als vier Jahre Erfahrung in KI-Projekten mit Frameworks und Tools - Pandas, PyTorch, TensorFlow, Transformers, spaCy, scikit-learn, Jupyter und Matplotlib
- Vertraut mit der Arbeit in agilen Entwicklungsteams
- Ziel- und lösungsorientierter Arbeitsstil mit hohem Qualitätsanspruch
Sprachen
DeutschMutterspracheEnglischverhandlungssicher
Projekthistorie
Tätigkeit
• Entwicklung einer Echtzeit-Datenverarbeitungs- und Analyse-Lösung für den Schienenverkehr durch Integration verschiedener Datenquellen in eine einheitliche Plattform für verwertbare Erkenntnisse
• Automatisierung von Daten-Workflows mit Python und Jupyter Notebooks zur Verbesserung der Transformation und Verwaltung von SAP-Daten in Oracle-Datenbanken
• Verwaltung einer Dual-Datenbank-Architektur mit OracleDB und MSSQL unter Einsatz von Talend für ETL sowie Optimierung von T-SQL-Skripten und gespeicherten Prozeduren in MSSQL
• Erstellung und Wartung von ETL/ELT-Pipelines mit Talend, SSIS und Python zur Sicherstellung leistungsstarker, skalierbarer und zuverlässiger Datenintegrations-Workflows
• Entwicklung von CI/CD-Pipelines mit Azure DevOps und Bereitstellung von Anwendungen über Docker-Container auf Kubernetes (AKS) für nahtlose und automatisierte Release-Zyklen
• Arbeit im agilen Scrum-Framework in Zusammenarbeit mit funktionsübergreifenden Teams zur iterativen Weiterentwicklung entsprechend den Unternehmenszielen
• Entwicklung einer Echtzeit-Datenverarbeitungs- und Analyse-Lösung für den Schienenverkehr durch Integration verschiedener Datenquellen in eine einheitliche Plattform für verwertbare Erkenntnisse
• Automatisierung von Daten-Workflows mit Python und Jupyter Notebooks zur Verbesserung der Transformation und Verwaltung von SAP-Daten in Oracle-Datenbanken
• Verwaltung einer Dual-Datenbank-Architektur mit OracleDB und MSSQL unter Einsatz von Talend für ETL sowie Optimierung von T-SQL-Skripten und gespeicherten Prozeduren in MSSQL
• Erstellung und Wartung von ETL/ELT-Pipelines mit Talend, SSIS und Python zur Sicherstellung leistungsstarker, skalierbarer und zuverlässiger Datenintegrations-Workflows
• Entwicklung von CI/CD-Pipelines mit Azure DevOps und Bereitstellung von Anwendungen über Docker-Container auf Kubernetes (AKS) für nahtlose und automatisierte Release-Zyklen
• Arbeit im agilen Scrum-Framework in Zusammenarbeit mit funktionsübergreifenden Teams zur iterativen Weiterentwicklung entsprechend den Unternehmenszielen
• Entwicklung von Microservices und Backend-Tools in Python zur Verarbeitung und Analyse großer Mengen von Sensordaten zur Optimierung der Effizienz von Kläranlagen und Förderung der Ressourcenschonung
• Erstellung und Wartung von Python-basierten Backend-Services und APIs mit FastAPI, wodurch eine modulare und skalierbare Microservice-Architektur ermöglicht wurde
• Unterstützung bei Design und Implementierung moderner, responsiver Benutzeroberflächen mit Angular, um ein nahtloses und intuitives Nutzererlebnis zu schaffen
• Integration von ETL-Pipelines mit Apache Airflow zur automatisierten Datenaufnahme und -transformation über mehrere Systeme hinweg
• Implementierung von KI-gestützter Analytik mit scikit-learn und Transformers, mit Fokus auf Mustererkennung und Klassifikation von Sensordaten zur Gewinnung betrieblicher Erkenntnisse
• Einsatz eines auf Redis basierenden Message Brokers für leistungsstarke Kommunikation und Synchronisation zwischen Systemkomponenten
• Containerisierung von Anwendungen mit Docker und Verwaltung von Bereitstellungen in großem Maßstab mit Kubernetes, zur Sicherstellung von Zuverlässigkeit und Skalierbarkeit
• Arbeit im agilen Scrum-Framework mit Koordination über Confluence und Teilnahme an agilen Zeremonien zur iterativen Bereitstellung von Funktionen im Einklang mit Projektzielen
• Erstellung und Wartung von Python-basierten Backend-Services und APIs mit FastAPI, wodurch eine modulare und skalierbare Microservice-Architektur ermöglicht wurde
• Unterstützung bei Design und Implementierung moderner, responsiver Benutzeroberflächen mit Angular, um ein nahtloses und intuitives Nutzererlebnis zu schaffen
• Integration von ETL-Pipelines mit Apache Airflow zur automatisierten Datenaufnahme und -transformation über mehrere Systeme hinweg
• Implementierung von KI-gestützter Analytik mit scikit-learn und Transformers, mit Fokus auf Mustererkennung und Klassifikation von Sensordaten zur Gewinnung betrieblicher Erkenntnisse
• Einsatz eines auf Redis basierenden Message Brokers für leistungsstarke Kommunikation und Synchronisation zwischen Systemkomponenten
• Containerisierung von Anwendungen mit Docker und Verwaltung von Bereitstellungen in großem Maßstab mit Kubernetes, zur Sicherstellung von Zuverlässigkeit und Skalierbarkeit
• Arbeit im agilen Scrum-Framework mit Koordination über Confluence und Teilnahme an agilen Zeremonien zur iterativen Bereitstellung von Funktionen im Einklang mit Projektzielen
Tätigkeit
• Entwicklung einer Echtzeit-Datenverarbeitungs- und Analyse-Lösung für den Schienenverkehr durch Integration verschiedener Datenquellen in eine einheitliche Plattform für verwertbare Erkenntnisse
• Automatisierung von Daten-Workflows mit Python und Jupyter Notebooks zur Verbesserung der Transformation und Verwaltung von SAP-Daten in Oracle-Datenbanken
• Verwaltung einer Dual-Datenbank-Architektur mit OracleDB und MSSQL unter Einsatz von Talend für ETL sowie Optimierung von T-SQL-Skripten und gespeicherten Prozeduren in MSSQL
• Erstellung und Wartung von ETL/ELT-Pipelines mit Talend, SSIS und Python zur Sicherstellung leistungsstarker, skalierbarer und zuverlässiger Datenintegrations-Workflows
• Entwicklung von CI/CD-Pipelines mit Azure DevOps und Bereitstellung von Anwendungen über Docker-Container auf Kubernetes (AKS) für nahtlose und automatisierte Release-Zyklen
• Arbeit im agilen Scrum-Framework in Zusammenarbeit mit funktionsübergreifenden Teams zur iterativen Weiterentwicklung entsprechend den Unternehmenszielen
• Entwicklung einer Echtzeit-Datenverarbeitungs- und Analyse-Lösung für den Schienenverkehr durch Integration verschiedener Datenquellen in eine einheitliche Plattform für verwertbare Erkenntnisse
• Automatisierung von Daten-Workflows mit Python und Jupyter Notebooks zur Verbesserung der Transformation und Verwaltung von SAP-Daten in Oracle-Datenbanken
• Verwaltung einer Dual-Datenbank-Architektur mit OracleDB und MSSQL unter Einsatz von Talend für ETL sowie Optimierung von T-SQL-Skripten und gespeicherten Prozeduren in MSSQL
• Erstellung und Wartung von ETL/ELT-Pipelines mit Talend, SSIS und Python zur Sicherstellung leistungsstarker, skalierbarer und zuverlässiger Datenintegrations-Workflows
• Entwicklung von CI/CD-Pipelines mit Azure DevOps und Bereitstellung von Anwendungen über Docker-Container auf Kubernetes (AKS) für nahtlose und automatisierte Release-Zyklen
• Arbeit im agilen Scrum-Framework in Zusammenarbeit mit funktionsübergreifenden Teams zur iterativen Weiterentwicklung entsprechend den Unternehmenszielen