24.11.2025 aktualisiert

**** ******** ****
verifiziert
100 % verfügbar

Data Engineer & Python Developer (SV Versichert)

Darmstadt, Deutschland Master of Science Informatik
Darmstadt, Deutschland Master of Science Informatik

Profilanlagen

CV-Haus_Alexander.pdf

Über mich

Ich bin ein engagierter Senior Software Engineer mit Masterabschluss in Informatik und verfüge seit 2015 über fundierte Erfahrung im Bereich des Data Engineerings so wie der Software-Entwicklung in Python.

Skills

  1. Master of Science in Informatik
  2. Berufserfahrung seit 2015 als Software Engineer mit Schwerpunkt auf Softwareentwicklung und Data Engineering
  3. Praxis in unterschiedlichen Branchen, darunter Energie, Transport und Gesundheitswesen
  4. Umfassende Erfahrung in der Entwicklung in Python so wie angrenzenden Technologien. Fundierte Kenntnisse im Umgang mit diversen Datenbanksystemen, in etwa MSSQL, Oracle DB, MySQL, PostgreSQL und MongoDB
  5. Breites Know-how im ETL-Bereich mit Tools wie SSIS, Glue, Talend und Apache Airflow durchgängig seit 2017
  6. Erfahren im Einsatz von Apache Kafka, Containerisierung mit Docker, Kubernetes sowie Cloud-Plattformen wie AWS und Azure
  7. Mehr als vier Jahre Erfahrung in KI-Projekten mit Frameworks und Tools - Pandas, PyTorch, TensorFlow, Transformers, spaCy, scikit-learn, Jupyter und Matplotlib
  8. Vertraut mit der Arbeit in agilen Entwicklungsteams
  9. Ziel- und lösungsorientierter Arbeitsstil mit hohem Qualitätsanspruch

Sprachen

DeutschMutterspracheEnglischverhandlungssicher

Projekthistorie

Senior Data Engineer & Developer - Datenintegration im Bahnverkehr

DB InfraGO AG

Transport und Logistik

>10.000 Mitarbeiter

Tätigkeit

• Entwicklung einer Echtzeit-Datenverarbeitungs- und Analyse-Lösung für den Schienenverkehr durch Integration verschiedener Datenquellen in eine einheitliche Plattform für verwertbare Erkenntnisse
• Automatisierung von Daten-Workflows mit Python und Jupyter Notebooks zur Verbesserung der Transformation und Verwaltung von SAP-Daten in Oracle-Datenbanken
• Verwaltung einer Dual-Datenbank-Architektur mit OracleDB und MSSQL unter Einsatz von Talend für ETL sowie Optimierung von T-SQL-Skripten und gespeicherten Prozeduren in MSSQL
• Erstellung und Wartung von ETL/ELT-Pipelines mit Talend, SSIS und Python zur Sicherstellung leistungsstarker, skalierbarer und zuverlässiger Datenintegrations-Workflows
• Entwicklung von CI/CD-Pipelines mit Azure DevOps und Bereitstellung von Anwendungen über Docker-Container auf Kubernetes (AKS) für nahtlose und automatisierte Release-Zyklen
• Arbeit im agilen Scrum-Framework in Zusammenarbeit mit funktionsübergreifenden Teams zur iterativen Weiterentwicklung entsprechend den Unternehmenszielen

Software Developer & Data Engineer - Datenintegration im Energiekonzern

E.ON Energie Deutschland GmbH

Energie, Wasser und Umwelt

>10.000 Mitarbeiter

• Entwicklung von Microservices und Backend-Tools in Python zur Verarbeitung und Analyse großer Mengen von Sensordaten zur Optimierung der Effizienz von Kläranlagen und Förderung der Ressourcenschonung
• Erstellung und Wartung von Python-basierten Backend-Services und APIs mit FastAPI, wodurch eine modulare und skalierbare Microservice-Architektur ermöglicht wurde
• Unterstützung bei Design und Implementierung moderner, responsiver Benutzeroberflächen mit Angular, um ein nahtloses und intuitives Nutzererlebnis zu schaffen
• Integration von ETL-Pipelines mit Apache Airflow zur automatisierten Datenaufnahme und -transformation über mehrere Systeme hinweg
• Implementierung von KI-gestützter Analytik mit scikit-learn und Transformers, mit Fokus auf Mustererkennung und Klassifikation von Sensordaten zur Gewinnung betrieblicher Erkenntnisse
• Einsatz eines auf Redis basierenden Message Brokers für leistungsstarke Kommunikation und Synchronisation zwischen Systemkomponenten
• Containerisierung von Anwendungen mit Docker und Verwaltung von Bereitstellungen in großem Maßstab mit Kubernetes, zur Sicherstellung von Zuverlässigkeit und Skalierbarkeit
• Arbeit im agilen Scrum-Framework mit Koordination über Confluence und Teilnahme an agilen Zeremonien zur iterativen Bereitstellung von Funktionen im Einklang mit Projektzielen

Data Engineer & Developer - Datenintegration im Bahnverkehr

DB InfraGO

Transport und Logistik

>10.000 Mitarbeiter

Tätigkeit

• Entwicklung einer Echtzeit-Datenverarbeitungs- und Analyse-Lösung für den Schienenverkehr durch Integration verschiedener Datenquellen in eine einheitliche Plattform für verwertbare Erkenntnisse
• Automatisierung von Daten-Workflows mit Python und Jupyter Notebooks zur Verbesserung der Transformation und Verwaltung von SAP-Daten in Oracle-Datenbanken
• Verwaltung einer Dual-Datenbank-Architektur mit OracleDB und MSSQL unter Einsatz von Talend für ETL sowie Optimierung von T-SQL-Skripten und gespeicherten Prozeduren in MSSQL
• Erstellung und Wartung von ETL/ELT-Pipelines mit Talend, SSIS und Python zur Sicherstellung leistungsstarker, skalierbarer und zuverlässiger Datenintegrations-Workflows
• Entwicklung von CI/CD-Pipelines mit Azure DevOps und Bereitstellung von Anwendungen über Docker-Container auf Kubernetes (AKS) für nahtlose und automatisierte Release-Zyklen
• Arbeit im agilen Scrum-Framework in Zusammenarbeit mit funktionsübergreifenden Teams zur iterativen Weiterentwicklung entsprechend den Unternehmenszielen

Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden