01.06.2024 aktualisiert


100 % verfügbar
Software Architect / Software Engineer / Data Scientist / Data Engineer
Buchholz, Deutschland
Weltweit
Phd, UniversitätsabschlussSkills
JavaPythonBankDatenbankenJavascriptApache KafkaKubernetes Machine learningETL-ErfahrungDWH Entwicklung
- Starker Informatik-Hintergrund.
- Tiefes mathematisches Verständnis und Wissen, speziell numerische Approximationen und schnelle Algorithmen.
- Expertise und Erfahrung mit Machine Learning-Methoden.
- Deep learning, Zeitreihenvorhersage, Natural Language Processing (NLP)
- Expertenwissen in der Softwareentwicklung mit Java, Python, C/C++, R, und weiteren Programmiersprachen.
- Erfahrung in der Entwicklung von hochvolumigen, latenzkritischen Datenlösungen.
- Fullstack-Erfahrung in Desing und Implementierung von Big Data-Lösungen, von Datenakquise, Transformation, Speciherung, bis zum Aufbau von realtime-Analytics-Lösungen.
- Erfahrung mit diversen Entwicklertools und CI/CD-Systemen.
- Tiefes mathematisches Verständnis und Wissen, speziell numerische Approximationen und schnelle Algorithmen.
- Expertise und Erfahrung mit Machine Learning-Methoden.
- Deep learning, Zeitreihenvorhersage, Natural Language Processing (NLP)
- Expertenwissen in der Softwareentwicklung mit Java, Python, C/C++, R, und weiteren Programmiersprachen.
- Erfahrung in der Entwicklung von hochvolumigen, latenzkritischen Datenlösungen.
- Fullstack-Erfahrung in Desing und Implementierung von Big Data-Lösungen, von Datenakquise, Transformation, Speciherung, bis zum Aufbau von realtime-Analytics-Lösungen.
- Erfahrung mit diversen Entwicklertools und CI/CD-Systemen.
Sprachen
DeutschMutterspracheEnglischverhandlungssicherSpanischgut
Projekthistorie
Aufgaben
- Performance-Optimierung eines PaR-Modells und zugehöriger Vorberechnungsschritte.
- Ermittlung und Reduzierung des tatsächlichen Ressourcenbedarfs.
- Profiling, Identifikation von Bottlenecks, Codeoptimierungen.
- Steigerung der Ausführungsgeschwindigkeit durch Einführung eines Redis-Cache.
- Unterstützung bei der Einführung fachlicher Erweiterungen.
- Erstmigration des Modells in eine Cloud-Umgebung auf Basis von Kubernetes.
- Evolution zu einer cloud-native Anwendung mit Fokus auf horizontaler Skalierbarkeit.
- Erstellung automatisierter Tests, Optimierung der Code Coverage-Metriken.
- Verbesserungen des Entwicklungsworkflows, um schnelle Iterationen zu ermöglichen.
- Entwicklung: Python, Pandas, NumPy, Polars, Pydantic
- IDE: PyCharm, VS Code
- Tests: pytest
- Datenbank: MongoDB, Redis
- CI/CD: Jenkins
- DevOps/Infrastruktur: Docker, Kubernetes, Helm
- Entwicklungsprozess nach Scrum
- Internationales Team und deutsche Stakeholder
- Umsetzung Vorstudie zur Zukunft des Meldewesens.
- Evaluierung zukünftiger Anforderungen im regulatorischen Reporting nach IReF.
- Analyse des fakultativen Banks‘ Integrated Reporting Dictionary (BIRD) Datenmodells.
- Identifikation von Risiken und Chancen für betroffene Institute.
- Ausarbeitung von Leistungsangeboten zur Vorbereitung und Umsetzung von IReF & BIRD.
Aufgaben
- Entwicklung und Modernisierung interner Django-Anwendungen und Schnittstellen.
- Automatisierung von CI/CD-Pipelines, Tests und Dokumentation.
- Analyse und Unterstützung bei der Migration zu einer EAM-Lösung von LeanIX.
- Support für SAP Business Workflow in einer SAP BTP Cloud-Umgebung.
- SAP: BTP Cloud (AWS), SAP Business Workflow, SAP Fiori
- Entwicklung: Python, Poetry, Ruff, Django, Pydantic, JavaScript
- CI/CD: GitLab, Docker, Kubernetes, Helm, ArgoCD
- Agiler, Scrum-basierter Entwicklungsprozess
- Deutsches Team (5 Mitglieder) und deutsche Stakeholder