02.05.2025 aktualisiert

MS
Premiumkunde
100 % verfügbar

DWH Entwickler/BI Analyst, Senior BI Analyst, Data Engineer

Velbert, Deutschland
Weltweit
Velbert, Deutschland
Weltweit

Skills

  • Data & Analytics Platforms: Databricks, Apache Spark, AWS, Azure
  • Programming Languages: Python, SQL, JavaScript, PromQL
  • Frameworks & Libraries: Streamlit, Flask, Pandas, NumPy, PySpark
  • Containerization & Orchestration: Docker, Kubernetes
  • Package Manager: Helm
  • Python Package Manager: Poetry
  • Container Registry: Harbor, Docker Hub
  • Databases: MySQL, PostgreSQL, MongoDB, Oracle, Exasol, MSSQL, Greenplum
  • Tools & Technologies: Git, Jenkins, REST APIs, Helm
  • Visualization: Matplotlib, Plotly, Tableau, Power BI, Grafana Cognos Analytics
  • ETL/ELT: SSIS Azure Datafactory, Apache Airflow, Pandas, PySpark, Apache NiFi, Databricks, AWS Glue
  • Monitoring & Metrics: Prometheus
  • CI/CD Jenkins, GitHub Actions, GitLab CI, ArgoCD
  • Data Validations: Great Expectations
  • Know-how in UML und BPMN
Kurse: Introduction to Kubernetes (LFS158) / Einführung in Kubernetes (LFS158)
          Containers Fundamentals (LFS253) / Grundlagen von Containern (LFS253)
          Kubernetes for Developers (LFD259) / Kubernetes für Entwickler (LFD259)



Umfassende Expertise in der Softwareentwicklung, Datenmodellierung, und Automatisierung für Projekte in den Bereichen Risk-Guidance, Customer Credit Scoring und Verkaufsanalysen. Spezialisiert auf die Integration von hybriden Plattformen (On-Premise und Cloud), Data Lake und LakeHouse-Architekturen, sowie die Implementierung von Enterprise Data Warehouses. Routiniert im Einsatz von Power BI, Python, Kubernetes, Azure Databricks, Airflow, und SAP Hana. Beherrscht die Nutzung von CI/CD Pipelines mit GitLab und Artifactory, sowie die Dokumentation und Kommunikation in Confluence und Jira. Stark in Datenmodellierung insbesondere mit Data Vault und dimensionaler Modellierung für skalierbare und robuste Datenstrukturen.


Im Rahmen des Projekts wurde eine umfassende Softwareentwicklung zur Risk-Guidance durchgeführt, die als zentrale Anforderung definiert wurde. Die Daten wurden sorgfältig modelliert und sowohl auf einer On-Premise SQL-Plattform als auch in der Cloud gespeichert. Zur Automatisierung der Prozesse kam Airflow zum Einsatz, während die Transformation der Daten mithilfe von Python unter Linux sowie Bash und Shell Scripten durchgeführt wurde. Die berechneten Risikowerte wurden schließlich im Frontend visualisiert und für die Benutzer übersichtlich dargestellt.

• Konzeption und Entwicklung eines Data Lakes auf Amazon S3 zur Bereitstellung einer zentralen Speicherlösung für große Mengen unstrukturierter und strukturierter Daten. Erstellung von Data Pipelines in PL/SQL und Python unter Linux zur Aufbereitung der Daten für die Staging- und RAW-Vault-Schichten sowie für weiterführende Analysen.
• Aufsetzung eines DataWahrehouse (DWH), betrieben auf einer On-Premise SQL-Plattform und in der Cloud, unter Nutzung der Kimball-Methode für die Entwicklung eines dimensionalen Modells und Implementierung des Data Vault 2.0-Frameworks in der Datenarchitektur.
• Entwicklung von Data Pipelines zur Stage- und RAW-Vault-Beladung mit SQL und Python.
• Entwicklung von Anwendungen mit Kubernetes zur Sicherstellung von containisierten Services
• Deployment von Services auf Kubernetes-Clustern für die Ausführung und Verwaltung von Anwendungen
• Entwicklung und Optimierung der Deployment-Konfiguration für Kubernetes-Pods.
• Implementierung von CI/CD Pipelines zur Gewährleistung der entwickelten Anwendung und Services. Nutzung von GitLab als zentrales Versionskontroll-Tool, des Management von Code Änderungen inkl. Automatisierung von Builds und Tests. Artifactory diente zur Verwaltung und Speicherung von Artefakten
• Darstellung von Daten mithilfe der Programmiersprache R.
• Datenmodellierung und -architektur zur Sicherstellung einer robusten und skalierbaren Struktur für die Speicherung und Verarbeitung der Daten sowohl auf der On-Premise PostgreSQL-Plattform als auch in der Cloud.
• Durchführung von Batch-Prozessen zur effizienten Verarbeitung großer Datenmengen mithilfe von Python, Bash und Shell-Skripten unter Linux.
• Installation fehlender Module auf Pods und Anpassung der Requirements.
• Orchestrierung von Data Pipelines mittels Airflow DAGs.
• Anlegen von Connections und Variablen in Airflow.
• Merge von Pipelines im Git-Dev und Dokumentation im Confluence.
• Bearbeitung von Anforderungen basierend auf Jira-Tickets.
• Entwicklung von Berichten und Dashboards für die Risikokalkulationen.
• Aufnahme und Umsetzung von Anforderungen der Risk Owners für die Risikokalkulationen.
• Sicherstellung der Dokumentation und effektiven Kommunikation mit Confluence und Jira

Projektführung nach Scrum

 

Sprachen

DeutschverhandlungssicherEnglischMuttersprachePolnischgut

Projekthistorie

Python Entwickler/ DWH Entwickler/Data Engineer

1000-5000 Mitarbeiter


Zertifikate

SÜ1

SÜ1

2025


Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden