24.11.2025 aktualisiert


nicht verfügbar
Senior Data Engineer | Data Analyst | Experte für Data Vault, Snowflake, ETL und Cloud-Technologie
Villingen-Schwenningen, Deutschland
Weltweit
Diplom-Informatiker (FH)Skills
Data Vault 2.0Data WarehouseSnowflakeExasolETL/ELTCloud TechnologiesPython EntwicklerSQLAPI Entwickler Data EngineeringBusiness Intelligence & Data Analyst
Technische Kompetenzen
Datenmodellierung:
Data Vault 2.0, Star Schema, Snowflake Schema
Data Warehouse:
Exasol, Snowflake, GCP BigQuery
Cloud-Technologien:
AWS (Lambda, S3, API-Gateway, Secrets Manager)
GCP (Dataflow, Pub/Sub, BigQuery)
ETL / ELT-Prozesse:
Entwicklung und Optimierung von ETL/ELT-Pipelines mit Python, SQL und dbt
Infrastruktur und Automatisierung:
Terraform, CI/CD-Pipelines, serverlose Architekturen
Programmiersprachen:
Python, SQL
Projekterfahrung
Data Warehouse und Datenmodellierung:
Aufbau und Optimierung skalierbarer Data Vault 2.0 Architekturen mit Snowflake und Exasol. Implementierung von ELT-Pipelines für den effizienten Datenfluss und die Datenintegration.
API- und Pipeline-Entwicklung:
Entwicklung von leistungsstarken REST-APIs und Data Pipelines mittels Python, SQL und dbt, um komplexe Systemlandschaften (z. B. PIM-, ERP- und E-Commerce-Systeme) zu integrieren und Datenflüsse zu optimieren.
Cloud-native Big Data Lösungen:
Konzeption und Umsetzung von GCP- und AWS-Architekturen mit Terraform. Aufbau skalierbarer und automatisierter Infrastrukturen für datenintensive Anwendungen und Streaming-Pipelines.
Datenstrategien und Governance:
Entwicklung und Einführung globaler Datenstrategien sowie datengetriebener Roadmaps. Aufbau von Data Governance Frameworks zur Sicherstellung von Datenqualität und Konsistenz.
Methodische Kompetenzen
Agile Methoden: SCRUM, Kanban
Requirements Engineering: Analyse, Konzeption, Dokumentation
Data Governance: Erstellung und Einführung globaler Datenstrategien und Frameworks
Datenmodellierung:
Data Vault 2.0, Star Schema, Snowflake Schema
Data Warehouse:
Exasol, Snowflake, GCP BigQuery
Cloud-Technologien:
AWS (Lambda, S3, API-Gateway, Secrets Manager)
GCP (Dataflow, Pub/Sub, BigQuery)
ETL / ELT-Prozesse:
Entwicklung und Optimierung von ETL/ELT-Pipelines mit Python, SQL und dbt
Infrastruktur und Automatisierung:
Terraform, CI/CD-Pipelines, serverlose Architekturen
Programmiersprachen:
Python, SQL
Projekterfahrung
Data Warehouse und Datenmodellierung:
Aufbau und Optimierung skalierbarer Data Vault 2.0 Architekturen mit Snowflake und Exasol. Implementierung von ELT-Pipelines für den effizienten Datenfluss und die Datenintegration.
API- und Pipeline-Entwicklung:
Entwicklung von leistungsstarken REST-APIs und Data Pipelines mittels Python, SQL und dbt, um komplexe Systemlandschaften (z. B. PIM-, ERP- und E-Commerce-Systeme) zu integrieren und Datenflüsse zu optimieren.
Cloud-native Big Data Lösungen:
Konzeption und Umsetzung von GCP- und AWS-Architekturen mit Terraform. Aufbau skalierbarer und automatisierter Infrastrukturen für datenintensive Anwendungen und Streaming-Pipelines.
Datenstrategien und Governance:
Entwicklung und Einführung globaler Datenstrategien sowie datengetriebener Roadmaps. Aufbau von Data Governance Frameworks zur Sicherstellung von Datenqualität und Konsistenz.
Methodische Kompetenzen
Agile Methoden: SCRUM, Kanban
Requirements Engineering: Analyse, Konzeption, Dokumentation
Data Governance: Erstellung und Einführung globaler Datenstrategien und Frameworks
Sprachen
DeutschMutterspracheEnglischverhandlungssicherTürkischMuttersprache
Projekthistorie
Entwicklung von API-Schnittstellen und Data Pipelines
Aufgaben:
Aufgaben:
- Durchführung von detaillierten Anforderungsanalysen mit Business-Stakeholdern zur Identifikation von Datenintegrationsanforderungen.
- Erarbeitung von Schnittstellenkonzepten in enger Zusammenarbeit mit dem Kunden, um spezifische Anforderungen für PIM-, E-Commerce- und ERP-Systeme wie SAP und Salesforce zu erfüllen.
- Entwicklung von REST API Architekturen und leistungsstarken Data Pipelines mit Python, die eine effiziente Integration und Synchronisation komplexer Systemlandschaften ermöglichen.
- Bereitstellung einer robusten API-Infrastruktur, die den Datenaustausch zwischen PIM-Systemen, Quell- und Zielsystemen deutlich beschleunigt.
- Optimierung der Datenflüsse und Reduzierung von Synchronisationszeiten, wodurch die Betriebseffizienz signifikant gesteigert wurde.
Implementierung eines Data Vault 2.0 Data Warehouses in der Logistik Domain
Aufgaben:
Aufgaben:
- Zusammenarbeit mit Business-Stakeholdern zur Erfassung komplexer Anforderungen und deren Übersetzung in eine skalierbare Data Vault 2.0 Architektur.
- Modellierung des RAW- und Business Vaults im Exasol Data Warehouse unter Berücksichtigung von Data Vault 2.0 Prinzipien.
- Entwicklung und Integration von dbt-ähnlichen Technologien zur Datenbeladung aus BigQuery in das Data Warehouse.
- Erstellung von GCP Dataflow Pipelines mit Python zur effizienten Materialisierung und Delta-Beladung.
- Bereitstellung einer stabilen und skalierbaren GCP-Infrastruktur mittels Terraform, um die Automatisierung und Wartung zu optimieren.
- Erfolgreiche Bereitstellung von datengetriebenen Einblicken für PowerBI-Reports, wodurch Business-Stakeholder fundierte Entscheidungen treffen konnten.
- Verbesserung der Transparenz im Logistikprozess (Inbound, Outbound, Return), was zu einer schnelleren Problemerkennung und -behebung führte.
Entwicklung einer globalen Datenstrategie und Technologie-Architektur
Aufgaben:
Aufgaben:
- Entwicklung einer datengetriebenen Strategie mit einer Roadmap für die nächsten 10 Jahre in enger Zusammenarbeit mit der Geschäftsleitung und internationalen Ländergesellschaften.
- Planung und Durchführung von Workshops zur Definition von Anforderungen und Zielen für den Aufbau eines globalen Datenmodells.
- Erstellung eines Budgets und Ressourcenplans für die Umsetzung der im Strategiepapier definierten Projekte.
- Definition eines neuen Datenmodells für Vertriebs- und Produktdaten auf Basis von Data Vault 2.0 Prinzipien.
- Entwicklung einer globalen Technologie-Architektur, die vollständig mit der IT-Strategie des Unternehmens abgestimmt ist und den weltweiten Roll-out einer E-Commerce-Plattform unterstützt.
- Präsentation der Ergebnisse vor dem globalen Vorstand und Einholung der Freigabe für die nächsten Schritte.
- Erstellung einer präzisen Roadmap, die die Einführung der E-Commerce-Plattform auf globaler Ebene ermöglicht.
- Entwicklung eines flexiblen, systemunabhängigen Datenmodells, das die Integration verschiedener Vertriebskanäle und die Skalierung zukünftiger Datenanforderungen unterstützt.
- Abstimmung der Datenstrategie mit der globalen IT-Strategie, was eine effiziente und kohärente Umsetzung der Projekte gewährleistet.