24.11.2025 aktualisiert

**** ******** ****
nicht verfügbar

Senior Data Engineer | Data Analyst | Experte für Data Vault, Snowflake, ETL und Cloud-Technologie

Villingen-Schwenningen, Deutschland
Weltweit
Diplom-Informatiker (FH)
Villingen-Schwenningen, Deutschland
Weltweit
Diplom-Informatiker (FH)

Profilanlagen

Ural-Genc_Freelancer-Profil_122024.docx

Skills

Technische Kompetenzen
Datenmodellierung:
Data Vault 2.0, Star Schema, Snowflake Schema
Data Warehouse:
Exasol, Snowflake, GCP BigQuery
Cloud-Technologien:
AWS (Lambda, S3, API-Gateway, Secrets Manager)
GCP (Dataflow, Pub/Sub, BigQuery)
ETL / ELT-Prozesse:
Entwicklung und Optimierung von ETL/ELT-Pipelines mit Python, SQL und dbt
Infrastruktur und Automatisierung:
Terraform, CI/CD-Pipelines, serverlose Architekturen
Programmiersprachen:
Python, SQL

Projekterfahrung
Data Warehouse und Datenmodellierung:

Aufbau und Optimierung skalierbarer Data Vault 2.0 Architekturen mit Snowflake und Exasol. Implementierung von ELT-Pipelines für den effizienten Datenfluss und die Datenintegration.
API- und Pipeline-Entwicklung:
Entwicklung von leistungsstarken REST-APIs und Data Pipelines mittels Python, SQL und dbt, um komplexe Systemlandschaften (z. B. PIM-, ERP- und E-Commerce-Systeme) zu integrieren und Datenflüsse zu optimieren.
Cloud-native Big Data Lösungen:
Konzeption und Umsetzung von GCP- und AWS-Architekturen mit Terraform. Aufbau skalierbarer und automatisierter Infrastrukturen für datenintensive Anwendungen und Streaming-Pipelines.
Datenstrategien und Governance:
Entwicklung und Einführung globaler Datenstrategien sowie datengetriebener Roadmaps. Aufbau von Data Governance Frameworks zur Sicherstellung von Datenqualität und Konsistenz.

Methodische Kompetenzen
Agile Methoden: SCRUM, Kanban
Requirements Engineering: Analyse, Konzeption, Dokumentation
Data Governance: Erstellung und Einführung globaler Datenstrategien und Frameworks

Sprachen

DeutschMutterspracheEnglischverhandlungssicherTürkischMuttersprache

Projekthistorie

Senior Data Engineer

Accentrue Data & AI (bis 11/2024 Parsionate GmbH)

Internet und Informationstechnologie

5000-10.000 Mitarbeiter

Entwicklung von API-Schnittstellen und Data Pipelines

Aufgaben:
  • Durchführung von detaillierten Anforderungsanalysen mit Business-Stakeholdern zur Identifikation von Datenintegrationsanforderungen.
  • Erarbeitung von Schnittstellenkonzepten in enger Zusammenarbeit mit dem Kunden, um spezifische Anforderungen für PIM-, E-Commerce- und ERP-Systeme wie SAP und Salesforce zu erfüllen.
  • Entwicklung von REST API Architekturen und leistungsstarken Data Pipelines mit Python, die eine effiziente Integration und Synchronisation komplexer Systemlandschaften ermöglichen.
Ergebnisse:
  • Bereitstellung einer robusten API-Infrastruktur, die den Datenaustausch zwischen PIM-Systemen, Quell- und Zielsystemen deutlich beschleunigt.
  • Optimierung der Datenflüsse und Reduzierung von Synchronisationszeiten, wodurch die Betriebseffizienz signifikant gesteigert wurde.

Senior Data Analyst & Senior Data Engineer

OTTO GmbH & Co. KG

Konsumgüter und Handel

>10.000 Mitarbeiter

Implementierung eines Data Vault 2.0 Data Warehouses in der Logistik Domain

Aufgaben:
  • Zusammenarbeit mit Business-Stakeholdern zur Erfassung komplexer Anforderungen und deren Übersetzung in eine skalierbare Data Vault 2.0 Architektur.
  • Modellierung des RAW- und Business Vaults im Exasol Data Warehouse unter Berücksichtigung von Data Vault 2.0 Prinzipien.
  • Entwicklung und Integration von dbt-ähnlichen Technologien zur Datenbeladung aus BigQuery in das Data Warehouse.
  • Erstellung von GCP Dataflow Pipelines mit Python zur effizienten Materialisierung und Delta-Beladung.
  • Bereitstellung einer stabilen und skalierbaren GCP-Infrastruktur mittels Terraform, um die Automatisierung und Wartung zu optimieren.
Ergebnisse:    
  • Erfolgreiche Bereitstellung von datengetriebenen Einblicken für PowerBI-Reports, wodurch Business-Stakeholder fundierte Entscheidungen treffen konnten.
  • Verbesserung der Transparenz im Logistikprozess (Inbound, Outbound, Return), was zu einer schnelleren Problemerkennung und -behebung führte.

Lead Data Strategy & Lead Data Architect

Automotive-Aftermarket Retailer

Automobil und Fahrzeugbau

500-1000 Mitarbeiter

Entwicklung einer globalen Datenstrategie und Technologie-Architektur

Aufgaben:
  • Entwicklung einer datengetriebenen Strategie mit einer Roadmap für die nächsten 10 Jahre in enger Zusammenarbeit mit der Geschäftsleitung und internationalen Ländergesellschaften.
  • Planung und Durchführung von Workshops zur Definition von Anforderungen und Zielen für den Aufbau eines globalen Datenmodells.
  • Erstellung eines Budgets und Ressourcenplans für die Umsetzung der im Strategiepapier definierten Projekte.
  • Definition eines neuen Datenmodells für Vertriebs- und Produktdaten auf Basis von Data Vault 2.0 Prinzipien.
  • Entwicklung einer globalen Technologie-Architektur, die vollständig mit der IT-Strategie des Unternehmens abgestimmt ist und den weltweiten Roll-out einer E-Commerce-Plattform unterstützt.
  • Präsentation der Ergebnisse vor dem globalen Vorstand und Einholung der Freigabe für die nächsten Schritte.
Ergebnisse:
  • Erstellung einer präzisen Roadmap, die die Einführung der E-Commerce-Plattform auf globaler Ebene ermöglicht.
  • Entwicklung eines flexiblen, systemunabhängigen Datenmodells, das die Integration verschiedener Vertriebskanäle und die Skalierung zukünftiger Datenanforderungen unterstützt.
  • Abstimmung der Datenstrategie mit der globalen IT-Strategie, was eine effiziente und kohärente Umsetzung der Projekte gewährleistet.

Zertifikate

Professionelles Projektmanagement & erfolgreiche Projektführung

Management School St. Gallen

2020

Englisch CEF B 1

inlingua

2017

Führung

umw consulting

2014


Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden