08.09.2025 aktualisiert


Premiumkunde
100 % verfügbarData Engineer / Data Architect mit Schwerpunkt Cloud-Lösungen und Datenplattformen
Linkenheim-Hochstetten, Deutschland
Weltweit
Master of Science in Elektrotechnik und InformationstechnikSkills
Third Normal FormAPIsData AnalysisArchitekturAuditsMicrosoft AzureTabellenCloud ComputingComplianceDatenbankenContinuous IntegrationData ArchitectureData GovernanceETLData MartManagementrechnungFinanzenFranzösischGithubSteuerungIt-GovernancePythonManagement SystemeMappingProjektmanagementMetadataNormalisierungOrganisationsstrukturParametrisierungTelemetrieRole Based Access ControlPower BiSchreiben von DokumentationSAP ApplicationsSQLStandardisierungLagerverwaltungStreamingTrendforschungWorkflowsExtensible Markup LanguageParquetDaten- / DatensatzprotokollierungCloud PlatformESG-KriterienAzure Data FactorySnowflakePytestPysparkData LineageTeam ManagementTerraformLibsKpi-BerichterstattungDatabricks
Anbindung & Harmonisierung (IT-Governance-Tools / Common Data Model)
- Quellsysteme anschließen: SAP (Einkauf), Ivalua, HR-Systeme, On-Prem-Datenbanken und APIs über Hub-&-Spoke an die zentrale Plattform angebunden.
Beispiel: Lieferanten-/Bestelldaten aus SAP & Ivalua angebunden, technische Metadaten und Ownership in das Governance-Zielmodell überführt. - Common Data Model (CDM): Domänenobjekte (z. B. Supplier, Contract, Asset) gemeinsam mit den Produktverantwortlichen der Quellsysteme und dem Governance-Team harmonisiert.
Beispiel: Mapping-Guides und Validierungsregeln erstellt, damit Governance-Reports und Katalogeinträge konsistent sind.
- Pipelines (Ingest → Refine → Serve): Medallion-Architektur auf Databricks mit Delta Lake umgesetzt.
Beispiel: Bronze-Ingest via CDC aus SAP-Tabellen, Silver-Bereinigung/Standardisierung, Gold-bereitstellung für Power BI, SQL Warehouse und ML/GenAI-Apps. - Mehrformat-Ingestion: Metadata-getriebene Orchestrierung in ADF aufgebaut (modulares Framework) für SQL, CSV, Excel, APIs, Parquet, XML – mit automatischem Policy-Enforcement.
Beispiel: Einheitliche Ingest-Pfade je Quelle, inkl. Schemakontrolle, Typ-Normalisierung und Logging.
- Dimensional & 3NF: Analytics-Modelle als Star/Snowflake, operative Lesemuster in 3NF.
Beispiel: Einkaufs-Data Mart (Fakt: Orders; Dimensionen: Supplier, Material, Zeit) für KPI-Reporting. - Historisierung & Time-Travel: SCD1/2-Schicht als wiederverwendbarer Baustein implementiert.
Beispiel: Änderungen in Lieferantenstammdaten versioniert, Audits & Trendanalysen ermöglicht.
- Unity Catalog: Mandanten-/Domänenstruktur gespiegelt, RBAC/ABAC, Data Lineage, Audit-Logs.
Beispiel: Rollen & Policies entlang der Organisationsstruktur (19 Fachbereiche) definiert; SCIM-Provisioning für Nutzer-/Gruppenverwaltung. - PII & Compliance: PII-Handling aus HR und Zutrittsmanagement (Maskierung, Zweckbindung, Aufbewahrung).
- Data Contracts & DQ: Verträge für Schemas, SLAs und DQ-Regeln eingeführt; Health-Checks und KPI-Dashboards für Transparenz.
- Schema-Evolution & „Late/Dirty Data“: Konfliktbehandlung in Ingest-/Refine-Stufe, automatische Reconciliation & Alerts.
- Streaming: Nahe Echtzeit-Pipelines für Building-Management-Systeme (Telemetrie) in Delta-Tabellen konsolidiert.
- Azure Databricks: Delta Lake, Unity Catalog, Workflows, SQL Warehouse, Delta Live Tables (DLT).
- Azure Data Factory (ADF): Orchestrierung, Parametrisierung, Wiederverwendung – Framework-Bausteine für neue Quellen.
- Storage: ADLS Gen2 / Blob; CI/CD (Azure DevOps, GitHub Actions), Terraform für IaC.
- Sprachen/Libs: Python, SQL, PySpark; Tests mit pytest, Typisierung/Linting.
- Account-Betrieb: Workspace-Security, Cluster Policies, Kostenkontrolle; Skalierung auf zusätzliche Business Units.
- Kooperation: Enge Arbeit mit IT-POs der Quellen und dem Governance-Team; Priorisierung nach Business Value.
- Doku & Veröffentlichung: Technische/funktionale Dokumentation, Runbooks, Playbooks; regelmäßige Updates.
- Enablement: Schulungen/„Show & Tell“, Vorlagen & Templates für Self-Service in Domänenteams.
- Modernisierung Cloud-Plattform, Einführung Unity Catalog, Etablierung Medallion inkl. DQ/Lineage.
- Geschäftsorientierte Lösungen mit HR/Einkauf/Finance; Integration SAP, Ivalua, APIs; klare Schnittstellen & Ownership.
- ESG-Analytics: Technische Projektleitung, Architektur audit-fähig ausgerichtet.
Sprachen
ArabischMutterspracheDeutschverhandlungssicherEnglischverhandlungssicherFranzösischverhandlungssicher
Projekthistorie
Refactoring einer veralteten Datenplattform, Neugestaltung von Prozessen mit Stakeholdern, Entwicklung eines Metadata-Frameworks und technische Projektleitung im ESG-Top-Projekt.
Migration der Datenverarbeitungsinfrastruktur zu Cloud-Lösungen, Entwicklung von Python-Packages für Data Pipelines und Implementierung von Metadaten-Katalogen.
Datenanalyse von Sensorinformationen in intelligenten Textilanwendungen mit Fokus auf Informationsfusion, Zeitreihenanalyse und Data-Pipelining.