24.10.2025 aktualisiert


verifiziert
Premiumkunde
100 % verfügbarData Engineer
Gröbenzell, Deutschland
Weltweit
Dipl-Ing. Informationstechnik (Universität)Über mich
Daten sind meine Leidenschaft – von der Erfassung, Speicherung, Transformation, Analyse bis hin zur Präsentation. Seit mehr als 30 Jahren konzipiere und realisiere ich komplexe Datenbank- und Data Warehouse-Systeme für führende internationale Konzerne.
Skills
Sql Data WarehouseMicrosoft Analysis ServicesKünstliche IntelligenzData AnalysisMicrosoft AzureC#DatenbankenETLData TransformationDatenmodellDatenspeicherData WarehousingPythonPostgresqlMachine LearningMicrosoft Sql-ServerSql AzureWindows PowershellPower BiAzure Machine LearningAzure Data LakeScalaVaultSQLSQL Server Reporting ServicesSQL Server Integration ServicesSQL Server Analysis ServicesTransact-SqlAzure Data FactoryApache SparkData LakePysparkDatabricks
Schwerpunktthemen:
- Datenmodellierung
- Datenspeicherung
- Datentransformation
- Datenanalyse
- Datenpräsentation
Technologien:
- Data Warehouse
- Datenbanken
- Data Lake/Delta Lake
- Extract Transform Load (ETL/ELT)
- Machine Learning/AI
Tools (Auswahl):
- Microsoft Azure
- Synapse Workspace
- Databricks
- Data Factory
- Power BI
- Storage Accounts
- Azure Key Vault
- Azure Event Grid
- Azure Function
- Azure SQL VM, SQL Databases
- Azure PostgreSQL
- Azure VM
- CosmosDB
- Azure ML
- On Premise
- SQL Server (Datenbank, SSIS, SSRS, SSAS)
- Power BI-Desktop
Programmiersprachen (Auswahl)
- Python
- Spark/PySpark
- Scala
- T-SQL, MDX, DAX, …
- C#
- PowerShell
Sprachen
DeutschMutterspracheEnglischverhandlungssicher
Projekthistorie
Im Data Engineering Platform Team der E.ON sind meine Hauptaufgaben
- Aufbau neuer und Optimierung bestehender Azure Data Factory (ADF) Pipelines
- Operative Betreuung der ADF Pipelines
- Weiterentwicklung des metadatengetriebenen Frameworks auf Basis dessen die ADF agiert (SQL Server)
- Anbindung neuer Quellsysteme an Snowflake mit ADF, Fivetran oder anderen Tools
- Teilnahme an Projektmeetings im Rahmen des Scrum Prozesses. Dies schließt Daily Meetings, Sprint Review und Retrospektive ein.
- Koordination mit internen und externen Kollegen/Innen im Rahmen der übertragenen Arbeitspakete
Als Teilbereich des Mercedes Benz-Konzern ist die Sparte „Automotive Mobility“ für die Vermietung und Verkauf von Fahrzeugen verantwortlich und bietet weitere Serviceleistungen an. Das Unternehmen ist seit 2016 am Markt aktiv und hat inzwischen mehr als 100 Mitarbeiter.
Schwerpunkte meiner Tätigkeit
Schwerpunkte meiner Tätigkeit
- Entwurf, Erstellung und Pflege von Datenpipelines und Workflows unter Verwendung von Databricks und Azure Data Factory um Daten aus verschiedenen Quellen in unserer Datenplattform zu verarbeiten.
- Entwicklung von Datenintegrationsprozessen zur Gewährleistung eines reibungslosen Datenflusses zwischen verschiedenen Systemen und Anwendungen.
- Implementierung von Datenqualitätsprüfungen und Validierungsverfahren zur Identifizierung und Behebung von Dateninkonsistenzen, Fehler und Anomalien.
- Optimieren der Datenverarbeitung und -speicherung im Hinblick auf Leistung, Skalierbarkeit und Kostenoptimierung.
- Überwachen von Datenpipelines, Beheben von Problemen und Sicherstellen einer rechtzeitigen Lösung zur Minimierung von Ausfallzeiten und Datenverlust zu minimieren.
- Erstellen von CI/CD-Pipelines mit GitHub-Aktionen
- Enge Zusammenarbeit mit Stakeholdern, um deren Datenanforderungen zu verstehen und ihnen zuverlässige und hochwertige Daten für Analysen und Berichte.
- Erstellen Sie interaktive und visuell ansprechende Dashboards und Berichte mit Power BI, um Einblicke und wichtige Leistungsindikatoren (KPIs) an Stakeholder zu kommunizieren
Zur Steuerung der Planung von neuen Anlagen für regenerative Energien hat der Kunde ein Projekt mit dem Namen „Global Projects Pipeline Analytics Plattform“ initiiert um vorhanden Daten aus dem Planungsprozess aufzubereiten und allen Mitarbeitern zur Verfügung zu stellen.
Meine Aufgabe im Projekt besteht darin, das vorhandene Datenmodell zu Optimieren und für neue Aufgaben zu optimieren wie z. B.
Skalierbarkeit
Meine Aufgabe im Projekt besteht darin, das vorhandene Datenmodell zu Optimieren und für neue Aufgaben zu optimieren wie z. B.
Skalierbarkeit
- Erweiterung der bisher unterstützten Technologien
- Hybride Projekte: Kombination mit verschiedenen Technologien
- Integration weiterer Use Cases mit unterschiedlichen Anforderungen
- Unterstützung kleinerer Zeiträume zur Datenverarbeitung
- Definieren von Beziehungen zwischen den Tabellen
- Integration weiterer Datenquelle
- Optimierung der Speicherung von Daten (Datentypen)
- Neues Konzept für die Historisierung von Daten
- Darstellung von Datenänderungen über den zeitlichen Verlauf