04.11.2025 aktualisiert

**** ******** ****
verifiziert
Premiumkunde
100 % verfügbar

Senior Business Intelligence Consultant | Data Engineer

Hamburg, Deutschland
Deutschland
Diplom-Wirtschaftsinformatiker
Hamburg, Deutschland
Deutschland
Diplom-Wirtschaftsinformatiker

Skills

Berufserfahrung:
Mehr als 14 Jahre Consultant im Bereich Business Intelligence und Data Engineering

Ausbildung:
Diplom-Wirtschaftsinformatiker (Univ.)

Aufgabenschwerpunkt:
Datenintegration / Data Warehouse / Business Intelligence

Beratungsschwerpunkte
  1. Anforderungs- und Quelldatenanalyse
  2. Fachliche und Technische Konzeption
  3. Entwicklung von ETL- und Datenintegrationsprozessen
  4. Datenmodellierung & Data Warehouse Architektur
  5. Reportdesign
  6. Performanceoptimierung
  7. Durchführung von Anwendertrainings

Methoden
  1. Konzeptionelle Modellierung von Datenintegrationsprozessen
  2. DWH Datenmodellierung (3NF, Multidimensional, Data Vault)
  3. Dashboard- und Reportdesign
  4. Best Practices der Anwendung von cloud-basierten und On-Premise Business Intelligence / Data Engineering Technologien
  5. Generische Entwicklung, Pattern-Design, Metadateninjektion
  6. Continuous Integration / Continuous Delivery (CI/CD)
  7. Testautomatisierung
  8. Agile Vorgehensmodelle (SCRUM, Kanban, etc.)

Branchenerfahrungen
  1. Finanzindustrie
  2. Versicherung
  3. Handel
  4. Industrie
  5. Telekommunikation
  6. Logistik

Technologien

Cloud Plattformen
  1. Microsoft Azure Data Engineering
  2. Amazon Web Services (S3, EMR, EKS)
Datenintegration
  1. Microsoft Azure Data Factory (ADF)
  2. Microsoft Azure Synapse
  3. Microsoft Fabric
  4. Apache Airflow
  5. Databricks
  6. PySpark
  7. Microsoft SQL Server Integration Services (SSIS)
  8. Informatica PowerCenter
  9. SAP Data Services (SAPDS, BODS)

BI Plattformen / Reporting
  1. Microsoft Business Intelligence
  2. Microsoft Power BI
  3. Microsoft Power Query / Power Pivot / DAX
  4. Dremio
  5. SAP BusinessObjects (Universen, Web Intelligence, Crystal Reports)

Datenbanken
  1. Microsoft SQL Server
  2. Microsoft Azure SQL Database
  3. Microsoft Azure Data Lake
  4. Microsoft Azure Blob Storage
  5. Oracle
  6. Exasol
  7. Firebase / Firestore

Programmiersprachen
  1. SQL (Ansi-SQL, T-SQL, PL/SQL)
  2. Python
  3. PowerShell
  4. JavaScript/TypeScript & Frameworks (Angular, Ionic)
  5. HTML/CSS
  6. Business Intelligence Markup Language (BIML)

Sonstiges
  1. Versionierung: Git, SVN
  2. DevOps: Azure DevOps, Github, Gitlab, CI/CD, CircleCI
  3. Testautomatisierung: Cypress
  4. Datenformate: CSV, Parquet, XML, JSON, SWIFT Standards

Sprachen

DeutschMutterspracheEnglischverhandlungssicher

Projekthistorie

Senior Business Intelligence Consultant | Architect

Healthcare Provider

Pharma und Medizintechnik

10-50 Mitarbeiter

Projektbeschreibung:
Strategische Neuausrichtung und Modernisierung einer historisch gewachsenen Reporting-Landschaft auf Basis von Microsoft Power BI und Excel. Ziel ist die Ablösung manueller, fehleranfälliger Prozesse durch eine zentrale, automatisierte BI-Lösung, um die Steuerung eines KPI-getriebenen Abo-Modells (Vertriebs-Funnel, Deckungsbeiträge) zu professionalisieren und eine verlässliche "Single Source of Truth" zu etablieren.

Aufgabenschwerpunkte:
  1. Strategische Beratung der Geschäftsführung bei der Definition der BI-Roadmap und der Ablösung von Insellösungen
  2. Fachliche Konzeption und Abbildung zentraler Geschäftsprozesse und KPIs (Vertriebs-Funnel von Lead zu Zahler, Deckungsbeitragsrechnung, Churn-Analyse, Partner-Abrechnung)
  3. Analyse und Reverse Engineering komplexer, VBA-gesteuerter Excel-Anwendungen zur Identifikation von Geschäftslogik, Datenflüssen und Datenqualitätsproblemen.
  4. Konzeption und Umsetzung eines Proof of Concept (POC) zum Neuaufbau einer zentralen Auswertung unter Nutzung der Microsoft BI-Plattform (Power Query, Power Pivot, DAX)
  5. Entwicklung eines robusten Datenmodells nach dem Sternschema
  6. Erstellung und Bereitstellung interaktiver Dashboards in Power BI zur Visualisierung der zentralen KPIs für das Management
  7. Projektmanagement und Koordination der Zusammenarbeit mit verschiedenen Stakeholdern (Vorstand, Kaufmännische Leitung, externe Entwickler)
Systemumgebung: Microsoft Business Intelligence (Power BI, Power Pivot, Power Query, DAX), Excel, FileMaker

Senior Data Engineer - AWS Delta Lake

Modeunternehmen

Konsumgüter und Handel

1000-5000 Mitarbeiter

Projektbeschreibung
Mitarbeit an der Migration einer komplexen, über 12 Jahre gewachsenen Data-Warehouse-Landschaft (SQL Server) in eine moderne Lakehouse-Architektur auf AWS-Basis. Unterstützung bei der Umsetzung von ETL-Strecken zur Berechnung analytischer Kennzahlen im Umfeld von Logistik, E-Commerce, CRM und SAP. Ziel war die Neugestaltung der Datenarchitektur im Zuge der SAP-Einführung und der Ablösung der Altsysteme.
Aufgabenschwerpunkte
  1. Entwicklung von ETL-Prozessen zur Transformation und Harmonisierung von Daten aus SQL Server, SAP, DynamoDB, JSON/APIs Durchführung von Architektur Reviews
  2. Evaluierung von Microsoft Fabric als potenzielle Ergänzung zur AWS-Architektur
  3. Entwicklung von Power BI Datasets inkl. Modellierung, DAX-Logik und Anbindung über Dremio
  4. Beratung hinsichtlich Best Practices im Umgang mit PySpark, z. B. Partitionierung, Performance-Tuning, Fehlerbehandlung
  5. Umsetzung inkrementeller Kennzahlberechnungen inkl. Historisierungslogik für Kunden- und Transaktionsdaten
  6. Verarbeitung von strukturierten und semi-strukturierten Daten mit PySpark in einer generischen, servicebasierten Architektur
  7. Unterstützung bei Testing und Debugging in einer CI/CD-Pipeline mit CircleCI, Pull-Request-Workflows und QA-Verfahren
  8. Arbeiten in einer reinen Code-basierten Umgebung (VSCode, Jupyter, Git, Jira)

Systemumgebung: AWS (S3, EMR, EKS), PySpark, Delta Lake (Open Source), Snowflake, Microsoft Fabric, Apache Airflow, Dremio, Power BI, CircleCI, VSCode, JIRA, Confluence, Bitbucket

Senior Data Engineer - Microsoft Azure Databricks

Finanzdienstleister

Banken und Finanzdienstleistungen

1000-5000 Mitarbeiter

Propjektbeschreibung
Technische Bewertung und detaillierte Analyse der Datenplattform für quantitatives Investing. Ziel ist die Vorbereitung des Upgrades und der technischen Transformation in den Bereichen Datawarehouse, Datenquellen, Output & Visualisierung, Job Scheduling, Change Control & SDLC, Operating Model, NFR's und IT Compliance.

Aufgabenschwerpunkte
  • Durchführung von Proof-of-Concepts
  • Durchführung von Architektur Reviews
  • Unterstützung bei der Toolauswahl
  • Bestandsaufnahme der technischen Objekte
  • Erstellung eines Implementierungsplans für die ETL- bzw. Datenintegrationsprozesse


Systemumgebung: Microsoft Azure Databricks, Microsoft Azure Data Factory, Python, SQL Server

Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden