10.11.2025 aktualisiert


verifiziert
Premiumkunde
100 % verfügbarData-Engineer, Data Architect, Backend-Developer
Darmstadt, Deutschland
Weltweit
B.Sc. InformatikSkills
HadoopKubernetesOpenshiftApache AirflowApache Spark/ KafkaDatabricksGCPAzure Data FactoryAzure CloudKubernetes clustersBig Data Engineering
--- ENGLISH TEXT BELOW ---
GERMAN
Ich bin erfahrener Freelance Data Engineer und Cloud-Architekt mit über 8 Jahren Praxiserfahrung in der Softwareentwicklung und Datenverarbeitung. Meine Schwerpunkte liegen auf dem Aufbau skalierbarer Dateninfrastrukturen, der Entwicklung robuster ETL-Pipelines sowie der Implementierung von Data-Lake- und Data-Warehouse-Lösungen für Unternehmen in regulierten Industrien wie Bankwesen, Chemie, Logistik und Finanzdienstleistungen.
Ich habe umfangreiche Erfahrung mit der Verarbeitung großer Datenmengen (Big Data), insbesondere im Kontext von Anti-Geldwäsche-Analysen, regulatorischem Reporting und internen Analyseplattformen. Mein Technologie-Stack umfasst dabei insbesondere Apache Spark (PySpark und Java API), Apache Airflow, Kafka, Delta Lake, Hive, SQL-basierte Data Warehouses wie BigQuery oder Databricks SQL, sowie Cloud-Plattformen wie Google Cloud (GCP) und Microsoft Azure.
Ich unterstütze Unternehmen beim Entwurf und der Umsetzung moderner Datenarchitekturen und übernehme bei Bedarf auch die technische Leitung kleiner Teams. Agile Arbeitsweisen, Infrastructure-as-Code, CI/CD (z. B. mit GitHub Actions, Azure DevOps oder Jenkins) sowie Containerisierung mit Kubernetes sind fester Bestandteil meiner Projekte.
Typische Leistungen:
---
---
ENGLISH
I am an experienced freelance Data Engineer and Cloud Architect with over 8 years of hands-on experience in software development and data engineering. My core focus is on designing scalable data infrastructures, developing robust ETL pipelines, and implementing data lake and data warehouse solutions for enterprises across regulated industries such as banking, finance, logistics, and chemicals.
I bring extensive experience in processing large-scale datasets (Big Data), particularly for anti-money laundering analytics, regulatory reporting, and internal analytics platforms. My technology stack centers around Apache Spark (PySpark and Java API), Apache Airflow, Kafka, Delta Lake, Hive, and SQL-based data warehouses such as BigQuery and Databricks SQL, deployed on cloud platforms like Google Cloud (GCP) and Microsoft Azure.
I support clients in designing and building modern data architectures and can lead small technical teams if required. Agile methodologies, infrastructure-as-code, CI/CD (e.g., GitHub Actions, Azure DevOps, Jenkins), and containerization with Kubernetes are integral parts of my project delivery.
Core services:
GERMAN
Ich bin erfahrener Freelance Data Engineer und Cloud-Architekt mit über 8 Jahren Praxiserfahrung in der Softwareentwicklung und Datenverarbeitung. Meine Schwerpunkte liegen auf dem Aufbau skalierbarer Dateninfrastrukturen, der Entwicklung robuster ETL-Pipelines sowie der Implementierung von Data-Lake- und Data-Warehouse-Lösungen für Unternehmen in regulierten Industrien wie Bankwesen, Chemie, Logistik und Finanzdienstleistungen.
Ich habe umfangreiche Erfahrung mit der Verarbeitung großer Datenmengen (Big Data), insbesondere im Kontext von Anti-Geldwäsche-Analysen, regulatorischem Reporting und internen Analyseplattformen. Mein Technologie-Stack umfasst dabei insbesondere Apache Spark (PySpark und Java API), Apache Airflow, Kafka, Delta Lake, Hive, SQL-basierte Data Warehouses wie BigQuery oder Databricks SQL, sowie Cloud-Plattformen wie Google Cloud (GCP) und Microsoft Azure.
Ich unterstütze Unternehmen beim Entwurf und der Umsetzung moderner Datenarchitekturen und übernehme bei Bedarf auch die technische Leitung kleiner Teams. Agile Arbeitsweisen, Infrastructure-as-Code, CI/CD (z. B. mit GitHub Actions, Azure DevOps oder Jenkins) sowie Containerisierung mit Kubernetes sind fester Bestandteil meiner Projekte.
Typische Leistungen:
- Aufbau und Skalierung von Data Lakes und Data Warehouses in der Cloud
- Entwicklung von ETL- und Streaming-Pipelines (Spark, Kafka, Airflow)
- Automatisierung von Datenanalyseprozessen und Reporting-Plattformen
- Cloud-Architekturberatung (GCP, Azure)
- Backend-Entwicklung für datengetriebene Webanwendungen (Spring Boot, Flask, Django)
- Modernisierung von Legacy-Systemen und Migration in Cloudumgebungen
- Cloud: GCP, Azure, Azure DevOps, GKE, Databricks
- Data: Apache Spark, PySpark, Airflow, Delta Lake, Hive, HDFS, Kafka, SQL (BigQuery, Databricks SQL, SAP HANA, Oracle, MSSQL)
- Web & Automation: Spring Boot, Flask, Django, Docker, Kubernetes, GitHub Actions, Jenkins
---
---
ENGLISH
I am an experienced freelance Data Engineer and Cloud Architect with over 8 years of hands-on experience in software development and data engineering. My core focus is on designing scalable data infrastructures, developing robust ETL pipelines, and implementing data lake and data warehouse solutions for enterprises across regulated industries such as banking, finance, logistics, and chemicals.
I bring extensive experience in processing large-scale datasets (Big Data), particularly for anti-money laundering analytics, regulatory reporting, and internal analytics platforms. My technology stack centers around Apache Spark (PySpark and Java API), Apache Airflow, Kafka, Delta Lake, Hive, and SQL-based data warehouses such as BigQuery and Databricks SQL, deployed on cloud platforms like Google Cloud (GCP) and Microsoft Azure.
I support clients in designing and building modern data architectures and can lead small technical teams if required. Agile methodologies, infrastructure-as-code, CI/CD (e.g., GitHub Actions, Azure DevOps, Jenkins), and containerization with Kubernetes are integral parts of my project delivery.
Core services:
- Design and scaling of data lakes and data warehouses in the cloud
- Development of ETL and streaming pipelines (Spark, Kafka, Airflow)
- Automation of data analysis workflows and reporting platforms
- Cloud architecture consulting (GCP, Azure)
- Backend development for data-driven web applications (Spring Boot, Flask, Django)
- Modernization of legacy systems and cloud migration
- Cloud: GCP, Azure, Azure DevOps, GKE, Databricks
- Data: Apache Spark, PySpark, Airflow, Delta Lake, Hive, HDFS, Kafka, SQL (BigQuery, Databricks SQL, SAP HANA, Oracle, MSSQL)
- Web & Automation: Spring Boot, Flask, Django, Docker, Kubernetes, GitHub Actions, Jenkins
Sprachen
ChinesischGrundkenntnisseDeutschMutterspracheEnglischverhandlungssicher