21.07.2025 aktualisiert


100 % verfügbar
Data Architect / Engineer / Specialist
Au, Deutschland
Deutschland
Bachelor of ScienceSkills
Big DataBusiness IntelligenceAnalyticsData ArchitectureCloudAWS (Amazon WebServices)AzureHadoopSpark Stream ProcessingDatabricksAzure DatabrickspySparkTerraformFlinkApache Flink Google AnalyticsAdobe Experience PlatformAdjustIOMicrosoft Azureon PremisewebtrekkSAP ERPSalesforceSAP EcomdbtAirflowApache Airflow
Schwerpunkt: Big Data, Business Intelligence, Analytics, Data Architecture, Cloud and on Premise, AWS, Google Cloud, Azure, Airflow, Terraform, Hadoop, PySpark, Spark, Flink, Stream Processing...
Sprachen
DeutschMutterspracheEnglischverhandlungssicher
Projekthistorie
Rolle: Cloud Infrastructure Architekt, Data Architekt, Berater, Entwickler, Dozent, Teamaufbau/Hiring
Aufgaben:
Konzept und Implementierung der Cloud Infrastruktur, Requirements Engineering, Stakeholder Management, Entwicklung Data Pipelines, CICD, GDPR Konzept, Clearing House, Self-Service BI, Weiterbildung und Steuerung interner Entwickler in AWS, (Py-)Spark, Databricks, CICD, Terraform etc., Unterstützung im Teamaufbau und Hiring Prozess, OKRs
Tools:
AWS, Terraform, Databricks, Lambda, Spark/PySpark, Pytest, dbt, Fargate, CodeBuild/CodePipeline, Airflow/MWAA, IAM, KMS, GDPR,
PowerBI
Aufgaben:
Konzept und Implementierung der Cloud Infrastruktur, Requirements Engineering, Stakeholder Management, Entwicklung Data Pipelines, CICD, GDPR Konzept, Clearing House, Self-Service BI, Weiterbildung und Steuerung interner Entwickler in AWS, (Py-)Spark, Databricks, CICD, Terraform etc., Unterstützung im Teamaufbau und Hiring Prozess, OKRs
Tools:
AWS, Terraform, Databricks, Lambda, Spark/PySpark, Pytest, dbt, Fargate, CodeBuild/CodePipeline, Airflow/MWAA, IAM, KMS, GDPR,
PowerBI
Themen: Big Data, Data Science, Analytics, DWH
Tools:
Azure, AWS, Google Cloud, Pentaho Data Integration, Airflow, Hadoop, Spark, Hive, PySpark, MapReduce, Docker, ...
Tools:
Azure, AWS, Google Cloud, Pentaho Data Integration, Airflow, Hadoop, Spark, Hive, PySpark, MapReduce, Docker, ...
Rolle: Cloud Infrastructure Architekt, Data Architekt, Berater, Entwickler, Dozent, Teamaufbau/Hiring
Aufgaben:
Konzept und Implementierung der Cloud Infrastruktur, Requirements Engineering, Stakeholder Management, Entwicklung Data Pipelines, CICD, GDPR Konzept, Clearing House, Weiterbildung und Steuerung interner Entwickler in Azure, (Py-)Spark, Databricks, CICD etc., Unterstützung im Teamaufbau und Hiring Prozess, OKRs
Tools:
AWS, Terraform, Databricks, Unity, Terraform, Spark/PySpark, Pytest, Kubernetes/EKS, Helm, Fargate, dbt, dbt docs, elementary, CodeBuild/CodePipeline, Airflow/MWAA, AirByte, Bedrock, OpenWebUI, Ollama, ChromaDB, LLM, Sagemaker, VPC/Network, KMS, IAM, Lambda, PowerBI
Aufgaben:
Konzept und Implementierung der Cloud Infrastruktur, Requirements Engineering, Stakeholder Management, Entwicklung Data Pipelines, CICD, GDPR Konzept, Clearing House, Weiterbildung und Steuerung interner Entwickler in Azure, (Py-)Spark, Databricks, CICD etc., Unterstützung im Teamaufbau und Hiring Prozess, OKRs
Tools:
AWS, Terraform, Databricks, Unity, Terraform, Spark/PySpark, Pytest, Kubernetes/EKS, Helm, Fargate, dbt, dbt docs, elementary, CodeBuild/CodePipeline, Airflow/MWAA, AirByte, Bedrock, OpenWebUI, Ollama, ChromaDB, LLM, Sagemaker, VPC/Network, KMS, IAM, Lambda, PowerBI