28.10.2025 aktualisiert


Premiumkunde
100 % verfügbarSenior Data Engineer, Senior Java Engineer, Kubernetes, Kafka
Wien, Österreich
Deutschland +1
Master of Computer ScienceSkills
JavaJBossData EngineeringSpring BootkubernetesCloudKafkaRedHat OpenShift CloudCloud data architectDatabricks
Java 21, OO-Design und OO-Programmierung, Data Pipeline Development, ETL/ELT, Event-Driven Architecture, Kubernetes, Openshift, Apache Kafka, IBM Infosphere Data Replicator, Change Data Capture (CDC), Custom Tracing (PostgreSQL-basiert), OpenTelemetry (Grundlagen), TCC-Transaktionsmonitoring, Exactly-Once-Verarbeitung mit Kafka, Idempotenz-Patterns, Databrickes, apache Spark, Self-Healing-Designs, agile Entwicklung (SCRUM), JEE, Microservices, Spring, Spring Boot, REST, Jenkins CI/CD, GitLab, MAVEN, Bitbucket, Confluence, Jira, Prometheus, Grafana
IBM Message Broker (EAI), JBoss, Apache Camel, Drools, COBOL
Sprachen
DeutschMutterspracheEnglischverhandlungssicher
Projekthistorie
Entwicklung einer Echtzeit-Datenpipeline mit TCC- konformer Architektur
(Transaction Consistency Consuming)
Designed und implementierte eine skalierbare Echtzeit-Datenpipeline zur
Extraktion von Daten aus DB2 mittels IBM IIDR in Apache Kafka,
Entwickelte einen Spring Boot Microservice (Kafka Consumer), deployt auf
OpenShift, zur Transformation und Anreicherung der Daten unter Einhaltung des
TCC-Patterns (Transaction Consistency Consuming) für transaktionale
Konsistenz in verteilten Systemen
Entwickelte einen Spring Boot Microservice, deployt auf OpenShift, zur
Verifizierung der Daten auf Grund der definierten Kriterien zwischen DB2 und
Postgres (Resiliente ETL-Architekturen)
Entwickelte eine „custom Tracing-Lösung“ für eine „Echtzeit-ETL-Pipeline“ mit
TCC-Pattern (Try-Confirm-Cancel), um Transaktionskonsistenz über Kafka, DB2
und PostgreSQL sicherzustellen.
Implementierte eine **PostgreSQL-basierte Audit-Tabelle** unter anderem mit
folgenden Daten zur Korrelation von:
• Kafka-Offsets (Consumer-Position),
• Postgres-OIDs (betroffene Datensätze),
• Transaktions-IDs (UUIDs) und Event-Payloads.
Ermöglichte **Debugging von Dateninkonsistenzen** in Produktion und
garantierte **Exactly-Once-Semantik** durch Idempotenz-Checks.
(Transaction Consistency Consuming)
Designed und implementierte eine skalierbare Echtzeit-Datenpipeline zur
Extraktion von Daten aus DB2 mittels IBM IIDR in Apache Kafka,
Entwickelte einen Spring Boot Microservice (Kafka Consumer), deployt auf
OpenShift, zur Transformation und Anreicherung der Daten unter Einhaltung des
TCC-Patterns (Transaction Consistency Consuming) für transaktionale
Konsistenz in verteilten Systemen
Entwickelte einen Spring Boot Microservice, deployt auf OpenShift, zur
Verifizierung der Daten auf Grund der definierten Kriterien zwischen DB2 und
Postgres (Resiliente ETL-Architekturen)
Entwickelte eine „custom Tracing-Lösung“ für eine „Echtzeit-ETL-Pipeline“ mit
TCC-Pattern (Try-Confirm-Cancel), um Transaktionskonsistenz über Kafka, DB2
und PostgreSQL sicherzustellen.
Implementierte eine **PostgreSQL-basierte Audit-Tabelle** unter anderem mit
folgenden Daten zur Korrelation von:
• Kafka-Offsets (Consumer-Position),
• Postgres-OIDs (betroffene Datensätze),
• Transaktions-IDs (UUIDs) und Event-Payloads.
Ermöglichte **Debugging von Dateninkonsistenzen** in Produktion und
garantierte **Exactly-Once-Semantik** durch Idempotenz-Checks.