28.10.2025 aktualisiert

**** ******** ****
Premiumkunde
100 % verfügbar

Senior Data Engineer, Senior Java Engineer, Kubernetes, Kafka

Wien, Österreich
Deutschland +1
Master of Computer Science
Wien, Österreich
Deutschland +1
Master of Computer Science

Profilanlagen

Akhtarshenas_Hamid_CV.pdf

Skills

Java 21, OO-Design und OO-Programmierung, Data Pipeline Development, ETL/ELT, Event-Driven Architecture, Kubernetes, Openshift, Apache Kafka, IBM Infosphere Data Replicator, Change Data Capture (CDC), Custom Tracing (PostgreSQL-basiert), OpenTelemetry (Grundlagen), TCC-Transaktionsmonitoring, Exactly-Once-Verarbeitung mit Kafka, Idempotenz-Patterns, Databrickes, apache Spark, Self-Healing-Designs, agile Entwicklung (SCRUM), JEE, Microservices, Spring, Spring Boot, REST, Jenkins CI/CD, GitLab, MAVEN, Bitbucket, Confluence, Jira, Prometheus, Grafana
IBM Message Broker (EAI), JBoss, Apache Camel, Drools, COBOL

Sprachen

DeutschMutterspracheEnglischverhandlungssicher

Projekthistorie

Senior Data Engineer, Senior Java Engineer

IBM

Internet und Informationstechnologie

250-500 Mitarbeiter

Entwicklung einer Echtzeit-Datenpipeline mit TCC- konformer Architektur
(Transaction Consistency Consuming)
Designed und implementierte eine skalierbare Echtzeit-Datenpipeline zur
Extraktion von Daten aus DB2 mittels IBM IIDR in Apache Kafka,
Entwickelte einen Spring Boot Microservice (Kafka Consumer), deployt auf 
OpenShift, zur Transformation und Anreicherung der Daten unter Einhaltung des 
TCC-Patterns (Transaction Consistency Consuming) für transaktionale 
Konsistenz in verteilten Systemen
Entwickelte einen Spring Boot Microservice, deployt auf OpenShift, zur 
Verifizierung der Daten auf Grund der definierten Kriterien zwischen DB2 und 
Postgres (Resiliente ETL-Architekturen)

Entwickelte eine „custom Tracing-Lösung“ für eine „Echtzeit-ETL-Pipeline“ mit 
TCC-Pattern (Try-Confirm-Cancel), um Transaktionskonsistenz über Kafka, DB2 
und PostgreSQL sicherzustellen.
Implementierte eine **PostgreSQL-basierte Audit-Tabelle** unter anderem mit 
folgenden Daten zur Korrelation von:
• Kafka-Offsets (Consumer-Position),
• Postgres-OIDs (betroffene Datensätze),
• Transaktions-IDs (UUIDs) und Event-Payloads.
Ermöglichte **Debugging von Dateninkonsistenzen** in Produktion und 
garantierte **Exactly-Once-Semantik** durch Idempotenz-Checks.

Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden