01.07.2025 aktualisiert

**** ******** ****
100 % verfügbar

Erfahrener Java Kotlin Python Backend & Cloud Engineer / Entwickler, Architekt & Fullstack Developer

Wentorf, Deutschland
Weltweit
Diplom Informatiker
Wentorf, Deutschland
Weltweit
Diplom Informatiker

Profilanlagen

IT PROFIL - CV en.docx
IT PROFIL - CV.docx

Skills

FlutterHTMLJavaJavascript.Net Framework4G (Telecommunication)WLANActive DirectoryApache ActivemqAPIsKünstliche IntelligenzAkkaXmlspyAmazon Web ServicesAndroidApache AntApache TomcatApple IOSApple Mac SystemsKünstliche Neurale NetzwerkeConfluenceJiraHtml5AuthenticationsMicrosoft AzureBash ShellBig DataC#UNIXC++UbuntuCSSCentosCloud ComputingCloud-EngineeringMicrosoft Commerce ServersContinuous IntegrationETLRelationale DatenbankenLinuxDevopsDocument Object ModelDroolsE-BusinessEclipsePerlJ2EEVmware ESX ServerFailoverGithubGradleGroovyGrailsHazelcastHibernateWebserverHyper-VIphone AppsJava EE Connector ArchitectureJasperreportsJava Management ExtensionsJava Message ServiceJava Persistence APISpring FrameworkJsonJaxbWildflyJavaserver FacesJavaserver PagesPythonKerberosLDAPPostgresqlMachine LearningApache MavenSql AzureMicrosoft Windows MobileMongodbMulticastMVCNexus 1000VNginxNode.JsOauthOpenidOpenldapOpenshiftOracle FinancialsScrumProtelQuick EMUlator (QEMU)Role Based Access ControlRed Hat Enterprise LinuxAzure Active DirectoryDropwizardMarkdownAnsibleTensorflowPrometheusAngular 2+Next.jsSAP ApplicationsSap HanaSAP R/3SeleniumSOAPSolarisSonarqubeVaultStored ProcedurePL/SQLSQLSchablonierenStreamingTypescriptUMLVaadinVagrantWekaExtensible Markup LanguageXLSTYAMLOpenapiXamarinGoogle CloudApache YarnSpring CloudPytorchAutoscalingDocker SwarmReactJSIstioGrafanaSpringbootGatlingBapiPuppeteer (Software)BackendGitlabGitFastapiIntershopVue.JsGauge (Software)KotlinKanbanAngularJSOdooMaterial UIKubernetesFidelioApache KafkaReact NativeFront EndCoreosUnreal EngineKibanaRestful ApisTerraformCucumber (Software)Atlassian BambooEnterprise Service BusDockerJenkinsVmwareSmart TVMicroservices
  • Java und Spring: Kontinuierliche Nutzung seit 1996 Java / Spring 2005+ in diversen Projekten.
  • AI: Seit 2016 – (Autonome) Modele, Integration, Optimierung, Training, Overlays, Neural Networks
  • Cloud-Technologien: Umfassende Erfahrung in Google Cloud, OpenShift, Amazon AWS, Microsoft Azure.
  • Kubernetes: Extrem hohes Know-how seit 2014, inklusive Istio und GitOps (ArgoCD).
  • Microservices: Langjährige Projekterfahrung im Bereich der Cloud & Microservices-Architektur.
  • Datenbanken: 19 Jahre Projekterfahrung mit RDBMS (Oracle, PostgreSQL, etc.) und dokumentenorientierten Datenbanken (MongoDB, OrientDB).
  • Framework-Vielfalt: Umfangreiche Erfahrung mit verschiedenen Java-Frameworks (Spring, Quarkus, Hibernate, Dropwizard, etc.).
  • Web-Technologien: Erfahrung mit HTML, JavaScript, CSS, sowie Frameworks wie Angular, Vue.js, React (einschließlich TypeScript), Material UI, Storybook, Stencil
  • Native Apps / Cross Plattform: React Native, Flutter, Xamarin
  • Cloud-Events und Messaging: Tägliche Nutzung und Entwicklung im Bereich Pub/Sub, Kafka, JMS und CloudEvents.
  • OIDC/OAuth: Umfassende Erfahrung im Web-Authentication-Umfeld mit verschiedenen Anbietern wie Keycloak und Integration von OIDC/OAuth2, Flows, Token, Verschlüsselung und Customizing
  • DevOps-Tools: Regelmäßige Verwendung und Integration von Build-Systemen wie Gradle, Maven, Ant, sowie Erfahrung und Nutzung mit DevOps-Tools wie GitHub, GitLab, Jira, Bamboo, Tekton.
  • Sprachen und Plattformen: Langjährige Erfahrung mit C/C++, C#, Go, sowie iOS, Android und verschiedenen Unix-basierten Systemen.
  • AI und Machine Learning: Implementierung von AI-Anwendungen mit TensorFlow, Torch, DL4J, Weka & MOA, und AWS AI, Modelen, Nutzung und Einbindung in Applikationen
  • SAP: Erfahrung im SAP R/3 Umfeld inklusive Web, BAPI und JCO Anbindung.
  • Virtualisierung: Kenntnisse in verschiedenen Virtualisierungsplattformen wie Kubernetes, Docker, VMware/ESX, Vagrant, QEMU, HyperV etc.
  • Agiles Arbeiten: Erfahrung in SCRUM/KANBAN-Projekten mit verschiedenen Tools.
  • Architektur und Planung: Umfangreiches praktisches Wissen in der Architektur, Planung, Durchführung und Qualitätssicherung von Projekten.
  • Sprachen: Deutsch (Muttersprache), Englisch (Arbeitssprache), Russisch.

Übersicht der technischen Skills:
.Net, 4G, API, Active Directory, agiler Methoden, Akka, Amazon AWS, Android, Angular2, Angular4, Angular, AngularJS, Angular JS, Ansible, ActiveMQ, Kafka, Maven, Tomcat, Yarn, iOS, MacOS, Assembler, Authentifizierung, Autoscaling, Azure Ad, Backend, BAPI, SAP Bapi, Bash, Big-Data, große Datenmengen, C#, C/C++, C++, CSS, Centos, Cloud-Technologien, Cloud, Hybrid-Cloud, Confluence, kontinuierliche Integration, Continuous Integration, CoreOS, Cucumber, Dateien, Datenbanken, Datenbank, Datenbankreplikation, DevOps, Docker, Docker Swarm, Dom, Drools, Dropwizard, eBusiness, ETL, Eclipse, Enterprise Service Bus, XML, XML-Feeds, Failover, FastAPI, Fidelio, Flutter, Frontend, Gatling, Gauge, Geschäftslogik, Git, GitHub, GitLab, Google Cloud, Gradle, Grafana, Grails, Groovy, HTML, Hazelcast, Hibernate, HTML5, HyperV, IT Infrastruktur, InterShop, Ionic, Mobile-Apps, mobile App, Istio, JEE, Jasper Reports, JasperReports, Java, Java8, Java Connector, JMX, JMS, JPA, JavaScript, Jest, JSF, JSP, JaxB, Jenkins, Jira, JSON, Kerberos, Kibana, Kotlin, Kubernetes, K8s, Kundendaten, AI, Neural Networks, LDAP, Leistungstests, Linux, MVC, Machine Learning, Markdown, Material UI, Microservices, Microsoft Azure, Azure, Azure Cloud, Commerce Server, Windows, Windows Mobile, Entwicklung von Apps, MongoDB, Mongo, Multicast, NextJS, Nexus, Nginx, NodeJs, OAuth, OAuth2, Odoo, OpenAPI, OIDC, OpenLdap, OpenShift, Oracle, plsql, PL SQL, PERL, PostgreSQL, Prometheus, Protel, Puppeteer, Python, Python 3, Pytorch, QEMU, React Native, React, ReactJS, RHEL, RDBMS, RESTful APIs, Restful, Role-Based Access Control, RBAC, SAP, SAP R/3, SAP/R3, SOAP, SQL, SAP S/4 Hana, HANA, SCRUM, Selenium, Serialisierung, Smart TV, Smart-TV, Softwareplattform, Solaris, SonarQube, Spring Cloud, Spring, Spring Boot, SpringBoot, Azure SQL, Stored Procedures, Streaming, Tabellen, TensorFlow, Terraform, TypeScript, UML, Unix, Ubuntu, Unit-Tests, Unreal Engine, Vaadin, Vagrant, Vault, Virtualisierung, Virtualisierungsumgebung, virtuellen Maschinen, VMware, Vue.js, VueJS, WLAN, Web-App, webbasierte, Webserver, Weka, JBOSS, Wildfly, XSLT, Xamarin, XMLSpy, Yaml

Sprachen

DeutschMutterspracheEnglischverhandlungssicherRussischgut

Projekthistorie

Cloud Engineer, Java Backend Dev, Frontend React, Devops Entwickler und Architekt

Techem

Sonstiges

>10.000 Mitarbeiter

In meinem Team bin ich für die digitale Transformation bei unserem Kunden verantwortlich. Dabei liegt mein Fokus einerseits auf der Automatisierung von Prozessen in den Backendsystemen mittels cloudbasierter Anwendungen in Kubernetes, die eine Drools Rules Engine nutzen. Zudem arbeite ich an der vollständigen Migration des bestehenden Stacks auf die Kubernetes-Plattform. Als Leitender Entwickler habe ich die Architektur des Projekts in Abstimmung mit anderen Teams entworfen und verschiedene Technologien eingeführt.
Ein neu eingeführtes Prozess-Management-System (BSI CRM) wurde nahtlos in den Kubernetes-basierten Software-Stack integriert, der über eine auf CloudEvent basierende Event-Driven-Architektur eine äußerst stabile und nachvollziehbare Prozessautomatisierung ermöglichte. Das vorhandene Frontend, basierend auf React, wurde über RESTful APIs in den Stack integriert. Dabei wurden bei bestimmten sensiblen Schnittstellen der Prozesse Events mittels Kafka/Service Bus generiert und verarbeitet, um die garantierte Reihenfolge der Nachrichten für jeden Geschäftsvorfall (Gevo) zu gewährleisten. Die Integration erfolgte mithilfe von Graal Polyglot an unserem Kubernetes-Stack.
Externe Systeme wie SAP und andere Kernsysteme waren über eine Abstraktionsschicht (Datenzugriffsschicht) mittels GraphQL für Lesezugriffe zugänglich. Änderungen an den Entitäten der Kernsysteme bezüglich einer Order wurden ebenfalls als Events in den Stack übertragen, und die Daten wurden im zentralen Data-Store (einer relationalen PostgreSQL-/Azure SQL-Datenbank) zusammengeführt. Der Data-Store fungierte als zentraler Service zur Datenspeicherung im Stack, und verschiedene Funktionalitäten und Aktionen wurden als Services implementiert.
Die zentrale Geschäftslogik wurde mithilfe von Drools-Regeln verarbeitet, die als Artefakte in einem Nexus-Repository hinterlegt waren und vom Rules Execution Service geladen und evaluiert werden konnten. Die Geschäftslogik basierte auf den Daten im Data-Store, der basierend auf dem vorherigen und aktuellen Zustand das Change-Set erkannte und entsprechende Aktionen initiierte. Dadurch wurde die Geschäftslogik entkoppelt und konnte separat entwickelt und getestet werden.
Des Weiteren habe ich das gesamte Deployment neu aufgebaut, wobei die kontinuierliche Integration auf GitLab mit einem vollständigen GitFlow basierte. Die Container der Microservices, die auf Spring Boot 3.22 mit Webflux, Retry, Circuitbreaker, Open Telemetry, Spring Cloud Config, Spring Admin, OpenAPI und OIDC basierten, wurden mittels Unit-Tests und isolierten IT-Tests mit Wiremock überprüft, und die Code-Qualität wurde mittels SonarQube, Spotless und PMD validiert. Im Erfolgsfall wurde mittels Jib ein Container für das Branch- und Entwicklungs-Deployment erstellt. Die Spring-Konfiguration wurde in einem sicheren Git-Repository verwaltet, und im Falle eines Merges nach Master wurde mittels Semantic Release ein neuer Container als Java- und GraalVM-Multi-Arch-Binary-Image generiert. Für Entwicklungs- und Branch-Deployments wurden die Upstream-GitOps-Repositories für die Stacks mit den neu erstellten Images aktualisiert. Die versionierten Images aus dem Semantic Release wurden mittels Renovate erkannt und als Pull Requests für die Test-, Release- und Produktionsumgebungen aktualisiert. Nach dem manuellen Merge wurden die GitOps-Deployments direkt über ArgoCD bereitgestellt, wodurch ein kontinuierlicher Bereitstellungsprozess implementiert wurde. Die GitOps-Repositories basierten auf Kustomize mit Remote-Bases, und das Deployment wurde eigenständig über ArgoCD durchgeführt.
Durch die Verwendung von KEDA, Istio, Traefik und Application Gateway wurde der Kubernetes-Stack auf Basis von AKS mit einer vollständigen Implementierung von B2C AD Managed Identities, Autoscaling und Azure Vault zu einer selbstskalierenden Bereitstellung entwickelt. Diese wurde mittels EFK/Grafana überwacht, inklusive der Bereitstellung von Charts/Configs für Grafana/Kibana. Darüber hinaus wurden Kiali/Jaeger zur Analyse der Spannenverteilung im Stack eingeführt, um die Leistung, Verarbeitungsgeschwindigkeit und Prozesse des Stacks zu optimieren.
Abschließend habe ich verschiedene Automatisierungsanbindungen des Kernsystems über den neuen Stack mittels separater Automatisierungsstapel an UI Path angeschlossen, um manuelle Prozesse zu automatisieren. Zum Management des Stacks habe ich diverse Tools per NodeJs und Python zum Monitoren und Management des Stacks geschrieben.
    Die gesamte Softwarelösung wurde vorab geplant und dokumentiert. Alle erstellten Software-Komponenten wurden per Markdown und PlantUml dokumentiert.
    Eine bestehende Web-App auf Basis von React 18 wurde auf Basis von Typescript gewartet und weiterentwicklet. Dabei wurden Teile der App durch NextJS ersetzt und Storybook eingeführt.
    In einem POC habe ich teamorientiertes Model erstellt, welches auf Basis der Team-Repos erstellt wurde. Dabei wurde auf Basis von PolyCoder die Repos gefiltert, bereinigt, tokenized und getrained. Als Ergebnis habe ich basierend auf Python, MLflow, BentoML und FastAPI ein OpenAPI kompatibles Interface bereitgestellt, welches in Azure on demand via Terraform deployed werden kann. So können Teammitglieder nach meinen verlassen context-bezogene Hilfe erhalten.

Technologien: Java(21), Graal VM native, SpringBoot 3.22, Webflux, Micrometer, Feign, Spring Retry, Spring Cloud, Spring Cloud Config, Spring Admin, CircuitBreaker, Open Telemetry, Kubernetes, AKS, Azure Functions, Kafka, Service Bus, Azure Vault, Terraform, Drools, BSI CRM, Polyglot, React, Cloud Events, Restful, PostgreSQL, CosmosDB / MongoDB, Azure SQL, UI Path, Gitlab, ArgoCD, Istio, Traeffik, Kustomize, Keda, Kiali, Jeger, Prometheus, Jib, Spotless, SonarQube, PMD, Semantic Release, NodeJS, Python3, Azure Ad, Oauth2, OPA

AI Developer und LLM Training, Optimierung, Integration

Macstab GmbH

Internet und Informationstechnologie

< 10 Mitarbeiter

* Erstellung und Erweiterung bestehender LLM
* Integration in bestehende Systeme
* Anbindung von AI Systemen und LLM an bestehende Kern-Systeme und Backends
* Entwicklung im Bereich OSS
* Training von spezialisierten Modelen basierend auf LLAMA 1/2/3
* Integration von OpenAI API und Assitants API

Cloud Developer, Backend-Entwickler, App-Entwicklung und diverse Delors / Architektur-Jobs

SDA SE

250-500 Mitarbeiter

Die SDA ist ein Dienstleister für Versicherungen und unterstützt diese bei der Einführung von Cloud-Technologien. Im Rahmen unserer Projekte wurden komplexe Systeme mit einem hohen Maß an Sicherheit und Stabilität entwickelt. Dazu gehören die Entwicklung und Weiterentwicklung von ODS, die in einem Pub/Sub- und Kafka-Umfeld betrieben werden, um unseren Kunden eine hochperformante Verfügbarkeit von Backendsystemen außerhalb der 24-Stunden-Zeitfenster zu bieten. Alle Lösungen wurden gezielt für Kubernetes-Umgebungen für wie die Allianz, die HUK oder Signal Iduna entwickelt. Als Basis wurde Openshift und AWS genutzt.
Des Weiteren wurden Transformationsprozesse sowie eine optimierte Deployment-Struktur implementiert, die in Verbindung mit OIDC-Authentifizierungsprozessen über Proxy-OIDC IDP standen, um eine Verbindung zur IDP des Kunden herzustellen. Die Service-Authentifizierung erfolgte ebenfalls über OIDC. Für die Autorisierung wurde eine 'Service Based Authorization' genutzt, die auf optionalen Scope-Claims basierte und eine granulare Eingrenzung der Benutzerrechte ermöglichte. Diese Claims wurden durch einen OPA (Open Policy Agent) Sidecar anhand von Richtlinien geprüft, um die Nutzung von Endpunkten basierend auf den Claims und Anfragen zu autorisieren.
Weiterhin wurden Services auf Basis von Quarkus und Spring Boot Nativ entwickelt, um eine Lösung im EPA-Umfeld bereitzustellen. Dabei wurden hochperformante native Services verwendet, die als Bindeglied zwischen EPA-Mobile-Apps und Versicherungs-Core-Systemen fungierten. Es wurden Herausforderungen wie Nichtverfügbarkeit, Zwischenspeicherung von Anfragen, Skalierbarkeit und Formatübersetzungen gelöst. Die Persistenz erfolgte über MongoDB mit einer zukünftigen Migration zur DocumentDB.
Für einen anderen Kunden wurden automatisierte Cluster und eine vollständige Infrastruktur geschaffen. Die Cluster wurden mithilfe von Terraform bereitgestellt und umfassten komplette Umgebungen mit Monitoring-Tools wie Jaeger, OpenTracing, Prometheus, Grafana und Kibana. Diese Umgebungen wurden mit GitOps-Repositories verknüpft und über eigens entwickelte Services verwaltet. Die Endbenutzer konnten über eine Angular/Stencil-WebUI nach Services suchen und diese bereitstellen. Diese Service-Deployments stellten eigenständige Use-Cases dar, die automatisch die jeweiligen Kundenkonfigurationen nutzten, um die Use-Cases mit den Kundensystemen zu verknüpfen.
Ein weiteres von mir eingeführtes Thema war die Nutzung von Istio und die Service-to-Service-Autorisierung. Durch Istio konnten wir den aufrufenden Service und den Namespace anhand des 'x-forwarded-client-cert'-Headers feststellen, was es ermöglichte, die Berechtigungen für Endpunkte und Namespaces zu steuern. Die Konfiguration erfolgte mittels Kustomize/Gitops.
Zudem wurden weitere Service-Stacks auf Basis von Dropwizard oder Quarkus entwickelt, wie z. B. ein Consent-Stack oder ein Submission-Stack. Alle Services wurden im Unternehmen nach dem Restful-Code-First-Ansatz entwickelt.
Abschließend habe ich einen Keycloak Stack entwickelt, der Versicherungen und deren Benutzergruppen automatisiert mit Applikationsstacks und einem Distributor Identity Provider gekoppelt hat, so dass Versicherungsauthentifikationssysteme wie Kerberos, AD’s, OIDC Provider oder Custom Lösungen mit einem Multistage Brokerage überverschiedene Flows in der Lage waren, dem Kunden die volle Datenkontrolle zu geben und trotzdem einen Authentifizierungsmechanismus auf Basis der Attributen, Rollen und Gruppen User aus den Versicherungs-Systemen automatisiert mit Rechten der Stacks abzugleichen und zu limitieren Dabei kamen Technologieren wie Open Policy Agents zum Einsatz, um die Authentifizierung vom Programmcode und dem Stack zu trennen.
Zudem war unser Team für die Wartung und Weiterentwicklung einer App auf Basis von Angular und Cordova verantwortlich. Diese wurde für diverse Kunden gebrandmarkt und genutzt. Im Laufe der Laufzeit des Vertrages kamen zudem Weiterentwicklungen auf Basis von Stencil unter Verwendung von Storybook hinzu. Zudem wurde im Kundenauftrag ein POC durchgeführt, um Elemente der App basierend auf Angular gegen Flutter zu evaluieren und eventuell später zu ersetzen.
Über einen längeren Zeitraum habe ich nebenbei mit bei der ML Nutzung unterstützt. Zentral wurde Pytorch eingeführt und Methoden und Lösungen evaluiert, welche für Versicherungsunternehmen in den Bestandsdaten zu einer Optimierung der Abschlüsse und zur Mustererkennung eingesetzt werden sollten, wie auch bei der AI gestützten Erkennung von Angriffsvektoren.
Im November 2022 habe ich das Unternehmen verlassen, um den für Freelancer und Selbstständige relevanten Zeitraum von zwei Jahren zu erfüllen.
Technologien: Kubernetes, Docker, Java 15/17, Istio, Kafka, Python, pgsql ( Postgresql ), MongoDB, DocumentDB, Kustomize, ArgoCD, Outh2 / Keycloak, Angular, Flutter, Storybook, Stencil, Cordova

Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden