26.11.2025 aktualisiert


Premiumkunde
100 % verfügbarRequirements Engineer | Business/Data Analyst | Product Owner (Vor Ort/Remote)
Frankfurt am Main, Deutschland
Weltweit
MasterSkills
AnforderungsanalyseSoftwaretestsTestingRequirementsengineerScrum MasterBusiness AnalyseAnforderungsmanagementTest AutomatisierungSAFeAnalyse Data QualityData GovernanceAutomatisierung
Erfahrener und professioneller deutschsprachiger IT-Consultant mit über 8 Jahren Erfahrung in agilen Projekten, Requirements Engineering, Testing, Data Analytics. Langjährige Erfahrung in der Projektarbeit bei DAX-Unternehmen aus den Bereichen Finanzdienstleistungen, Software, Automotive, Immobilien und Regulation & Compliance. Übernahme der Rollen des Business/Functional Analysten, Backend/Frontend Testers, Scrum Masters und Produktion-Support.
BRANCHEN
KUNDEN
WERKZEUGE
PROGRAMMIER, BESCHREIBUNGSSPRACHEN, DATENBANKEN
ZERTIFIZIERUNGEN
BRANCHEN
- Financial Services (Banking)
- Softwareentwicklung
- Regulations & Compliance
- Automotive
- Immobilien
- Consulting
- Online Marketing
KUNDEN
- European Central Bank, Deutsche Bank, Volkswagen, MAN, Skoda, Uponor, EUMETSAT, TechQuartier, AT&S
WERKZEUGE
- Jira, Confluence, Git, Bibucket, Jama
- Oracle SQL Developer
- Camunda
- MS Office (Sharepoint, Excel, Power Query, PowerPoint, Word, Visio)
- HP ALM
- Enterprise Architect
- Postman
- Tableau
- HubSpot, Pipedrive
- LMS: Moodle, Docebo
- Google Analytics, Google Tag Manager, Google Data Studio
- WordPress
- Collibra, Waltz
- Miro, MURAL, Notion, Figma
PROGRAMMIER, BESCHREIBUNGSSPRACHEN, DATENBANKEN
- UML
- BPMN 2.0
- SQL, MySQL
- XML, XSD, XSLT, JSON
- HTML, CSS, Markdown
- Grundkenntnisse: Selenium, Python, R, VBA, Solidity, Typescript
- JavaScript (theoretisch)
ZERTIFIZIERUNGEN
- Scrum Master
- QlikView Entwickler
Sprachen
DeutschverhandlungssicherEnglischMuttersprache
Projekthistorie
Einsatz von Low-Code-Plattformen wie Make.com und n8n zur Entwicklung
API-basierter Integrationen zwischen CRM-Systemen (Salesforce, HubSpot,
Pipedrive) und anderen Geschäftsanwendungen. Dadurch wurden manuelle
Arbeitsschritte eliminiert. Verantwortlich für die Konzeption einer End-to-End
Automatisierung Logik für Lead-Management und Kampagnen, die Migration und
Zusammenführung von CRM-Systemen mit minimaler Ausfallzeit sowie die
Integration Agentic KI-Funktionen (z. B. prädiktives Lead-Scoring,
Content-Generierung), um Personalisierung und Effizienz zu steigern.
API-basierter Integrationen zwischen CRM-Systemen (Salesforce, HubSpot,
Pipedrive) und anderen Geschäftsanwendungen. Dadurch wurden manuelle
Arbeitsschritte eliminiert. Verantwortlich für die Konzeption einer End-to-End
Automatisierung Logik für Lead-Management und Kampagnen, die Migration und
Zusammenführung von CRM-Systemen mit minimaler Ausfallzeit sowie die
Integration Agentic KI-Funktionen (z. B. prädiktives Lead-Scoring,
Content-Generierung), um Personalisierung und Effizienz zu steigern.
- API-Integrationen zwischen CRM und Marketingtools entwickelt – über 10
- Stunden manuelle Dateneingabe pro Woche eingespart.
- Mehrstufige Workflows für Lead-Nurturing und -Routing gebaut – 20 % mehr
- qualifizierte Leads in einem Quartal.
- CRM-Migration (z. B. Pipedrive zu HubSpot) mit 5.000+ Kontakten – ohne
- Datenverlust und mit minimaler Downtime.
- KI-Features wie GPT-basiertes Scoring und Outreach integriert – 2,5× höhere
- E-Mail-Klickrate.
- Datenabgleich und Validierung automatisiert – CRM-Fehler und Dubletten um
- 80 % reduziert.
- Automatische Lead-Zuweisung und Benachrichtigungen umgesetzt –
- Reaktionszeit sank von 24h auf unter 1h, Qualifizierungsrate ×7.
Ich gehörte zum Team für Transaction Monitoring (TM) der Abteilung für Anti-Financial-Crime (AFC). Mein Schwerpunkt lag auf der technischen und fachlichen Analyse von Produktionsdaten im Hinblick auf Data Governance und die Datenqualität in den Regionen EMEA und APAC. Dabei musste sichergestellt werden, dass die Daten korrekt, vollständig und konsistent sind und zeitnah verwendet werden. Die Anwendungsfälle bezogen sich auf Geldwäsche, Sanktionen, Betrugserkennung und Steuerhinterziehung im Firmenkundengeschäft (CB), Privatkundengeschäft (PB) und Investment Banking. Zu den Aufgaben gehörte die Analyse der Ursachen von Datenlücken durch die Durchführung von Root-Cause- und Governance-Reviews, vor allem zur Unterstützung der Einführung einer neuen TM-Anwendung auf Basis der Google Cloud Platform (GCP) und einer Data-Staging-Lösung. Es war wichtig, die Einhaltung der Anforderungen der internen Group Audit Abteilung, der externen Audit Firma (KPMG) und der Aufsichtsbehörden weltweit, einschließlich der BaFin, sicherzustellen. Außerdem war es wichtig, die Kommunikation zwischen den zahlreichen Arbeitsgruppen aus Technologie und Business effizient zu ermöglichen, um sicherzustellen, dass Datenlücken angegangen und behoben werden.
- Durchführung und/oder Unterstützung der Erhebung technischer Anforderungen für die Datenanalyse und -bereinigung
- Cause-Effect-Analyse und Datenermittlung von Produktionsdaten aus mehr als 20 Zahlungssystemen in mehr als 20 Ländern, mit Schwerpunkt auf Datenqualität und Governance
- Analyse von Standard Data Protocols (SDPs) und Critical Data Elements (CDEs)
- Überprüfung der Einhaltung der operativen und strategischen
- Data-Governance-Richtlinien der Bank
- Analyse der Data Lineage und des Enterprise Data Model, einschließlich der Metadaten
- Erklärung der Data Governance Richtlinien für Data Owners und Consumers
- Vorbereitung der Dokumentation zur Übergabe an CB und PB
- Erstellung der Abschlussdokumentation für Audit Findings
- Dokumentation der TM-Prozesse gemäß den Prüfungsanforderungen
- Nachverfolgung und Erstellung von Berichten für den Vorstand über den Status von Data Gaps
- Moderation von Meetings mit Technologie- und Facharbeitsgruppen
Die EZB war gezwungen von einer 25 Jahre alten bestehenden Analyseplattform auf eine neue Unternehmensanalyseplattform namens SPACE (Statistical Production and Compilation Environment) migrieren. Das Projektteam bestand aus weltweit 200 IT- Experten. Der Kern des Projekts umfasste, 96 Geschäftsprozesse zu modellieren und zu automatisieren. Zu den Aufgaben gehörte die direkte Kommunikation mit den internen EZB-Prozessverantwortlichen aus über 30 Abteilungen und die Modellierung von Prozessen entsprechend ihren Anforderungen. Es wurden Prozesse entwickelt, die von der Camunda-Engine angetrieben werden, und die Produktion aller Berichte orchestrieren, die die Grundlage für die Währungspolitik der EZB bilden. Zu den zusätzlich komplexen Anforderungen gehörte die Gewährleistung einer hochleistungsfähigen Datenverarbeitung, die Daten- und Prozesssteuerung, die Entwicklung einer grafischen Benutzeroberfläche zur manuellen Prozessanpassung und die Funktionalität zur manuellen Replikation der Berichtsproduktion in Jupyter Notebooks und RStudio.
- Erfassung und Dokumentation von Geschäfts- und technischen Anforderungen
- Analyse, Modellierung und Optimierung von Geschäftsprozessen in Zusammenarbeit mit den Abteilungen
- Mapping von Geschäftsprozessen mit BPMN und Camunda Modeler
- Unterstützung von Entwicklern und Testern aus 15 unabhängigen Teams während der Implementierung
- Lesen, bearbeiten und ausführen von Python- und R-Code
- Vorbereitung, Durchführung und Nachbereitung von Workshops, Demos und Schulungen
- Controlling der Performance
Portfolio
