13.05.2024 aktualisiert


Technischer Business Analyst / Requirements Analyst, Data-Analyst, Informations-Architekt
Skills
Dazu gehören detaillierte Analysen, Interviews, Workshops und Abstimmungen zur Ermittlung von Anforderungen für Enterprise-Kunden bzw. Stakeholdern unter sehr unterschiedlichen Projektbedingungen und somit die Verfassung von Use-Cases, UserStories und Akzeptanzkriterien. Zu den Aufgaben gehört auch die Erstellung von strukturierter technischer User-Dokumentation sowie von Daten-Modellierungen.
Durch internationale Projekterfahrungen habe ich sowohl sprachliche als auch interkulturelle Erfahrungen mit international agierenden Teams bzw. Auftraggeber aneignen können.
Schlüsselfähigkeiten
Analyse: Business- und Systemanforderungen (IREB-Weiterbildungen), Daten-Analytik, BPMN, DMN, UML, ERD-Modellierung, Datenbank-Modellierung, ToGAF, DMBOK2, Sparx Enterprise Architect, Design Thinking
Beratung: Informationsarchitektur, Präsentationen, Workshops und Schulungen
Prototyping: UX/UI, Balsamiq, Innvision, Sketch
Dokumentation: arch42/aim42, Terminologie-Management, Confluence (K15 Documents), Sharepoint
Projektmanagement: Agiles Mindset – Scrum, Kanban; V-Model
Testing: User Acceptance Testing, User Experience Testing, ATTD, BDD, SBE, Internationalization & Localization Testing, API-Testing
Fachliche- und Branchen-Schwerpunkte
Enterprise Telekommunikation
Zu meinen Erfahrungen gehört die Implementierung und die Optimierung von Telekommunikations-Provider Messaging-Lösungen, B2B Enterprise E-Commerce Plattformen bzw. deren API.
Mit methodischer Fokussierung verfasste ich dazu u.a. Epics, Use-Cases und User Stories zu Schwerpunkten wie Portal-UI, Workflows, Bestellungen, Warenwirtschaft, SAP, Telekom-Provisionierungs-Plattform, Archivierung, Datawarehouse, Reporting und Benutzer-Management.
Zusätzlich verfüge ich über fundierte Kenntnisse zu internationalen Telekommunikations- und Internet-Standards für das Enterprise-Messaging und Calendaring.
Business Intelligence
Weiterhin ich verfüge ich über umfangreiche Erfahrungen hinsichtlich der Implementierung von Business Intelligence - Lösungen. Dazu gehört u.a. Daten-Modellierungen, -Metriken und -Analysen mit Software-Frameworks wie z.B. mit ElasticSearch Stack, JasperReports Server, Google Data Studio, PowerBI, Tableau oder Talend.
Zu meinen Kenntnissen gehören auch die Gestaltung von Architektur, Datenanalytik und Mustererkennung via Complex-Event-Processing (CEP) bzw. BigData-Frameworks für Enterprise-Dashboard-Lösungen für Enterprise Messaging-Plattformen.
Identity-Management für E-Banking
Zu meinen Aufgaben gehörte u.a die Umsetzung des technischen Anforderungs-Managements, des Test-Managements, des Projektmanagements und der Dokumentation für Einführung eines IAM-Zwei-Faktor-Authentifizierung-Systems für die E-Banking User-Provisionierung, E-Banking Transaction Signing (+PSD2) und Output-Management für ein EBanking-Portal.
Identity-Management für Telekommunikations-Provider
Im Rahmen von Enterprise Messaging-Plattformen habe ich umfangreiche Erfahrungen im Identity-Management mittels User- und Meta-Directories bzw. Provisionierungs-Server gesammelt.
Knowledge Management
Für eine Reihe von Kunden implementierte ich Wissensdatenbanken auf Basis von Wiki-Plattformen zur Erschließung von internen Firmeninformationen bzw. zur thematischen Erschließung von Produktdokumentationen, Arbeitsprozesse oder Kooperationsvorhaben.
Dazu gehörte auch die Erstellung von kontrollierten Terminologien, Glossare bzw. Klassifikationen.
Besonders hilfreich in Unternehmen bzw. Institutionen ist das konzeptionelle Diátaxis-Framework. Das Diátaxis-Framework adressiert und reflektiert den Dokumentationsbedarf von unterschiedlichen Zielgruppen, Zielen, Inhalte und deren Struktur bzw. Taxonomie präziser.
Durch die Kombination von vorrätigen Inhalten bzw. ihrer Neuaufteilung und die Restrukturierung der Software-Architektur-Dokumentation (arc42) mit dem Einsatzszenario einer strukturierten Publikation und Zusammenarbeit mit den Confluence-Erweiterungen K15t – Documents und Viewport konnte ich das methodische Konzept von Diátaxis optimal vermitteln und bzw. auch umsetzen.
Energy/e-Mobility
Zu meinen Erfahrungen gehören auch die Mitwirkung für analytische Lösungen für eMobilty-Unternehmen. Dazu gehörte u.a. die Konzeptionierung und Implementierung einer automatisierten Datenstrukturen-Datenvisualisierung von eMobilty-Datendefinitionen.
Zusätzlich konnte ich die fortschreitenden Software-Architektur-Plattform-Planungen unterstützen. Dazu gehörte auch die Unterstützung bei der Evaluation von Zeitreihendatenbanken bzw. deren optimalen Einsatzes. Dabei wurde auch die Datenmodellierung der Speicherung der eMobility-Events (PV-Anlagen, Wallboxen) der unterschiedlichen Protokolldaten- bzw. Standards untersucht.
eGovernment
Für eine Reihe von Government-Kunden konnte ich bei der Spezifikation notwendigen eGovernment-Aufgaben unterstützen. Dazu gehörte die fachliche Unterstützung bei der datenschutzkonformen Log-Daten-Verwaltung und-Auswertung. Dabei konnte ich die gesetzlichen Anforderungen für die technischen und operationellen Planungen systematisch auswerten und für nächste Anforderungsanalysen dokumentieren.
Weiterhin konnte ich bei weiteren eGovernment-Projekten bei der Software-Architektur bzw. auch der Software-Architektur-Dokumentation beratend mitwirken.
E-Health
Ein weiterer fachlicher Schwerpunkt ist die Implementierung von E-Health Daten-Integrations- und Kommunikation-Plattformen, radiologischen Management-Plattformen (med. Daten, radiologischen Bilder) und teleradiolgische Web-Portale.
Dazu gehört meine Teilnahme an nationalen und internationale EU-Forschungsprojekten für mobile E-Mental Gesundheit-Apps und Plattformen.
Zusätzlich verfüge ich über Kenntnisse zu internationalen E-Health Standards wie z.B. HL7, DICOM, ICD-9/10, EURATOM Richtlinie 201359 oder dem Medizinproduktgesetz.
E-Learning
Zu meinem Erfahrungsschatz gehört die Konzeptionierung und die Implementierung von E-Learning-Plattformen für Unternehmen und Organisationen aus dem Gesundheitswesen und der wissenschaftlichen und informellen Weiterbildung.
Dabei habe u.a auch Erfahrungen mit E-Learning-Plattformen wie z.B. Moodle, Sakai, ILIAS, oder WPLMS gesammelt und konnte E-Learning-Standards wie z.B. IMS LTI, SCORM, Expierence API (xAPI) bzw. cmi5 genauer kennenlernen.
Machine-Learning
Hinsichtlich der Spezifikation und Anforderungen im Enterprise Messaging und
Gesundheitsbereich integrierte ich dazu Machine-Learning-Konzepte, um Modellierungen bzw. Anwendungen zu realisieren. Dies war Teil meiner Projekte wie z.B. Teleradiologischen Plattform, Messaging-Phishing Detection System bzw. Recommendation-Modellierung im Gesundheitsbereich.
Media
Im Media-Bereich kann auf eine Reihe von Projekten mit unterschiedlichen Schwerpunkten verweisen. Dazu gehört die Beratung zur digitalen Content-Organisation, der Erstellung von Anforderungen, Analysen, Klassifikationen sowie die Implementation der Mediasoftware-Plattformen. Dazu kommen die notwendigen Anpassungen der Workflows von Teams und Inhalte für deren Nutzung gemäß der Kundenanforderung.
Dazu gehörte u.a. die Prototypisierung einer kommerziellen User-generated Media-Plattform und die Beratung und die Implementierung bzw. Migration von CMS für Kunden aus dem Gesundheitsbereich.
Ein weiterer Schwerpunkt ist die Generierung, Verwaltung und Transformation von Metadaten im Kontext von automatisierten und semantischen Medienverarbeitung für Publishing, Archivierung und Digital Art. Dies umfasst auch neuartige Proof-Ansätze für Ethereum Smart Contracts.
Media-Research
Zu meinen Forschungen gehören u.a. auch die Daten-Klassifizierungen für Media Plattformen, und die Rolle von Metadaten-Spezifikationen und- Standards in diesen MediaWorkflows.
Gegenwärtig umfassen meine aktuellen akademische Forschungsprojekte Metadatenkonzepte und medialer Langzeiterschließung zur Entwicklung eines MetadatenFramework zur Langzeiterschließung von Born Digital Art oder z.B. eine Implementierung einer Datenvisualisierungskonzeption des journalistischen Bigdata-Metadaten-System Global Database of Events, Language and Tone (GDELT) und Global Knowledge Graph (GKG).
CRM-Consulting
Meine Erfahrungen hinsichtlich operatives CRM umfassen die Beratung, Planung, Implementierung, Training und Support-Management von CRM-Software wie ACT!, CRM5/6 SuperOffice und deren konzernweiten Integration mit Messaging-Plattformen wie z.B. Lotus Notes und MS-Exchange.
Dazu gehörten u.a. die Konzeptionierung und das Anforderungsmanagement der Anbindung von CRM-Lösungen mit bestehenden Angebotsverfolgungs-Applikationen. Außerdem gehörte auch die Dokumentation und Erfassung der gewünschten Abbildungsparameter, Abbildung der Ablauflogik und technische Aufwandsabschätzung.
Branchenerfahrungen:
Enterprise Telekommunikation, E-Health, Media, Banking
Konzepte:
Agile Mindset, SCRUM, Kanban, BPMN, DMN, UML, EPK, BDD, ITIL, Design Thinking
Requirements-Dokumentation:
Sparx Enterprise Architect, Camunda Desktop Modeler, PlantUML, StarUML, Draw.io, Gliffy, Visio
Projekt-Dokumentation/Management:
Atlassian JIRA (inkl. Structure, Roadmaps), Atlassian Confluence, MS Sharepoint, Teamwork, Basecamp, Google G Suite
UI-Design Guidelines / Mockup / Visualisierung
Android Design Guidelines, Apple Design Guidelines, Balsamiq, Innvision, Moqups, Sketch
Identity-Management
Airlock IAM, Airlock 2FA, Futurae Authentication Platform
Critical Path Meta Directory, Critical Path Directory Server, Critical Path Fulfilment Server
OpenLDAP, MS Active Directory
Messaging Platform
CP Mailserver, CP Presentation Server, Dovecot, Lotus Notes, OpenXchange, OWM-Enterprise Mailserver, Postfix, Roundcube, Tobit Faxware/David, Messaging-Standards
Banking Platforms
Avaloq Core / Frontworkplace, Avaloq Web-Banking, Avaloq CRM, Avaloq – Frameworks for Onboarding, Workflows, Anonymization, Communication Content Engine, PSD2
Analyzing- /Tagging- /Reporting-Frameworks
D3.js, Dataplane, ECHARTS, Google Analytics, Google Data Studio, Highcharts, JasperReports, Jupyter Notebook, MaxQDA, Omniture (Adobe Analytics), Qlikview, Pandas, Tableau, Talend
E-Learning-Plattformen
Moodle, Sakai, ILIAS, WPLMS
E-Learning-Standards
IMS LTI, SCORM, Experience API (xAPI) bzw. cmi5
CMS/Newsroom
Joomla, Typo3, Superdesk, webedition, WordPress
Big Data Analytics/Blockchain
Cassandra, Ethereum (Smart Contract, Solidity), Flume, Hadoop, HBase, Hive, Impala, Pig, Spark Streaming/Engine, Storm
Machine Learning / AI
Spark MLib, Mahout, Pytorch, Tensorflow, Keras
Monitoring
Ganglia, Grafana, Icinga/ Icinga2, Nagios, JAVA – JMX / Jolokia, S.M.A.R.T (Sensor-Plugin for Icinga)
Datenbanken /Tools
DB-Visualizer, Db4o, Google BigTable, MongoDB, MS Access, MS SQL-Server, MYSQL / Maria DB, Neo4J, Oracle, Oracle SQL-Developer, PostgreSQL, SPARQL Protocol And RDF Query Language, VoltDB
IT-Ticketing/CMDB
Atlassian JIRA Helpdesk, Bugzilla, iTop CDMB, Redmine, ServiceNow, TeamTrack, Teamwork Helpdesk
Frameworks
Activiti, Akka, Angular, Ansible, Apollo Server/Client, CakePHP, Datahawk, ElasticSearch, ESPER, Faker (JAVA), Flutter, GraphQL, IONIC, jQuery, JSP, KIBANA, ktor, Loopback.IO, MinIO, Node.js, Play! Framework, Processing, RabbitMQ, SwaggerUI, Xataface
Programmiersprachen
CDO, CSS, Cypher, Db4o-OWL, HTML, JAVA, MAPI, Objective C, PHP, PowerShell, Python, SASS, Swift, Visual Basic, XML
Versionierung/CI/Testing
Bitbucket, Git, Jenkins, Selenium, Subversion
Kommunikationsserver/ETL
Mirth Connect, SeeBeyond Integration Suite, Talend ETL
Radiologie
medavis RIS, iSoft RIS, iSoft PACS, informatics PACS, Philips PACS, OsirixPACS, Orthanc PACS, K-PACS, Dcm4Che-PACS, DICOM - Offis DCMTK, C37 – Radiologie-Zuweiserportal, KIS NoemaLife GALILEO, KIS Siemens medico, KIS Agfa Healthcare, Radiologisches Dosis- und Metadaten-Mng. OpenREM, Radiologisches Dosis- und Metadaten-Management Guerbet/Medsquare
E-Health Standards
HL7, DICOM, SNOMED, ICD-09/ICD-10, IHE XDS, DIN EN ISO 13606 (Kommunikation von Patientendaten in elektronischer Form, EURATOM Richtlinie 201359, Medizinproduktgresetz
Sprachen
Projekthistorie
Projekt-Info/Rollen:
Zu meinen Aufgaben gehörte u.a die Umsetzung des technischen Anforderungs-Managements, des Test-Managements, des Teil-Projektmanagements und der Dokumentation für Einführung eines IAM-Zwei-Faktor-Authentifizierung-Systems für die E-Banking User-Provisionierung, Unterstüzung zum E-Banking Transaction Signing (+PSD2) und Anpassung der Output-Management Spezifikationen für ein E-Banking-Portal. Zusätzlich war ich u.a. für das Test-Management bzw. Test-Spezifikation mitverantwortlich.
Dazu wurden funktionale Anforderungen für eine Migrations-Datenmbank für Daten-Import, -Metrik, -Qualität, Matchingverfahren, Auswertungen und Analysen, Migrationskampagnen, Erstellung der geforderten XML-Dokumenten und Anonymisierungen spezifiziert.
Auf Basis dieser Lösung wurde anschließend noch eine eigenständige Datenbank-Applikation, welche auch dezentral eine Kampagnen-Planung erlaubt sowie sehr detaillierte statistische Auswertungen spezifiziert, programmiert, getestet und dokumentiert.
Software: IAM, E-Banking-Portal, Assentis DocBase/Design, Confluence, Git, JIRA, Oracle, SQL-Developer, MS-SQL-Server, MS-Access, MS Visio, Gliffy, Spira, Camunda Desktop Modeler
Methoden: Agile Entwicklung, Use-Cases, User-Stories, Kanban, BPMN, UML, ATTD, SBE
Projekt-Info/Rollen:
Konzipierung von Testdaten für ein Austausch-Datenmodels sowie die Konzeptionierung von Muster-Daten (JSON) hinsichtlich ihrer algorithmischen Generierung anhand zu evaluierenden Datengenerierung-Frameworks wie Datahelix und Faker.
Dabei galt es drei Use-Case (Single, Joint, Child) bei der Anlage E-Banking-Portal-User zu berücksichtigen. Da diese sich auch aufeinander beziehen musste deren Logik ermittelt bzw. verifiziert werden.
Software: IAM, WAF, File Data Wizard, Banking-Core System, Confluence, Git, JIRA, MS Visio, Gliffy, Faker (Java), Jackson, Datahelix, Sparx Enterprise Architect, Camunda Desktop Modeler
Methoden: Agile Entwicklung, Use-Cases, User-Stories, Kanban, BPMN, UML, ATTD
Erstellung einer Dokumentation für eine REST-API (JSON) zum automatischen Onboarding von E-Banking-Usern. Dazu wurde eine systematische Erfassung von methodischen Fragen zum JSON-Datenformat entworfen und von beteiligten Entwicklern, Testern und externen Bank-Dienstleistern Feedback eingeholt.
Dabei wurden u.a. alle relevanten Listenwerte (Interne/Label-bezeichnungen) aus dem Kern-Banken-System ermittelt, und als Anforderungen für ein normatives Input für die jeweiligen JSON-Datenstrukurelement hinterlegt. Dazu wurden auch diese Werte aus dem Banking-System ermittelt und dokumentiert.
Zusätzlich wurden auch JSON Daten Objekt-Relationen-Diagramme entworfen, welche modellhaft die gegenseitigen Abhängigkeiten bzw. Datenstrukturen dokumentieren.
Software: IAM, WAF, File Data Wizard, Banking-Core System, Confluence, Git, JIRA, MS Visio, Gliffy, Sparx Enterprise Architect, Camunda Desktop Modeler
Methoden: Agile Entwicklung, Use-Cases, User-Stories, Kanban, BPMN, UML, ATTD