27.08.2025 aktualisiert


100 % verfügbar
Senior Softwareentwickler, Architekt
Speyer, Deutschland
Weltweit
Skills
SAP CloudHTMLJavaJavascriptPHPVbscriptXhtmlSap Sybase Adaptive Server EnterpriseAPIsAgile MethodologieAkkaAmazon Web ServicesApache HTTP ServerApache TomcatAnwendungsserverArchitekturAssemblerspracheConfluenceJiraHtml5AutomatisierungBankenaufsichtBankingBash ShellBenchmarkingBusiness IntelligenceBootstrapUNIXC++CSSServer Message BlockRational ClearcaseCloud ComputingCode-ReviewInformationssicherheitDatenbankenETLIBM DB2Software Design PatternsLinuxDevopsDisaster RecoveryDokumentenkameraDroolsEclipseEnterprise JavabeansPerlVisual C++IngenieurwesenJ2EEUnternehmerinFinancial Information EXchangeFinanzinstrumentFitnesseStandardverfahrenGithubGlassfish 3Google GuiceGradleGroovyHochfrequenzhandelHibernateRekrutierungHP Service ManagerHypertext Transfer Protocol SecureIBM NotesIBM Websphere Application ServerIntellij IDEAInvestment BankingJava Database ConnectivityJava Persistence APISwing (Java)JsonJava API For Restful Web ServicesJqueryJavaserver FacesJunitPythonPostgresqlDarlehenSimple MailMarktforschungApache MavenMicrosoft Visual StudioMicrosoft Sql-ServerTeam Foundation ServerRichtlinie über Märkte für FinanzdienstleistungenMongodbMysqlMVCMybatisNagiosNetbeansRoutingNexus 1000VOracle DatabasesOracle FinancialsPair ProgrammingPost Office ProtocolScrumSoftware ArchitecturePrototypingRstudioRabbitmqMockitoRxjavaPrometheusReverse EngineeringMicrosoft Visual SourceSafeScalaMicrosoft SharepointShell-ScriptSignalrSOAPHandelSonarSQLSqlalchemyStreamingSubversionTransmission Control Protocol (TCP)VirtualizationWebsocketWebstormWorkflowsExtensible Markup LanguageYAMLJettyPrimefacesMultithreadingFile Transfer Protocol (FTP)GerritSystemverfügbarkeitFlaskGrafanaSpringbootSybaseVert.XSpockGitlabGitPandasMatplotlibJAX-WSGitlab-CiKubernetesApache FelixCassandraAvroRancherVBA Programming LanguageExtreme ProgrammingTeam ManagementApache KafkaWikisLogistikprozesseBetriebssystemeOsgiKibanaCrypto CurrencyHeapDynatraceDockerJenkinsConfluentMicroservices
Programmiersprachen
- Java
- C/C++
- Python
- Rust
- Visual C++
- Visual Basic
- SQL
- Perl, PHP
- Scala
- R
- Groovy
- Go(lang)
- JavaScript
- Visual Basic Script
- Shell Script (sh, bash, csh)
- UC4 Script
- Assembler (x86, masm, nasm)
- HTML 4
- HTML 5
- CSS
- XHTML
- XML
- FIXML
- SMIL
- JSON
- HOCON
- YAML
- SOAP
- AVRO
- OGNL
- Cassandra
- Kafka StateStore (RocksDB)
- MongoDB
- Oracle 12c
- IBM DB2
- PostgreSQL
- Microsoft SQL
- SAP ASE (Sybase)
- MySQL
- Berkeley DB
- Fox Pro
- MS Access
- MS Windows
- Unix
- Linux
- WSL 2
- Amazon AWS
- SAP Cloud
- IONOS
- Kubernetes
- Helm
- Rancher
- Chef
- Core Java
- JEE
- EJB
- IoC (CDI, Google Guice)
- MVC
- Sockets (blocking, non-blocking)
- Raw Sockets
- Binary Encoding and Decoding
- High Throughput
- Low Latency
- Off-Heap
- Multithreading
- RPC
- JDBC
- Rules Engine / Expert Systems
- Business Intelligence Systems
- Vert.x
- Actors (Akka)
- Asynchrony
- Reactive
- Distributed Messaging
- Streaming
- Event Sourcing
- Subscriptions
- Feature Flag
- High Availability (HA)
- Disaster Recovery (DR)
- Plotting
- Kernel Bypass
- SSE, AVX, SIMD Vectorization
- Memory Mapped Files
- MultiMaps
- Distributed Tracing
- FIX Protocol
- SOAP
- REST
- Websocket
- SignalR
- Pusher
- HTTP(s)
- SMTP/POP3
- FTP
- SFTP
- SMB
- CIFS
- XML/RPC
- RMI
- IP
- TCP
- UDP
- ARP
- Raw Sockets
- Open API 3
- Apache Kafka
- Apache Avro
- Confluent Kafka Streams
- Micronaut
- Spring Boot
- Testcontainers
- RabbitMQ
- Bloomberg Open Market Data API
- Reuters RFA
- Cryptocurrency Exchange APIs
- GSON
- Spock
- Mockito
- FitNesse
- Jackson
- JAX-WS / JAX-RS
- JPA / JTA / Hibernate
- MyBatis
- Jenny
- Java Server Faces / PrimeFaces
- Java Swing
- jQuery (+Mobile)
- Disruptor
- Drools
- OSGI (Apache Felix)
- Vert.x
- RxJava 2 (ReactiveX)
- Thymeleaf
- Bootstrap
- Pandas, Matplotlib
- Google DenseHashMap
- DPDK / F-Stack
- Boost / CppServer
- Flask / SQLAlchemy
- OpenTelemetry
- Micronaut
- Vert.x
- Glassfish
- Tomcat / TomEE
- Websphere
- IBM Liberty
- OpenEJB
- Apache HTTP Server
- Jetty
- Arquillian
- JetBrains (All Products / IntelliJ / Idea)
- Eclipse
- Visual Studio
- Visual Studio Code
- NetBeans
- JBuilder
- Oracle Studio
- Sun Studio
- R Studio
- KDevelop
- Git
- GitLab
- Github
- Gerrit
- Subversion
- ClearCase
- Team Foundation Server
- Visual Source Safe
- GitLab CI
- Jenkins (CD/CI)
- Maven
- Gradle
- Docker
- k9s
- Visual VM
- JProfiler
- JMH Micro Benchmarking
- DB Visualizer
- Ant
- Junit
- Unix standard tools
- SOPS
- Jira
- Wiki
- SharePoint
- HP Service Manager
- MS Office
- IBM Notes
- Enterprise Architect
- Bloomberg Terminal
- Reuters 3000 Xtra
- Information Builders WebFOCUS
- UC4 One Automation
- Nagios
- SAP Cloud Platform
- SAP ASE HA/DR
- Dynatrace
- Kubernetes
- Kibana
- OpenSearch
- ElasicSearch
- Nexus
- Grafana
- Prometheus
- Sonar
- Whitesource
- Renovate
- Confluence
- Flux
- Argo Workflows
- Softwarearchitektur
- Softwareinfrastrukturarchitektur
- Objektorientierung
- Design Patterns
- Model-View-Controller (MVC)
- Microservices
- Asynchrone Nachrichtenverarbeitung
- Non-Blocking
- Streaming
- Verteilte Transaktionen
- Hochverfügbarkeit (HA)
- Desaster-Recovery
- Cloud
- Agile
- Scrum
- Scaled Scrum
- DevOps
- SecOps
- GitOps
- Staging
- Cloud
- Prototyping
- Extreme Programming (XP)
- Pair Programming
- Code Review
- Optimierung
- FIX Protocol-konforme Systeme
- Finanzinstrumente
- Kryptowährungen
- Markdaten
- Algorithmischer Handel
- Hochfrequenzhandel (HFT)
- Hochvolumenhandel
- Niedriglatenzhandel
- Nachrichtenverarbeitung / Streaming
- ETL-Prozesse (Extract, Transform, Load)
- Netzwerksystem
- Asynchronie
- Echtzeit
- Routing
- Rules Engineering
- Reverse Engineering
- Scheduling
- Hochverfügbarkeit
- Desaster-Recovery
- Virtualisierung
- Cloud
- Low Level Optimierung
- Bankwesen
- Investment Banking
- Handel mit Finanzinstrumenten
- Handel mit Waren
- Handel mit Währungen
- Handel mit Kryptowährungen
- Marktanalyse
- Kreditwesen
- Bankenaufsicht
- MIFID 2
- BASEL 3
- Charting
- Business Intelligence
- Reisendeninformation
- Logistik
- Eigeninitiative
- Kommunikation
- Lernbereitschaft
- Teammanagement und –Koordination
- Unternehmerisches Denken
- Verantwortungsbewusstsein
- Kurze Einarbeitungszeit
Sprachen
DeutschMutterspracheEnglischverhandlungssicher
Projekthistorie
Cloud Platform Streaming Reisendeninformation
Das Reisendeninformationssystem ist eine Cloud basierte Streaming-Plattform die Nachrichten aus verschiedenen Quellen empfängt, filtert, transformiert und an verschiedene Ziele veröffentlicht, mit dem Ziel Reisende und Personal mit Echtzeitinformationen über Reisen und Fahrzeuge zu versorgen.
Verantwortlichkeiten:
Analyse, Design, Implementierung, Pflege und Migration von Microservices. Das Reisendeninformationssystem ist eine Plattform, die aus hunderten von Microservices besteht und Echtzeitinformationen zu Reisen wie zum Beispiel Fahrten, Zwischenhalte, Gleise und Plattformen, Bahnhöfe und Stationen, hörbare Ansagen, Vehikel-Konfigurationen und -Features, Zugteile, Ankunft- und Abfahrtzeiten und vieles mehr zur Verfügung zu stellen.
Die Informationen kommen aus offiziellen Fahrplänen, physischen Sensoren, Prognoseautomaten, Benutzereingaben und anderen Quellen. Sie gehen an Reisende, Personal, Bahnhöfe und Busstationen, Fahrzeuge, Google und andere Ziele. Zuletzt werden sie auf Displays und Anzeigern in Stationen, an Gleisen und in Fahrzeugen selbst, auf Geräten des Personals, in Apps (DB Navigator) und Google angezeigt, sowie als Ansage an Bahnhöfen, Stationen und Gleisen durchgegeben und im DB Vertrieb weiterverarbeitet.
Mein Team ist für die Ausgangskanäle an verschiedene Abnehmer verantwortlich, welche diese Informationen hauptsächlich auf physikalische Ansager und Anzeiger an Bahnhöfen, Stationen, Gleise und in Vehikel bringen.
Technisch werden rund 30 Microservices betrieben, die Events aus Kafka Topics und RabbitMQ Queues in einem Kubernetes Cluster filtern, aggregieren, transformieren und verarbeiten und an verschiedene Abnehmer via RabbitMQ oder Kafka veröffentlichen. Jeder Microservice wird in mehreren partitionierten Instanzen betrieben, um einen hohen Durchsatz bei geringer Latenz zu gewährleisten.
In dieser Umgebung analysiere ich Geschäftsanforderungen, entwerfe und implementiere neue Services und Datenflüsse, erweitere und optimiere bestehende Services, und setzte Feature Requests um. Teil des Projektes beinhaltet eine Migration der kompletten Plattform in eine andere Cloud.
Die Kommunikation und Koordinierung aller beteiligten Teams und deren Mitglieder ist in einem sehr strikten Scrum und Scaled Scrum Prozess eingebettet.
Das Reisendeninformationssystem ist eine Cloud basierte Streaming-Plattform die Nachrichten aus verschiedenen Quellen empfängt, filtert, transformiert und an verschiedene Ziele veröffentlicht, mit dem Ziel Reisende und Personal mit Echtzeitinformationen über Reisen und Fahrzeuge zu versorgen.
Verantwortlichkeiten:
- Analyse der Geschäftsanforderungen
- Analyse von Optimierungspotentialen
- Architektur von Microservices
- Architektur des Datenflusses
- Design von Benutzeroberflächen
- DevOps
- Implementierung
- Code Review und Bewertung
- Monitoring und 3rd Level Support
Analyse, Design, Implementierung, Pflege und Migration von Microservices. Das Reisendeninformationssystem ist eine Plattform, die aus hunderten von Microservices besteht und Echtzeitinformationen zu Reisen wie zum Beispiel Fahrten, Zwischenhalte, Gleise und Plattformen, Bahnhöfe und Stationen, hörbare Ansagen, Vehikel-Konfigurationen und -Features, Zugteile, Ankunft- und Abfahrtzeiten und vieles mehr zur Verfügung zu stellen.
Die Informationen kommen aus offiziellen Fahrplänen, physischen Sensoren, Prognoseautomaten, Benutzereingaben und anderen Quellen. Sie gehen an Reisende, Personal, Bahnhöfe und Busstationen, Fahrzeuge, Google und andere Ziele. Zuletzt werden sie auf Displays und Anzeigern in Stationen, an Gleisen und in Fahrzeugen selbst, auf Geräten des Personals, in Apps (DB Navigator) und Google angezeigt, sowie als Ansage an Bahnhöfen, Stationen und Gleisen durchgegeben und im DB Vertrieb weiterverarbeitet.
Mein Team ist für die Ausgangskanäle an verschiedene Abnehmer verantwortlich, welche diese Informationen hauptsächlich auf physikalische Ansager und Anzeiger an Bahnhöfen, Stationen, Gleise und in Vehikel bringen.
Technisch werden rund 30 Microservices betrieben, die Events aus Kafka Topics und RabbitMQ Queues in einem Kubernetes Cluster filtern, aggregieren, transformieren und verarbeiten und an verschiedene Abnehmer via RabbitMQ oder Kafka veröffentlichen. Jeder Microservice wird in mehreren partitionierten Instanzen betrieben, um einen hohen Durchsatz bei geringer Latenz zu gewährleisten.
In dieser Umgebung analysiere ich Geschäftsanforderungen, entwerfe und implementiere neue Services und Datenflüsse, erweitere und optimiere bestehende Services, und setzte Feature Requests um. Teil des Projektes beinhaltet eine Migration der kompletten Plattform in eine andere Cloud.
Die Kommunikation und Koordinierung aller beteiligten Teams und deren Mitglieder ist in einem sehr strikten Scrum und Scaled Scrum Prozess eingebettet.
cashEngine eine Plattform für den algorithmischen Handel von Cryptowährungen auf verschiedenen Börsen.
Verantwortlichkeiten:
Architektur, Design und Implementierung einer Microservices Plattform für automatisierten, Hochfrequenz- und Niedriglatenzhandel von Cryptowährungen mit eigenen Handelsstrategien.
Die Implementierung der Plattform folgt komplett modernen Modellen und Mustern wie zum Beispiel: Microservices Architektur, asynchrone und reactive Programmierung, ereignisgetriebene Nachrichtenverarbeitung, verteiltes und zustandsloses Design und NO-SQL Datenhaltung um ein Maximum an horizontaler Skalierbarkeit zu gewährleisten.
Die Core-Komponenten wurden in Rust neu implementiert.
Verantwortlichkeiten:
- Analyse der Geschäftsanforderungen
- Architektur des Softwaregerüstes
- Design von Softwaremodulen
- Design von Datenbankschemata
- Implementierung
- Überwachung
Architektur, Design und Implementierung einer Microservices Plattform für automatisierten, Hochfrequenz- und Niedriglatenzhandel von Cryptowährungen mit eigenen Handelsstrategien.
Die Implementierung der Plattform folgt komplett modernen Modellen und Mustern wie zum Beispiel: Microservices Architektur, asynchrone und reactive Programmierung, ereignisgetriebene Nachrichtenverarbeitung, verteiltes und zustandsloses Design und NO-SQL Datenhaltung um ein Maximum an horizontaler Skalierbarkeit zu gewährleisten.
Die Core-Komponenten wurden in Rust neu implementiert.
FastBase ist ein System das eine Vielzahl an Diensten und Benutzeroberflächen zur Verfügung stellt um Marktanalysten, sowie internen und externen Kunden verschiedene Arten von Daten für den täglichen Gebrauch bereitzustellen. Dabei handelt es sich hauptsächlich um Instrument- und Marktdaten, Zinskurven und Prognosen,
Das System bedient mehr als 250 Kunden und Abnehmersysteme.
Verantwortlichkeiten:
Forecast Service
Architektur, Design und Implementierung des RESTful Service “Forecast Service” sowie des dazugehörigen Clients als flexibles Excel Addin.
Da in der Vergangenheit alle Prognosedaten über hunderte Excel Dateien verteilt waren die sich gegenseitig referenzierten, war die Änderung von Prognosedaten nicht nur mit hohen Aufwänden verbunden, sondern auch sehr fehleranfällig.
Durch den neuen Forecast Service können Benutzer nun ohne technische Kommunikation zwischen den involvierten Abteilungen Prognosedaten parallel lesen und schreiben. Alle technischen Fehler der Excel Dateien wurden eliminiert und der Prozess fehlerhafte Daten zu finden und zu korrigieren wurde maximal vereinfacht.
Zusätzlich wurde mit dem Dienst ein Team Excellence Audit-Befund behoben der vorgibt dass
Änderungen an Prognosedaten nachverfolgbar und versioniert sein müssen.
FastBase Service
Architektur, Design und Implementierung eines neuen JSF Dienstes “(Name auf Anfrage) Service” um die Weiterentwicklung der bankinternen Client Applikation zu ermöglichen. Der bisherige Client war in Visual Basic 6 entwickelt worden, welches stark veraltet und in der Bank auch nicht mehr verfügbar ist. Dadurch lag die Weiterentwicklung lange auf Eis. Alle Funktionalitäten des bisherigen Clients wurden in einen neuen Java Server Faces Dienst adaptiert und optimiert und sind nun durch den Webbrowser verfügbar.
Der neue Dienst eliminiert eine Reihe von Fehler des veralteten Clients und stellt die Möglichkeit zum Hinzufügen und Weiterentwickeln von Kerngeschäftsfunktionen wieder her.
Der Dienst erfüllt alle Standards und Richtlinien der Bank für moderne Softwarearchitektur und trennt zusätzlich alle Benutzer durch die Schnittstelleneigenschaft des Web-Frontend vom direkten Zugriff auf die Datenbankebene.
Scheduler Re-Design und Referenzimplementierung eines Prototyps
Architektur, Design und Referenzimplementierung eines UC4-gesteuerten Scheduler-Prototyps, sowie Implementierung von beispielhaften (Name auf Anfrage) Prozessen.
Derzeit erfolgt die Steuerung aller ETL-Prozesse in (Name auf Anfrage) durch eine stark angepasste “Activity BPMN Engine”-Applikation. Diese ist nicht nur äußerst fehleranfällig, sondern gibt generell auch nur sehr wenig Rückmeldung. Sie verstößt auch gegen die bankinterne Scheduler-Richtlinie. Darüber hinaus erfordert sie ein solch beträchtliches Maß an Wissen um ihre Eigentümlichkeiten, dass zwei Entwickler nahezu komplett an die Entwicklung und Fehlerbehebung von absoluten Basisfunktionalitäten gebunden sind.
Die Implementierung einer neuen Scheduling-Plattform auf der Basis von UC4 wird zu einer wesentlich saubereren und leichter zu verstehenden Architektur führen und somit zwei Entwicklerressourcen freisetzen.
Zusätzlich wird die Scheduler-Richtlinie eingehalten da die gemanagte UC4 Plattform verwendet wird. Das neue Design kann leicht von der “SPManager”-Referenzimplementierung für weitere Prozesse adaptiert werden.
SPManager
Architektur, Design und Implementierung einer Applikation zur Verwaltung von Stored SQL Procedures. (Name auf Anfrage) beinhaltet mehr als 2500 Stored Procedures welche direkt durch die Fachabteilung auf dem produktiven System geändert werden.
Bisher war es aufgrund von Zugriffsbeschränkungen und mangelnder Kommunikation sehr schwierig die produktiven Stored Procedures synchron zu denen in der Entwicklungsumgebung zu halten. Das führte bei Liefereinsätzen in der Produktionsumgebung oft zu Fehlern wenn solche geänderten Stored Procedures durch neue Softwarepakete adressiert wurden. Darüber hinaus gab es keine Revisionskontrolle oder Änderungsverfolgung der Stored Procedures.
Der SPManager findet auf täglicher Basis neue und geänderte Stored Procedures in der Produktionsumgebung und meldet diese samt Quellcode an die Entwicklungsabteilung zur Einpflege in die Revisionskontrolle. Dadurch sind alle Stored Procedures in TFS versioniert, was zu wesentlich unaufgeregteren Liefereinsätzen führt. Zusätzlich werden auf wöchentlicher Basis Nutzungsstatistiken gemeldet um unbenutzte Stored Procedures aufzuspüren.
Der SPManager ist die Prototyp- und Referenzimplementierung der neuen UC4-basierten Scheduling-Plattform.
Generelle Aktivitäten:
Das System bedient mehr als 250 Kunden und Abnehmersysteme.
Verantwortlichkeiten:
- Analyse der Geschäftsanforderungen
- Unterbreiten von Lösungen an die Fachabteilung
- Architektur der Softwareinfrastruktur und -Kommunikation
- Architektur von Softwaregerüsten
- Design von Softwaremodulen
- Design von Datenbankschemata
- Implementierung von Prototypen
- Implementierung
- Koordination der Verantwortlichkeiten in der Abteilung
- Koordination der Aktivitäten in der Abteilung
- Hilfestellung für Administratoren
- Hilfestellung für die Fachabteilung
- Hilfestellung für Kunden
Forecast Service
Architektur, Design und Implementierung des RESTful Service “Forecast Service” sowie des dazugehörigen Clients als flexibles Excel Addin.
Da in der Vergangenheit alle Prognosedaten über hunderte Excel Dateien verteilt waren die sich gegenseitig referenzierten, war die Änderung von Prognosedaten nicht nur mit hohen Aufwänden verbunden, sondern auch sehr fehleranfällig.
Durch den neuen Forecast Service können Benutzer nun ohne technische Kommunikation zwischen den involvierten Abteilungen Prognosedaten parallel lesen und schreiben. Alle technischen Fehler der Excel Dateien wurden eliminiert und der Prozess fehlerhafte Daten zu finden und zu korrigieren wurde maximal vereinfacht.
Zusätzlich wurde mit dem Dienst ein Team Excellence Audit-Befund behoben der vorgibt dass
Änderungen an Prognosedaten nachverfolgbar und versioniert sein müssen.
FastBase Service
Architektur, Design und Implementierung eines neuen JSF Dienstes “(Name auf Anfrage) Service” um die Weiterentwicklung der bankinternen Client Applikation zu ermöglichen. Der bisherige Client war in Visual Basic 6 entwickelt worden, welches stark veraltet und in der Bank auch nicht mehr verfügbar ist. Dadurch lag die Weiterentwicklung lange auf Eis. Alle Funktionalitäten des bisherigen Clients wurden in einen neuen Java Server Faces Dienst adaptiert und optimiert und sind nun durch den Webbrowser verfügbar.
Der neue Dienst eliminiert eine Reihe von Fehler des veralteten Clients und stellt die Möglichkeit zum Hinzufügen und Weiterentwickeln von Kerngeschäftsfunktionen wieder her.
Der Dienst erfüllt alle Standards und Richtlinien der Bank für moderne Softwarearchitektur und trennt zusätzlich alle Benutzer durch die Schnittstelleneigenschaft des Web-Frontend vom direkten Zugriff auf die Datenbankebene.
Scheduler Re-Design und Referenzimplementierung eines Prototyps
Architektur, Design und Referenzimplementierung eines UC4-gesteuerten Scheduler-Prototyps, sowie Implementierung von beispielhaften (Name auf Anfrage) Prozessen.
Derzeit erfolgt die Steuerung aller ETL-Prozesse in (Name auf Anfrage) durch eine stark angepasste “Activity BPMN Engine”-Applikation. Diese ist nicht nur äußerst fehleranfällig, sondern gibt generell auch nur sehr wenig Rückmeldung. Sie verstößt auch gegen die bankinterne Scheduler-Richtlinie. Darüber hinaus erfordert sie ein solch beträchtliches Maß an Wissen um ihre Eigentümlichkeiten, dass zwei Entwickler nahezu komplett an die Entwicklung und Fehlerbehebung von absoluten Basisfunktionalitäten gebunden sind.
Die Implementierung einer neuen Scheduling-Plattform auf der Basis von UC4 wird zu einer wesentlich saubereren und leichter zu verstehenden Architektur führen und somit zwei Entwicklerressourcen freisetzen.
Zusätzlich wird die Scheduler-Richtlinie eingehalten da die gemanagte UC4 Plattform verwendet wird. Das neue Design kann leicht von der “SPManager”-Referenzimplementierung für weitere Prozesse adaptiert werden.
SPManager
Architektur, Design und Implementierung einer Applikation zur Verwaltung von Stored SQL Procedures. (Name auf Anfrage) beinhaltet mehr als 2500 Stored Procedures welche direkt durch die Fachabteilung auf dem produktiven System geändert werden.
Bisher war es aufgrund von Zugriffsbeschränkungen und mangelnder Kommunikation sehr schwierig die produktiven Stored Procedures synchron zu denen in der Entwicklungsumgebung zu halten. Das führte bei Liefereinsätzen in der Produktionsumgebung oft zu Fehlern wenn solche geänderten Stored Procedures durch neue Softwarepakete adressiert wurden. Darüber hinaus gab es keine Revisionskontrolle oder Änderungsverfolgung der Stored Procedures.
Der SPManager findet auf täglicher Basis neue und geänderte Stored Procedures in der Produktionsumgebung und meldet diese samt Quellcode an die Entwicklungsabteilung zur Einpflege in die Revisionskontrolle. Dadurch sind alle Stored Procedures in TFS versioniert, was zu wesentlich unaufgeregteren Liefereinsätzen führt. Zusätzlich werden auf wöchentlicher Basis Nutzungsstatistiken gemeldet um unbenutzte Stored Procedures aufzuspüren.
Der SPManager ist die Prototyp- und Referenzimplementierung der neuen UC4-basierten Scheduling-Plattform.
Generelle Aktivitäten:
- Entwicklung von neuen Lieferprozessen.
- Refactoring von existierenden Applikationen in eine neue und leichter verständliche Struktur.
- Beratung von Empfehlung von Lösungen zu komplexen technischen Problemen.
- Kommunikation und Abstimmung mit anderen Abteilungen.
- Überwachung von übergeordneten Zielen.
- Verbesserung der Gesamtarchitektur.
- Außerdienststellung von unbenutzten Diensten.