18.03.2023 aktualisiert


Cognos, Data Mining, Data Analyse, BI, ETL, and DB2 DWH specialist
Skills
Shell, Perl, Python, SQL, PHP,
DB2, ORACLE, MSSQL, Maria, RoundRobin DB (RRD),
Data Warehouses (DWH), TDS, CRM
Data Analyse, Data Mining
System-P Virtualization (LPARs, VLAN, Storage),
VMware Virtualization (VMs, Cluster, etc),
VMware-VCenter’s SDK-API, HMC-REST-API,
LDAP,SAS,SSH,
LPAR2RRD,
Networking, Firewalls, SAS and SSH tunneling,
Tivoli Productivity Center (TPC), IBM Spectrum Control (ISP).
Please download my profile for details!
Sprachen
Projekthistorie
Auf Basis meiner Empfehlung wurde der OpenSource-basierende Reporting Teil des DWH „BlueCap“ (s.u.) zu IBM Cognos Analytics (CA) portiert. Hierzu wurde auf die neueste Version CA 11.1.x gesetzt, incl. User-Authentifizierung via LDAP-groups. Das Erstellen diverser BI-Reports und die Presentation mittels CA-Dashboards gehörte zu meinen Aufgaben. Auch wurden die bisher entwickelten ETL-Scripte (Shell, Perl) mit Python neu geschrieben.
Unterstützung der Service- und Key Account Manager in allen Aspekten von Virtualisierungs- und Kapazitätsfragen (BI-Reports).
BlueCap (siehe unten, das von mir konzipierte DWH, Data Mining & Reporting-Tool) wurde zum zentralen Kapazität-Planungs-Tool für IBM-DACH, wodurch ich zum zentralen Ansprechpartner für das DACH Capacity- & Controlling-Team wurde.
Ständige Anpassung und Erweiterung von Infrastruktur- und Kapazitätsberichten. Steuern eines Entwicklungsteams zur Weiterentwicklung des DWH „BlueCap“.
Als verantwortlicher Projektleiter wurde ich beauftragt eine neue, DACH-weite, Infrastruktur zu planen und mit einem Team aufzubauen. Hierzu gehörte u.a. die Netzwerkplanung (VLANs, Firewall rules), Empfehlung der Server-Landschaften und die Auswahl der Middleware. Die Umsetzung erfolgt auf Basis von agilen Vorgehensweisen unter Anlehnung Scrum ähnlicher-Prozesse.
Es wurde beschlossen BlueCap’s DWH (s.u.) und Applikation in ein anderes Netzwerk-Segment zu verlegen und die Applikationen und Scripte, DB2s (incl. allen Procedures), Apache Webserver, etc., zu Redhat RHEL zu portieren. Die grösste Herausforderung war hier das Verlagern des Data Lakes und die vielen Datenquellen wieder zu "connecten" (Security, Firewall, etc.).
Dies wurde von einem kleinen Team (5 MAs) unter meiner technischen Leitung umgesetzt.
In weiteren Schritten wurden diverse Optimierungen vorgenommen. So kamen Column-Oriented-Tables (COT) und Materialized-Query-Tables (MQT) zum Einsatz, was eine erhebliche Perfomance-Steigerung zur Folge hatte.