04.08.2025 aktualisiert


nicht verfügbar
Cloud Architekt, DevOps-Engineer
Tostedt, Deutschland
Weltweit
WirtschaftsinformatikSkills
TeamfähigkeitVerlässlichkeitEmpathieWeitblickKubernetesagilSystementwicklungMicroservicesIT OperationsIT ConsultingSystemmonitoringtoolsCloudGCP (Google Cloud Platform)AWS (Amazon WebServices)AzureDockerVirtualisierungApache Cloud StackIONOS CloudHetzner Cloud Github ActionsGitLab CI/CDMySQLMariaDBPostgresqlWireguardOpenVPNIPSec pfSenseTerraformOpenTofuAnsibleAnsible TowerGoogle Kubernetes EngineAzure Kubernetes Services (AKS)RancherRanger Kubernetes EngineK3S PrometheusGrafanaGrafana LokikyvernoVelerovcluster
Der sichere, effiziente und verlässliche Betrieb einer Anwendung ist für mich genauso wichtig, wie die eigentliche Softwareentwicklung. Deshalb habe schon immer entsprechende Aufgaben in Projekten übernommen. Die aktuellen Entwicklungen rund um DevOps-Kulturen, Containerisierung, Kubernetes und Cloud Computing sind bei mir gängige Praxis geworden.
Ich bringe Ihre Anwendungen in die Cloud. Sicher, hochverfügbar, skalierbar, kosteneffizient und ohne Vendor-Lockin.
Ich verbinde Dev und Ops, da ich beiden Welten Zuhause bin. Devs können mit mehr Ops-Wissen wesentlich bessere Architekturentscheidungen treffen und somit ihre Anwendungen cloudfähig machen. Ops können mit entsprechenden Dev-Wissen lernen ihre Infrastruktur in Code zu gießen und somit ein neues Level an Automatisierung erreichen. Zusammen können entwickelte Features viel schneller und in höherer Qualität zum Endbenutzer gebracht werden.
Auch wenn es nicht das Ziel ist eine Anwendung in der Cloud zu betreiben, so sind doch die sich z. Zt. etablierenden DevOps-Ansätze auch für den Betrieb on premisses von großem Vorteil. Denn schnelle, flexible, sichere und automatisierte Verfahren für Softwaretests und -auslieferung wirken sich auch hier positiv aus.
Rollen
Cloud Architekt, DevOps-Engineer, Senior IT-Consultant, Projektleiter, Senior/Lead Developer, Schulungsleiter
Softskills
Teamfähig, agil, verlässlich, Know-How-Transfer ins Team, sicherheitsbewusst, empathisch, neugierig, viel Weitblick, kreativ, kritikfähig, Feedbackgeber
Konzepte/Methoden
DevOps, Infrastucture as Code, Pets vs Cattle, cloud native, agile, Scrum, Kanban, MVP, Serverless, Microservices, Microfrontends, 12-Factor-Apps, Domain Driven Design, Prototyping
Aktuelle Technologien
Der Übersichtlichkeit halber, habe ich ältere Technologien aus der Liste gestrichen, da sie in heutigen Projekten keine große Relevanz mehr haben. Im Zweifelsfall, fragen Sie bitte einfach nach, ob ich Ihnen zu solchen Themen weiterhelfen kann. Meine vollständige Projektliste kann hier auch hilfreich sein.
Betriebssysteme
Linux (debian, Ubuntu, RHEL & Clone), MacOS, Windows
Virtualisierung
KVM, Proxmox, OpenStack, HyperV, Virtual Box
Cloudprovider
Google Cloud Platform, SC Synergy (Apache Cloudstack), Azure, AWS, Scaleway, Hetzner, IONOS
CI/CD
GitHub Actions, Azure DevOps, Gitlab CD/CI, Atlassian Bamboo, GoCD, Gitea, Nexus, Artifactory, FluxCD, Jenkins
Datenbanken
MySQL, MariaDB, PostgreSQL, MS-SQL, Firestore, Oracle, H2, Redis/ValKey
Netzwerke
Wireguard VPN, OPenVPN, IPSec, OPNSense, pfSense, OpenWRT, Websockets/STOMP, IoT/MQTT, Routing, HTTP/S
Middleware/Frameworks
Spring Boot, Google Firebase, RabbitMQ, Keycloak, Node.js, NodeRed, Tomcat, nginx, haproxy, JBoss/Wildfly, Apache-Webserver, JEE, EJB, EJB3, Web Services/REST/SOAP
DevOps/Cloud
Terraform/OpenTofu, Ansible, Docker, OCI, ELK, Loki, Splunk, Cloudinit, Vagrant, Packer, certbot, restic, Podman/Buildah, Minio, devcontainers
Kubernetes (Certified Kubernetes Administrator)
Kubernetes kubeadm/RKE2/k3s/aks/gke/cloudstack minikube/kind, Rancher, Istio, Linkerd, Longhorn, Rook/Ceph, k3s, podman, Helm/helmfile, Prometheus, Alertmanager, Grafana, letsencrypt/cert-manager, Operator Development in Golang, PostgreSQL Operators: Zalando & Crunchy Data, Kyverno, velero, vcluster (Kubernetes in Kubernetes), Longhorn, Ceph/Rook, Sealed Secrets, cert-manager
Skript-, Programmier- und Auszeichnungssprachen
Python, Go, Java, Groovy, Shell, Perl, JSON, YAML, TOML, XML/DTD/XMLSchema
Sonstige
Branchen
IT-Dienstleister, Bildung, Pharmaindustrie, Versicherungen, Banken, Leasing, Behörden, Verlage, Presseagenturen, Mineralölindustrie, Steuerberatung
Führungserfahrungen
Geschäftsführung eines IT-Startups, Geschäftsführung einer Mitarbeiter Beteiligungsgesellschaft, mehrjährige Erfahrung in der Leitung von IT-Projekten (Teamgrößen bis zu 12 Mitarbeiter), mehrjährige Führungserfahrung in der mineralölverarbeitenden Industrie (Teamgrößen bis zu 19 Mitarbeiter)
Schulungsleitung und Beratung
Trainer für Docker & Kubernetes, Coaching und Beratung im IT-Bereich, Durchführung von Schulungen für Softwareentwickler und Anwender
Sprachkenntnisse
Deutsch, Englisch
Wichtige Konzepte
Hier eine Auswahl von Konzepten die ich in Projekten umsetze:
DevOps ist ein Ansatz, der Entwicklung (Dev) und Betrieb (Ops) eng miteinander verzahnt, um Software schneller und effizienter bereitzustellen. Durch Automatisierung, kontinuierliche Integration und Zusammenarbeit wird eine hohe Verfügbarkeit, Sicherheit und Qualität der Anwendungen gewährleistet.
Infrastructure as Code (IaC) bedeutet, dass die gesamte IT-Infrastruktur wie Netzwerke, Server und Datenbanken in Code beschrieben wird. Dadurch können Umgebungen automatisiert, versioniert und reproduzierbar bereitgestellt und verwaltet werden, was Effizienz und Skalierbarkeit erhöht.
Container sind leichtgewichtige, isolierte Umgebungen, in denen Anwendungen mit all ihren Abhängigkeiten ausgeführt werden. Sie ermöglichen eine konsistente Ausführung über verschiedene Umgebungen hinweg und erleichtern die Skalierbarkeit und Portabilität von Anwendungen.
Orchestrierung bezeichnet die automatisierte Verwaltung und Koordination von Containern, Netzwerken und Anwendungen in komplexen Umgebungen. Sie sorgt dafür, dass Container gestartet, skaliert, überwacht und bei Ausfällen automatisch neu verteilt werden, um einen reibungslosen Betrieb sicherzustellen.
Der Zero Trust-Ansatz geht davon aus, dass kein Benutzer oder System automatisch vertraut wird – egal ob innerhalb oder außerhalb des Netzwerks. Jede Anfrage muss authentifiziert und autorisiert werden, was hilft, die Sicherheit von Anwendungen und Daten zu stärken.
Identity and Access Management (IAM) regelt, welche Benutzer und Systeme auf welche Ressourcen zugreifen dürfen. Durch strikte Rollen- und Rechteverwaltung wird sichergestellt, dass nur autorisierte Entitäten Zugriff auf sensible Daten und Systeme haben.
Verschlüsselung schützt Daten sowohl im Ruhezustand (at rest) als auch während der Übertragung (in transit). Dies stellt sicher, dass sensible Informationen selbst dann sicher bleiben, wenn sie abgefangen oder kompromittiert werden.
Eine Web Application Firewall (WAF) schützt Webanwendungen, indem sie eingehenden und ausgehenden HTTP-Datenverkehr überwacht und potenziell bösartige Anfragen blockiert. So werden Angriffe wie SQL-Injections oder Cross-Site-Scripting verhindert.
Secret Management befasst sich mit der sicheren Speicherung und Verwaltung von sensiblen Informationen wie API-Schlüsseln, Passwörtern und Zertifikaten. Dienste wie Azure Keyvault oder Google Secrets Manager helfen, diese Geheimnisse sicher zu verwalten und Zugriffe zu kontrollieren.
Der Least Privilege-Ansatz stellt sicher, dass Benutzer und Systeme nur die minimal erforderlichen Rechte haben, um ihre Aufgaben zu erfüllen. Dies reduziert das Risiko von Sicherheitsvorfällen und ungewolltem Zugriff.
Continuous Integration (CI) ist ein Prozess, bei dem Codeänderungen automatisch Builds, Unit Tests und gegebenenfalls Deployments auslösen. Dies sorgt für eine schnelle Erkennung von Fehlern und ermöglicht eine kontinuierliche Auslieferung von hochwertiger Software.
Continuous Delivery erweitert Continuous Integration und ermöglicht die automatisierte Bereitstellung von Codeänderungen. Vor dem Übergang in Staging- oder Produktionsumgebungen sind manuelle Freigaben durch Entwickler oder die Qualitätssicherung notwendig.
Continuous Deployment geht einen Schritt weiter als Continuous Delivery und automatisiert die vollständige Auslieferung von Codeänderungen bis in die Produktionsumgebung. Jede erfolgreich getestete Änderung wird ohne manuelle Freigaben sofort produktiv geschaltet, was eine schnelle und kontinuierliche Bereitstellung ermöglicht.
Monitoring umfasst das kontinuierliche Beobachten und Messen von Systemen anhand vordefinierter Metriken wie CPU-Auslastung, Speicher oder Netzwerkaktivität. Es dient dazu, Probleme frühzeitig zu erkennen und die Verfügbarkeit der Systeme sicherzustellen.”
Observability geht über klassisches Monitoring hinaus und bietet einen umfassenderen Einblick in den Zustand eines Systems. Durch die Kombination von Metriken, Logs und Traces ermöglicht es, Probleme proaktiv zu identifizieren und deren Ursachen tiefgehender zu verstehen.
Backup & Recovery bezieht sich auf die regelmäßige Sicherung von Daten, um im Falle eines Verlusts oder einer Beschädigung eine Wiederherstellung zu ermöglichen. Ein durchdachter Backup- und Recovery-Plan stellt sicher, dass kritische Daten und Systeme nach Ausfällen oder Cyberangriffen schnell wiederhergestellt werden können.
Disaster Recovery (DR) ist ein strategischer Prozess, der sicherstellt, dass IT-Systeme und Daten nach schwerwiegenden Vorfällen wie Naturkatastrophen, Cyberangriffen oder Hardwareausfällen wiederhergestellt werden können. Ein DR-Plan definiert klare Maßnahmen und Wiederherstellungsziele, um den Geschäftsbetrieb schnellstmöglich zu sichern.
Cloud Native beschreibt einen Ansatz zur Entwicklung und Ausführung von Anwendungen, die speziell für Cloud-Umgebungen optimiert sind. Durch den Einsatz von Containern, Microservices und dynamischer Orchestrierung bieten Cloud-Native-Anwendungen eine hohe Skalierbarkeit, Flexibilität und Resilienz.
High Availability (HA) bezieht sich auf die Fähigkeit eines Systems oder einer Anwendung, trotz Ausfällen oder Problemen nahezu durchgängig verfügbar zu sein. Dies wird durch redundante Architekturen, automatische Failover-Mechanismen und die Vermeidung von Single Points of Failure erreicht.
Software Defined Networking (SDN) ist ein Ansatz, bei dem Netzwerkkonfiguration und -steuerung über Software zentralisiert und automatisiert werden. Dies ermöglicht eine flexible und dynamische Verwaltung von Netzwerkressourcen und eine schnelle Anpassung an wechselnde Anforderungen.
GitOps ist ein Ansatz zur Verwaltung und Automatisierung von Infrastruktur und Anwendungen, bei dem das Git-Repository als zentrale Quelle für die gesamte Konfiguration dient. Änderungen werden durch Git-Commits versioniert und automatisch in die Zielumgebung übertragen, wodurch der Prozess transparent und nachvollziehbar wird.
Self Healing beschreibt die Fähigkeit eines Systems, automatisch auf Fehler zu reagieren und sich selbst zu reparieren, ohne manuelles Eingreifen. Durch Mechanismen wie automatische Neustarts, Replikation und Ausfallüberwachung wird die Verfügbarkeit und Stabilität des Systems gewährleistet.
Autoscaling ermöglicht es einem System, automatisch Ressourcen wie Rechenleistung oder Speicherplatz je nach Last anzupassen. Dadurch wird sichergestellt, dass immer genügend Ressourcen zur Verfügung stehen, um die Anforderungen zu erfüllen, während gleichzeitig Kosten durch Überprovisionierung vermieden werden.
Serverless ist ein Cloud-Modell, bei dem Anwendungen ausgeführt werden, ohne dass Entwickler sich um die zugrunde liegende Serverinfrastruktur kümmern müssen. Die Cloud-Anbieter verwalten automatisch die Skalierung und Ressourcen, während die Abrechnung nur für die tatsächlich genutzte Rechenzeit erfolgt.
Service Mesh ist eine Infrastrukturebene, die die Kommunikation zwischen Microservices in einer verteilten Anwendung steuert. Es bietet Funktionen wie Load Balancing, Service Discovery, Verschlüsselung, Monitoring und Fehlerbehandlung, ohne dass Änderungen an den Anwendungen selbst erforderlich sind.
Ich bringe Ihre Anwendungen in die Cloud. Sicher, hochverfügbar, skalierbar, kosteneffizient und ohne Vendor-Lockin.
Ich verbinde Dev und Ops, da ich beiden Welten Zuhause bin. Devs können mit mehr Ops-Wissen wesentlich bessere Architekturentscheidungen treffen und somit ihre Anwendungen cloudfähig machen. Ops können mit entsprechenden Dev-Wissen lernen ihre Infrastruktur in Code zu gießen und somit ein neues Level an Automatisierung erreichen. Zusammen können entwickelte Features viel schneller und in höherer Qualität zum Endbenutzer gebracht werden.
Auch wenn es nicht das Ziel ist eine Anwendung in der Cloud zu betreiben, so sind doch die sich z. Zt. etablierenden DevOps-Ansätze auch für den Betrieb on premisses von großem Vorteil. Denn schnelle, flexible, sichere und automatisierte Verfahren für Softwaretests und -auslieferung wirken sich auch hier positiv aus.
Rollen
Cloud Architekt, DevOps-Engineer, Senior IT-Consultant, Projektleiter, Senior/Lead Developer, Schulungsleiter
Softskills
Teamfähig, agil, verlässlich, Know-How-Transfer ins Team, sicherheitsbewusst, empathisch, neugierig, viel Weitblick, kreativ, kritikfähig, Feedbackgeber
Konzepte/Methoden
DevOps, Infrastucture as Code, Pets vs Cattle, cloud native, agile, Scrum, Kanban, MVP, Serverless, Microservices, Microfrontends, 12-Factor-Apps, Domain Driven Design, Prototyping
Aktuelle Technologien
Der Übersichtlichkeit halber, habe ich ältere Technologien aus der Liste gestrichen, da sie in heutigen Projekten keine große Relevanz mehr haben. Im Zweifelsfall, fragen Sie bitte einfach nach, ob ich Ihnen zu solchen Themen weiterhelfen kann. Meine vollständige Projektliste kann hier auch hilfreich sein.
Betriebssysteme
Linux (debian, Ubuntu, RHEL & Clone), MacOS, Windows
Virtualisierung
KVM, Proxmox, OpenStack, HyperV, Virtual Box
Cloudprovider
Google Cloud Platform, SC Synergy (Apache Cloudstack), Azure, AWS, Scaleway, Hetzner, IONOS
CI/CD
GitHub Actions, Azure DevOps, Gitlab CD/CI, Atlassian Bamboo, GoCD, Gitea, Nexus, Artifactory, FluxCD, Jenkins
Datenbanken
MySQL, MariaDB, PostgreSQL, MS-SQL, Firestore, Oracle, H2, Redis/ValKey
Netzwerke
Wireguard VPN, OPenVPN, IPSec, OPNSense, pfSense, OpenWRT, Websockets/STOMP, IoT/MQTT, Routing, HTTP/S
Middleware/Frameworks
Spring Boot, Google Firebase, RabbitMQ, Keycloak, Node.js, NodeRed, Tomcat, nginx, haproxy, JBoss/Wildfly, Apache-Webserver, JEE, EJB, EJB3, Web Services/REST/SOAP
DevOps/Cloud
Terraform/OpenTofu, Ansible, Docker, OCI, ELK, Loki, Splunk, Cloudinit, Vagrant, Packer, certbot, restic, Podman/Buildah, Minio, devcontainers
Kubernetes (Certified Kubernetes Administrator)
Kubernetes kubeadm/RKE2/k3s/aks/gke/cloudstack minikube/kind, Rancher, Istio, Linkerd, Longhorn, Rook/Ceph, k3s, podman, Helm/helmfile, Prometheus, Alertmanager, Grafana, letsencrypt/cert-manager, Operator Development in Golang, PostgreSQL Operators: Zalando & Crunchy Data, Kyverno, velero, vcluster (Kubernetes in Kubernetes), Longhorn, Ceph/Rook, Sealed Secrets, cert-manager
Skript-, Programmier- und Auszeichnungssprachen
Python, Go, Java, Groovy, Shell, Perl, JSON, YAML, TOML, XML/DTD/XMLSchema
Sonstige
Branchen
IT-Dienstleister, Bildung, Pharmaindustrie, Versicherungen, Banken, Leasing, Behörden, Verlage, Presseagenturen, Mineralölindustrie, Steuerberatung
Führungserfahrungen
Geschäftsführung eines IT-Startups, Geschäftsführung einer Mitarbeiter Beteiligungsgesellschaft, mehrjährige Erfahrung in der Leitung von IT-Projekten (Teamgrößen bis zu 12 Mitarbeiter), mehrjährige Führungserfahrung in der mineralölverarbeitenden Industrie (Teamgrößen bis zu 19 Mitarbeiter)
Schulungsleitung und Beratung
Trainer für Docker & Kubernetes, Coaching und Beratung im IT-Bereich, Durchführung von Schulungen für Softwareentwickler und Anwender
Sprachkenntnisse
Deutsch, Englisch
Wichtige Konzepte
Hier eine Auswahl von Konzepten die ich in Projekten umsetze:
DevOps ist ein Ansatz, der Entwicklung (Dev) und Betrieb (Ops) eng miteinander verzahnt, um Software schneller und effizienter bereitzustellen. Durch Automatisierung, kontinuierliche Integration und Zusammenarbeit wird eine hohe Verfügbarkeit, Sicherheit und Qualität der Anwendungen gewährleistet.
Infrastructure as Code (IaC) bedeutet, dass die gesamte IT-Infrastruktur wie Netzwerke, Server und Datenbanken in Code beschrieben wird. Dadurch können Umgebungen automatisiert, versioniert und reproduzierbar bereitgestellt und verwaltet werden, was Effizienz und Skalierbarkeit erhöht.
Container sind leichtgewichtige, isolierte Umgebungen, in denen Anwendungen mit all ihren Abhängigkeiten ausgeführt werden. Sie ermöglichen eine konsistente Ausführung über verschiedene Umgebungen hinweg und erleichtern die Skalierbarkeit und Portabilität von Anwendungen.
Orchestrierung bezeichnet die automatisierte Verwaltung und Koordination von Containern, Netzwerken und Anwendungen in komplexen Umgebungen. Sie sorgt dafür, dass Container gestartet, skaliert, überwacht und bei Ausfällen automatisch neu verteilt werden, um einen reibungslosen Betrieb sicherzustellen.
Der Zero Trust-Ansatz geht davon aus, dass kein Benutzer oder System automatisch vertraut wird – egal ob innerhalb oder außerhalb des Netzwerks. Jede Anfrage muss authentifiziert und autorisiert werden, was hilft, die Sicherheit von Anwendungen und Daten zu stärken.
Identity and Access Management (IAM) regelt, welche Benutzer und Systeme auf welche Ressourcen zugreifen dürfen. Durch strikte Rollen- und Rechteverwaltung wird sichergestellt, dass nur autorisierte Entitäten Zugriff auf sensible Daten und Systeme haben.
Verschlüsselung schützt Daten sowohl im Ruhezustand (at rest) als auch während der Übertragung (in transit). Dies stellt sicher, dass sensible Informationen selbst dann sicher bleiben, wenn sie abgefangen oder kompromittiert werden.
Eine Web Application Firewall (WAF) schützt Webanwendungen, indem sie eingehenden und ausgehenden HTTP-Datenverkehr überwacht und potenziell bösartige Anfragen blockiert. So werden Angriffe wie SQL-Injections oder Cross-Site-Scripting verhindert.
Secret Management befasst sich mit der sicheren Speicherung und Verwaltung von sensiblen Informationen wie API-Schlüsseln, Passwörtern und Zertifikaten. Dienste wie Azure Keyvault oder Google Secrets Manager helfen, diese Geheimnisse sicher zu verwalten und Zugriffe zu kontrollieren.
Der Least Privilege-Ansatz stellt sicher, dass Benutzer und Systeme nur die minimal erforderlichen Rechte haben, um ihre Aufgaben zu erfüllen. Dies reduziert das Risiko von Sicherheitsvorfällen und ungewolltem Zugriff.
Continuous Integration (CI) ist ein Prozess, bei dem Codeänderungen automatisch Builds, Unit Tests und gegebenenfalls Deployments auslösen. Dies sorgt für eine schnelle Erkennung von Fehlern und ermöglicht eine kontinuierliche Auslieferung von hochwertiger Software.
Continuous Delivery erweitert Continuous Integration und ermöglicht die automatisierte Bereitstellung von Codeänderungen. Vor dem Übergang in Staging- oder Produktionsumgebungen sind manuelle Freigaben durch Entwickler oder die Qualitätssicherung notwendig.
Continuous Deployment geht einen Schritt weiter als Continuous Delivery und automatisiert die vollständige Auslieferung von Codeänderungen bis in die Produktionsumgebung. Jede erfolgreich getestete Änderung wird ohne manuelle Freigaben sofort produktiv geschaltet, was eine schnelle und kontinuierliche Bereitstellung ermöglicht.
Monitoring umfasst das kontinuierliche Beobachten und Messen von Systemen anhand vordefinierter Metriken wie CPU-Auslastung, Speicher oder Netzwerkaktivität. Es dient dazu, Probleme frühzeitig zu erkennen und die Verfügbarkeit der Systeme sicherzustellen.”
Observability geht über klassisches Monitoring hinaus und bietet einen umfassenderen Einblick in den Zustand eines Systems. Durch die Kombination von Metriken, Logs und Traces ermöglicht es, Probleme proaktiv zu identifizieren und deren Ursachen tiefgehender zu verstehen.
Backup & Recovery bezieht sich auf die regelmäßige Sicherung von Daten, um im Falle eines Verlusts oder einer Beschädigung eine Wiederherstellung zu ermöglichen. Ein durchdachter Backup- und Recovery-Plan stellt sicher, dass kritische Daten und Systeme nach Ausfällen oder Cyberangriffen schnell wiederhergestellt werden können.
Disaster Recovery (DR) ist ein strategischer Prozess, der sicherstellt, dass IT-Systeme und Daten nach schwerwiegenden Vorfällen wie Naturkatastrophen, Cyberangriffen oder Hardwareausfällen wiederhergestellt werden können. Ein DR-Plan definiert klare Maßnahmen und Wiederherstellungsziele, um den Geschäftsbetrieb schnellstmöglich zu sichern.
Cloud Native beschreibt einen Ansatz zur Entwicklung und Ausführung von Anwendungen, die speziell für Cloud-Umgebungen optimiert sind. Durch den Einsatz von Containern, Microservices und dynamischer Orchestrierung bieten Cloud-Native-Anwendungen eine hohe Skalierbarkeit, Flexibilität und Resilienz.
High Availability (HA) bezieht sich auf die Fähigkeit eines Systems oder einer Anwendung, trotz Ausfällen oder Problemen nahezu durchgängig verfügbar zu sein. Dies wird durch redundante Architekturen, automatische Failover-Mechanismen und die Vermeidung von Single Points of Failure erreicht.
Software Defined Networking (SDN) ist ein Ansatz, bei dem Netzwerkkonfiguration und -steuerung über Software zentralisiert und automatisiert werden. Dies ermöglicht eine flexible und dynamische Verwaltung von Netzwerkressourcen und eine schnelle Anpassung an wechselnde Anforderungen.
GitOps ist ein Ansatz zur Verwaltung und Automatisierung von Infrastruktur und Anwendungen, bei dem das Git-Repository als zentrale Quelle für die gesamte Konfiguration dient. Änderungen werden durch Git-Commits versioniert und automatisch in die Zielumgebung übertragen, wodurch der Prozess transparent und nachvollziehbar wird.
Self Healing beschreibt die Fähigkeit eines Systems, automatisch auf Fehler zu reagieren und sich selbst zu reparieren, ohne manuelles Eingreifen. Durch Mechanismen wie automatische Neustarts, Replikation und Ausfallüberwachung wird die Verfügbarkeit und Stabilität des Systems gewährleistet.
Autoscaling ermöglicht es einem System, automatisch Ressourcen wie Rechenleistung oder Speicherplatz je nach Last anzupassen. Dadurch wird sichergestellt, dass immer genügend Ressourcen zur Verfügung stehen, um die Anforderungen zu erfüllen, während gleichzeitig Kosten durch Überprovisionierung vermieden werden.
Serverless ist ein Cloud-Modell, bei dem Anwendungen ausgeführt werden, ohne dass Entwickler sich um die zugrunde liegende Serverinfrastruktur kümmern müssen. Die Cloud-Anbieter verwalten automatisch die Skalierung und Ressourcen, während die Abrechnung nur für die tatsächlich genutzte Rechenzeit erfolgt.
Service Mesh ist eine Infrastrukturebene, die die Kommunikation zwischen Microservices in einer verteilten Anwendung steuert. Es bietet Funktionen wie Load Balancing, Service Discovery, Verschlüsselung, Monitoring und Fehlerbehandlung, ohne dass Änderungen an den Anwendungen selbst erforderlich sind.
Sprachen
DeutschMutterspracheEnglischgut
Projekthistorie
Projekt Kontext: Das Geschäft das Kunden ist Gestaltungssoftware für Druckprodukte für Webshops bereitzustellen. Hierfür wird eine Kernanwendung auf Angular/PHP/MySQL Basis entwickelt und betrieben. Darüber hinaus werden weitere Einzelservices entwickelt und betrieben, die die Funktionalität der Kernanwendung ergänzen. Meine Aufgabe ist es, einen großen Teil der Cloud-Infrastruktur von AWS in die Hetzner Cloud zu migrieren und dort zu betreiben. Ziel ist es eine hybrid Cloud Umgebung zu schaffen, die aus AWS Services, Hetzner Cloud Komponenten und Hetzner Bare Metal Servern besteht.
Architektur & Infrastruktur: Entwicklung und Implementierung einer skalierbaren Cloud-Architektur in der Hetzner Cloud auf Basis von Rancher RKE2, mit Fokus auf Deployment, Backup & Recovery sowie Monitoring. 100% Infrastructure as Code (IaC). Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller. Intergration der weiter zu nutzenden AWS Services (S3, SQS, Route53). Aufbau und Integration eines Bare Metal RKE2 Clusters in die Hetzner Cloud Infrastruktur mit Hilfe von VSwitches und Cilium basierten Service Loadbalancing und KubeVIP basiert Kubernetes API Loadbalancing.
Technologie: Hetzner Cloud, AWS, OpenTofu, helm, Ranger RKE2 Kubernetes, Docker, MySQL, Prometheus Stack, Grafana Loki, GitLab, devcontainers.
Projekt Kontext: Das Geschäft des Kunden ist das Bereitstellen von APIs für Reiseinformationen und -dienstleistungen die Reiseportalen genutzt werden können. Hierfür wird eine Kernanwendung auf Angular/PHP/MariaDB Basis entwickelt und betrieben. Darüber hinaus werden weitere Einzelservices entwickelt und betrieben, die die Funktionialität der Kernanwendung ergänzen. Ferner werden Dienste betrieben um den eigenen Entwicklungsbetrieb zu unterstützen, hier soll im Rahmen des Projektes der Wechsel von Bitbucket/Bamboo hinzu GitLab EE vollzogen werden. Die bestehende on Premisses Single Host Docker Betriebsumgebung soll in eine Cloud-basierte Kubernetes Umgebung migriert werden. Meine Aufgabe ist es, das Team beim Aufbau dieser Cloud-Infrastruktur in der Hetzner Cloud zu unterstützen.
Architektur & Infrastruktur: Entwicklung und Implementierung einer skalierbaren Cloud-Architektur in der Hetzner Cloud auf Basis von Rancher RKE2, mit Fokus auf Deployment, Backup & Recovery sowie Monitoring. 100% Infrastructure as Code (IaC). Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller.
Technologie: Hetzner Cloud, OpenTofu, helm, Ranger RKE2 Kubernetes, Docker, PostgreSQL, MariaDB, Prometheus Stack, Grafana Loki, GitLab, devcontainers.
Projekt Kontext: Das Geschäft des Kunden ist das Kundenstamm Management. Dieses wird von verschiedenen teilweise selbst entwickelten Anwendungen unterstützt, die im ursprünglichen Zustand in einem inhouse laufenden Docker Swarm Cluster betrieben wurden. Die eingesetzten Datenbanken sind PostgreSQL und MongoDB. Ziel des Projektes ist es die Anwendungen in die Google Cloud Umgebung zu migrieren und sie dort in Kubernetes zu betreiben. Über die Kernanwendungen hinaus sollen auch alle anderen Geschäftsanwendungen in die Google Cloud Kubernetes Umgebung migriert werden. Meine Aufgabe ist es, das Team bei diesem Vorhaben zu unterstützen und die notwendigen Kenntnisse zu vermitteln. Zum Start des Projektes wurde von mir eine Basisimplementierung geliefert auf der nun aufgebaut wird.
Architektur & Infrastruktur: Entwicklung und Implementierung einer skalierbaren Cloud-Architektur auf der Google Cloud Platform (GCP), mit Fokus auf Deployment, Backup & Recovery sowie Monitoring. 100% Infrastructure as Code (IaC). Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller.
Netzwerk- & Sicherheitsinfrastruktur: Einrichtung einer Virtual Private Cloud (VPC) mit VPNs, realisiert durch IPSec und Wireguard, für sichere und schnelle Verbindungen. Google-Cloud-DNS-Setup für reibungslose Netzwerkauflösungen. Automatisierung aller Netzwerkeinstellungen mit Terraform.
Kubernetes & Service Mesh: Aufbau und Verwaltung von Kubernetes-Clustern inklusive eines Service Mesh mit Linkerd zur Absicherung und Optimierung der Kommunikation zwischen den einzelnen Komponenten. Monitoring und Alerting implementiert mit dem Kube-Prometheus-Stack, Grafana und Alertmanager.
Workshops & Wissenstransfer: Der Großteil der Umsetzung erfolgt im Rahmen von interaktiven Workshops, um dem Kunden praktische Fähigkeiten und Best Practices zu Kubernetes, Cloud Networking und Automatisierung zu vermitteln.
Datenbank-Automatisierung: Automatisierte Einrichtung von PostgreSQL-Clustern, inklusive Backup- und Wiederherstellungsszenarien auf S3, sowie automatisierte Schema-Migrationen.
CI/CD: GitHub Workflows für Continuous Integration & Delivery (CI/CD). Verbesserung der Entwicklungs- und Release-Prozesse für schnellere und zuverlässigere Deployments.
Teilzeit ca. 6 Std./Woche
Architektur & Infrastruktur: Entwicklung und Implementierung einer skalierbaren Cloud-Architektur auf der Google Cloud Platform (GCP), mit Fokus auf Deployment, Backup & Recovery sowie Monitoring. 100% Infrastructure as Code (IaC). Realisierung von privaten und öffentlichen Workloads über separate Ingress Controller.
Netzwerk- & Sicherheitsinfrastruktur: Einrichtung einer Virtual Private Cloud (VPC) mit VPNs, realisiert durch IPSec und Wireguard, für sichere und schnelle Verbindungen. Google-Cloud-DNS-Setup für reibungslose Netzwerkauflösungen. Automatisierung aller Netzwerkeinstellungen mit Terraform.
Kubernetes & Service Mesh: Aufbau und Verwaltung von Kubernetes-Clustern inklusive eines Service Mesh mit Linkerd zur Absicherung und Optimierung der Kommunikation zwischen den einzelnen Komponenten. Monitoring und Alerting implementiert mit dem Kube-Prometheus-Stack, Grafana und Alertmanager.
Workshops & Wissenstransfer: Der Großteil der Umsetzung erfolgt im Rahmen von interaktiven Workshops, um dem Kunden praktische Fähigkeiten und Best Practices zu Kubernetes, Cloud Networking und Automatisierung zu vermitteln.
Datenbank-Automatisierung: Automatisierte Einrichtung von PostgreSQL-Clustern, inklusive Backup- und Wiederherstellungsszenarien auf S3, sowie automatisierte Schema-Migrationen.
CI/CD: GitHub Workflows für Continuous Integration & Delivery (CI/CD). Verbesserung der Entwicklungs- und Release-Prozesse für schnellere und zuverlässigere Deployments.
Teilzeit ca. 6 Std./Woche