15.07.2025 aktualisiert


Premiumkunde
100 % verfügbarSenior Software Entwickler
Idar-Oberstein, Deutschland Bachelor of Science Computer Science
Skills
Mit über 5 Jahren Erfahrung in Data Engineering und Software Engineering bin ich spezialisiert auf die Entwicklung skalierbarer Datenplattformen und sicherer IT-Systeme. Als zertifizierter Kubernetes-Experte (CKA & CKAD) und Databricks Data Engineer konzipiere ich maßgeschneiderte Lösungen, die sowohl technisch robust als auch geschäftlich wertvoll sind. Meine Python-Expertise mit FastAPI, meine Kubernetes-Erfahrung und mein Fokus auf Datensicherheit ermöglichen es mir, komplexe Anforderungen in verschiedenen Branchen erfolgreich umzusetzen.
TECHNOLOGIEN
Python | FastAPI | Kubernetes | Docker | AWS | PySpark | Pandas | NumPy | SQLAlchemy
Terraform | CI/CD | PostgreSQL | MySQL | Neo4j | Redis | GitLab | ArgoCD | React | Celery
Machine Learning | Scikit-learn | MLflow | Power BI | Grafana | Prometheus | Loki | Jaeger
AUSGEWÄHLTE PROJEKTE
ECHTZEIT-MONITORING FÜR STROMNETZE
Entwicklung eines Systems zur Erkennung von Incidents im Stromnetz mit Python und NumPy
REST-APIs mit FastAPI für interne/externe Datennutzung
Optimierung numerischer Berechnungen für maximale Performanz
Deployment auf Kubernetes mit umfassendem Monitoring
MEDIZINISCHE WEARABLE-PLATTFORM
Implementierung einer datenschutzkonformen Plattform auf Kubernetes in der OTC
Sichere Verarbeitung sensibler Patientendaten mit FastAPI und PostgreSQL
CI/CD-Pipelines mit GitLab und ArgoCD für kontinuierliche Deployment
Infrastructure-as-Code mit Terraform für reproduzierbare Cloud-Umgebungen
MEDIZINISCHE FORSCHUNGSPLATTFORM
Aufbau eines Kubernetes-Clusters mit OpenStack on-premise
20+ FastAPI Microservices für modulares Systemdesign
Massendaten-Upload-System mit Producer-Consumer-Modell in Python
Neo4j-Integration für komplexe Datenbeziehungen zwischen Forschungsprojekten
E-COMMERCE ANALYTICS-PLATTFORM
Entwicklung einer skalierbaren Plattform mit AWS (DMS, S3, Redshift, Lambda)
Data Warehouse nach Kimball-Methodik für BI und Kundenanalyse
Orchestrierung von Datenverarbeitungs-Workflows mit Step Functions und PySpark
Interaktive Dashboards mit AWS QuickSight für Echtzeit-Analysen
PAWNPARSE - OCR FÜR SCHACHFORMULARE
Eigenentwicklung einer präzisen OCR-Anwendung mit Python, FastAPI und OpenCV
Implementierung von Transformer-Modellen zur Texterkennung
React-Weboberfläche mit Micro-Frontends und RESTful API-Integration
Kubernetes-Deployment in der Hetzner Cloud mit automatischer Skalierung
KERNKOMPETENZEN
DATA ENGINEERING
Skalierbare Datenplattformen mit Fokus auf Sicherheit und Geschäftswert
ETL/ELT-Prozesse für BI und Analytics
PySpark-Cluster innerhalb von Kubernetes für parallele Datenverarbeitung
Data Warehousing und Datenmodellierung für unterschiedliche Anwendungsfälle
BACKEND-ENTWICKLUNG
Hochverfügbare REST-APIs mit FastAPI und automatischer OpenAPI-Dokumentation
Microservice-Architekturen und asynchrone Verarbeitung mit Celery
Schema-Validierung mit Pydantic für robuste Schnittstellen
Relationale und NoSQL-Datenbankmodelle für optimale Datenpersistenz
DEVOPS & CLOUD
Zertifiziertes Kubernetes-Management in verschiedenen Cloud-Umgebungen
Infrastructure-as-Code mit Terraform und GitOps-Workflows
CI/CD-Pipelines für automatisierte Tests und Deployments
Monitoring-Stacks mit Grafana, Prometheus und Loki
MACHINE LEARNING
ML-Pipelines von der Datenvorverarbeitung bis zum Modell-Deployment
MLOps-Lifecycle-Management mit MLflow für reproduzierbare Experimente
Prognosemodelle, Sentiment-Analysen und Computer-Vision-Anwendungen
Integration von ML-Modellen in Geschäftsprozesse mit skalierbaren APIs
ZERTIFIZIERUNGEN
Certified Kubernetes Administrator (CKA)
Certified Kubernetes Application Developer (CKAD)
Databricks Certified Data Engineer Associate & Professional
B.Sc. Informatik, TU Darmstadt
Weitere details auf alex-lind.de
TECHNOLOGIEN
Python | FastAPI | Kubernetes | Docker | AWS | PySpark | Pandas | NumPy | SQLAlchemy
Terraform | CI/CD | PostgreSQL | MySQL | Neo4j | Redis | GitLab | ArgoCD | React | Celery
Machine Learning | Scikit-learn | MLflow | Power BI | Grafana | Prometheus | Loki | Jaeger
AUSGEWÄHLTE PROJEKTE
ECHTZEIT-MONITORING FÜR STROMNETZE
Entwicklung eines Systems zur Erkennung von Incidents im Stromnetz mit Python und NumPy
REST-APIs mit FastAPI für interne/externe Datennutzung
Optimierung numerischer Berechnungen für maximale Performanz
Deployment auf Kubernetes mit umfassendem Monitoring
MEDIZINISCHE WEARABLE-PLATTFORM
Implementierung einer datenschutzkonformen Plattform auf Kubernetes in der OTC
Sichere Verarbeitung sensibler Patientendaten mit FastAPI und PostgreSQL
CI/CD-Pipelines mit GitLab und ArgoCD für kontinuierliche Deployment
Infrastructure-as-Code mit Terraform für reproduzierbare Cloud-Umgebungen
MEDIZINISCHE FORSCHUNGSPLATTFORM
Aufbau eines Kubernetes-Clusters mit OpenStack on-premise
20+ FastAPI Microservices für modulares Systemdesign
Massendaten-Upload-System mit Producer-Consumer-Modell in Python
Neo4j-Integration für komplexe Datenbeziehungen zwischen Forschungsprojekten
E-COMMERCE ANALYTICS-PLATTFORM
Entwicklung einer skalierbaren Plattform mit AWS (DMS, S3, Redshift, Lambda)
Data Warehouse nach Kimball-Methodik für BI und Kundenanalyse
Orchestrierung von Datenverarbeitungs-Workflows mit Step Functions und PySpark
Interaktive Dashboards mit AWS QuickSight für Echtzeit-Analysen
PAWNPARSE - OCR FÜR SCHACHFORMULARE
Eigenentwicklung einer präzisen OCR-Anwendung mit Python, FastAPI und OpenCV
Implementierung von Transformer-Modellen zur Texterkennung
React-Weboberfläche mit Micro-Frontends und RESTful API-Integration
Kubernetes-Deployment in der Hetzner Cloud mit automatischer Skalierung
KERNKOMPETENZEN
DATA ENGINEERING
Skalierbare Datenplattformen mit Fokus auf Sicherheit und Geschäftswert
ETL/ELT-Prozesse für BI und Analytics
PySpark-Cluster innerhalb von Kubernetes für parallele Datenverarbeitung
Data Warehousing und Datenmodellierung für unterschiedliche Anwendungsfälle
BACKEND-ENTWICKLUNG
Hochverfügbare REST-APIs mit FastAPI und automatischer OpenAPI-Dokumentation
Microservice-Architekturen und asynchrone Verarbeitung mit Celery
Schema-Validierung mit Pydantic für robuste Schnittstellen
Relationale und NoSQL-Datenbankmodelle für optimale Datenpersistenz
DEVOPS & CLOUD
Zertifiziertes Kubernetes-Management in verschiedenen Cloud-Umgebungen
Infrastructure-as-Code mit Terraform und GitOps-Workflows
CI/CD-Pipelines für automatisierte Tests und Deployments
Monitoring-Stacks mit Grafana, Prometheus und Loki
MACHINE LEARNING
ML-Pipelines von der Datenvorverarbeitung bis zum Modell-Deployment
MLOps-Lifecycle-Management mit MLflow für reproduzierbare Experimente
Prognosemodelle, Sentiment-Analysen und Computer-Vision-Anwendungen
Integration von ML-Modellen in Geschäftsprozesse mit skalierbaren APIs
ZERTIFIZIERUNGEN
Certified Kubernetes Administrator (CKA)
Certified Kubernetes Application Developer (CKAD)
Databricks Certified Data Engineer Associate & Professional
B.Sc. Informatik, TU Darmstadt
Weitere details auf alex-lind.de
Sprachen
DeutschMutterspracheEnglischverhandlungssicherSpanischGrundkenntnisse