26.08.2025 aktualisiert


nicht verfügbar
Data Engineer / Machine Learning Engineer
Neu-Ulm, Deutschland
Weltweit
Master InformatikSkills
Kurzprofil:
Seit mehr als 6 Jahren bin ich als Data Engineer im universitären und industriellen Umfeld tätig. Zu meinen Projekterfahrungen zählen insbesondere die Planung und Implementierung cloud-basierter End-to-End Daten-Pipelines mit besonderem Fokus auf die effiziente Verarbeitung von sehr großen Mengen an Zeitreihendaten. Ich habe fortgeschrittene Kenntnisse in der Recherche, Modellierung, Implementierung, Evaluierung, Training, Deployment, Qualitätssicherung und Monitoring von Machine- bzw. Deep-Learning Pipelines.
Toolstack (Auswahl):
Python, Spark / Pyspark, SQL, Git, Databricks, Numpy, Pandas, Linux, Docker, Azure Deltalake, Azure Fileshare, Azure BLOB, Azure Storages, Pydantic, Koalas, FastAPI, Keras, Azure DevOps, WSL, Azure Data Factory, Azure Virtual Machines, Prophet, Pytorch, Tensorflow, Scipy, Flask, Redis, Mlflow, AWS S3, Jira, Pytest, Unittest, Kubernetes, Spacy, Fasttext, Beautifulsoup, Confluence, Selenium, Pytorch, Plotly Dash, Jupyter Notebook / Lab, Java, C++, Andoid, C#, LateX, MS Office, VS Code.
Ich biete:
Ich arbeite zuverlässig, gewissenhaft, pflichtbewusst und präzise.
Seit mehr als 6 Jahren bin ich als Data Engineer im universitären und industriellen Umfeld tätig. Zu meinen Projekterfahrungen zählen insbesondere die Planung und Implementierung cloud-basierter End-to-End Daten-Pipelines mit besonderem Fokus auf die effiziente Verarbeitung von sehr großen Mengen an Zeitreihendaten. Ich habe fortgeschrittene Kenntnisse in der Recherche, Modellierung, Implementierung, Evaluierung, Training, Deployment, Qualitätssicherung und Monitoring von Machine- bzw. Deep-Learning Pipelines.
Toolstack (Auswahl):
Python, Spark / Pyspark, SQL, Git, Databricks, Numpy, Pandas, Linux, Docker, Azure Deltalake, Azure Fileshare, Azure BLOB, Azure Storages, Pydantic, Koalas, FastAPI, Keras, Azure DevOps, WSL, Azure Data Factory, Azure Virtual Machines, Prophet, Pytorch, Tensorflow, Scipy, Flask, Redis, Mlflow, AWS S3, Jira, Pytest, Unittest, Kubernetes, Spacy, Fasttext, Beautifulsoup, Confluence, Selenium, Pytorch, Plotly Dash, Jupyter Notebook / Lab, Java, C++, Andoid, C#, LateX, MS Office, VS Code.
Ich biete:
- Implementierung komplexer ETL Pipelines
- Fortgeschrittene Datenanalysen & Visualisierung
- Requirements Engineering datengetriebener Produkte
- Finden und Entwickeln von Usecase- sowie Businesscases für die datengetriebene Wertschöpfung
- Recherche, Implementierung, Evaluierung, Deployment und Qualitätssicherung von Machine Learning Modellen
- Design, Implementierung und Wartung von End-to-End Data- und Machinne Learning Pipelines
- Projektplanung & Dokumentation
- Transparente und klare Kommunikation
- Umsetzung von DevOps Prinzipien
- Flexible Beauftragungsmodelle inkl. erfolgsbasierte Vergütung
Ich arbeite zuverlässig, gewissenhaft, pflichtbewusst und präzise.
Sprachen
DeutschMutterspracheEnglischverhandlungssicherFranzösischGrundkenntnisseSpanischGrundkenntnisse
Projekthistorie
- Strategische Planung, Wartung und Betrieb bestehender Datenstrecken von Rohdatenbeständen bis hin zur Anzeige in Dashboards
- Weiterentwicklung, Qualitätssicherung und Reimplementierung bestehender ETL-Strecken bezüglich Datenqualität
- Erweiterung und Wartung von Datenbanken
- Etablierung von DevOps und DataOps Workflows zur automatisierten Bereitstellung von Datenbanken und Software-Modulen sowie deren Implementierung und Inbetriebnahme
- Schulung von Mitarbeitern und Knowledge Transfer
- Wissenstransfer bzgl. CI/CD-Prinzipien und des generellen Umgangs mit Daten
- Verschlankung bestehender Software Entwicklungs Prozesse
- Verbesserung bzw. Redesign von Teilen der bestehnden Dateninfrastruktur
- Unterstützung bei der strukturierten Abwägung strategischer Entscheidungen für zukünftige Software-Architekturen mit besonderem Fokus auf langfristige Stabilität, Wartbarkeit und laufende Qualitätssicherung
- Planung von Machine Learning Pipelines von Entwicklung bis hin zum Deployment auf Steuergeräten
- Sicherstellung langfristiger Wartbarkeit
- Beratung zur Implementierung von Qualitätssicherungsmechanismen
- Sicherstellung der Modellqualität unter Berücksichtigung spezieller plattformbedingter Performance-Drifts
- Exploration und Priorisierung von Modellierungsansätzen für die Entwicklung von Machine Learning Algorithmen zur vorausschauenden Wartung bzw. Verschleiß-Modellierung
- Beratung bei der Planung von Big Data Architekturen