12.11.2025 aktualisiert


100 % verfügbar
Data Scientist und Product Owner mit Expertise in Big Data und Machine Learning
Philippsburg, Deutschland
Weltweit
Master of Science: Digital EngineeringSkills
Künstliche IntelligenzAirflowData AnalysisBig DataCloud ComputingData GovernanceDevopsApache HadoopSkalierbarkeitPythonMachine LearningProjektmanagementMultidisziplinären AnsatzNumpyScrumQualitätsmanagementTechnische LeitungData ScienceGenerative AIJupyterGitPandasPysparkScikit-learnKubernetesApache KafkaWasserfallmodellDockerDatabricks
Data Science und Analytics
Entwicklung und Operationalisierung datengetriebener Produkte sowie Aufbau skalierbarer Data- und Analytics-Plattformen auf Basis moderner Cloud- und DevOps-Prinzipien
Machine Learning und KI
Konzipierung von Big-Data Zahlungsstromanalyse-modellen, Entwicklung von ML-Modellen zur Klassifikation und Anwendung von Gradient Boosting und Generative AI
Projektmanagement und Teamleitung
Fachliche Leitung interdisziplinärer Data Science-Teams und Anwendung agiler sowie klassischer Methoden wie Scrum und Wasserfall
Big Data Technologien
Expertise in Hadoop, pySpark, Kafka und Airflow für die Verarbeitung großer Datenmengen
Programmierung
Professionelle Entwicklung mit Python einschließlich Pandas, numPy und Scikit-learn
Tools und Plattformen
Erfahrung mit Jupyter, Docker, Kubernetes, Databricks und GIT für Entwicklung und Deployment
Data Governance
Einführung von Data Governance- und Qualitätsstandards zur Sicherstellung von Compliance und Auditing-Anforderungen
IT-Migration
Leitung von IT-Migrationsprojekten mit Fokus auf Skalierbarkeit und Performancesteigerung
Entwicklung und Operationalisierung datengetriebener Produkte sowie Aufbau skalierbarer Data- und Analytics-Plattformen auf Basis moderner Cloud- und DevOps-Prinzipien
Machine Learning und KI
Konzipierung von Big-Data Zahlungsstromanalyse-modellen, Entwicklung von ML-Modellen zur Klassifikation und Anwendung von Gradient Boosting und Generative AI
Projektmanagement und Teamleitung
Fachliche Leitung interdisziplinärer Data Science-Teams und Anwendung agiler sowie klassischer Methoden wie Scrum und Wasserfall
Big Data Technologien
Expertise in Hadoop, pySpark, Kafka und Airflow für die Verarbeitung großer Datenmengen
Programmierung
Professionelle Entwicklung mit Python einschließlich Pandas, numPy und Scikit-learn
Tools und Plattformen
Erfahrung mit Jupyter, Docker, Kubernetes, Databricks und GIT für Entwicklung und Deployment
Data Governance
Einführung von Data Governance- und Qualitätsstandards zur Sicherstellung von Compliance und Auditing-Anforderungen
IT-Migration
Leitung von IT-Migrationsprojekten mit Fokus auf Skalierbarkeit und Performancesteigerung
Sprachen
DeutschMutterspracheEnglischverhandlungssicher
Projekthistorie
Fachliche Leitung und Aufbau eines interdisziplinären Data Science-Teams zur Entwicklung und Operationalisierung datengetriebener Produkte im Rahmen eines Startups. Aufbau und Weiterentwicklung einer skalierbaren Data- und Analytics-Plattform auf Basis moderner Cloud- und DevOps-Prinzipien.
Design und Entwicklung einer Modellentwicklungsumgebung für Data Scientisten zur Einhaltung datenschutzrechtlicher Anforderungen im Finanzumfeld. Entwicklung von Modellstandards zur Wahrung von Vergleichbarkeit und Qualität.
Konzipierung und Entwicklung von Big-Data Zahlungsstromanalyse-modellen zu Identifizierung von Lebensereignissen. Entwicklung von ML-Modellen zur Klassifikation von Transaktionsdaten. Betreuung der Werkstudenten am Standort.