11.11.2025 aktualisiert


Premiumkunde
100 % verfügbarData Scientist
Eschborn, Deutschland
Deutschland
M.Sc Angewandte StatistikSkills
Microsoft WindowsForschungKünstliche Neurale NetzwerkeConfluenceJiraClusteranalyseDatenbankenData MiningGeografische AnalyseR (Programmiersprache)Integrierte EntwicklungsumgebungPythonLatexMachine LearningMathematikProjektmanagementMicrosoft Visual StudioMongodbMysqlNltkNumpyScrumRstudioTensorflowStatistikenDaten- / DatensatzprotokollierungData SciencePytorchDeep LearningJupyterKerasGitKanbanPandasMatplotlibScikit-learnTeamarbeitPlotlySpacy
Projekterfahrung in Bereichen der Statistik und der mathematischen Oprimierung (u.a. Regression, Klassifikation, Zeitreihenanalysen, Clustering) sowie im Bereich Data Science (mit Fokus auf Maschine Learning & Deep Learning)
Methoden und Technologien
Projektmanagement: Scrum, Kanban
Data Science: Data Mining, Machine Learning, Neuronale Netze, Zeitreihenanalysen, Clustering, Klassifikation, Regression, Natural Language Processing, Räumliche Statistik, DSGVO
Persönlichkeit: Organisationstalent, Teamfähigkeit, Sorgfalt
Technisches Skillset
Programmiersprachen: Python, R, LaTeX
Frameworks: NumPy, Pandas, Scikit-Learn, Scikit-Image, Tensorflow, Keras, PyTorch, Matplotlib, Seaborn, Plotly, nltk, spaCy, FastText, tidyr, dplyr, plotly, ggplot2, RColorBrewer, stats, RSelenium, sp, stringr, readr
Datenbanken: Microsoft SQL Server, SQLite, MongoDB, MySQL, Oracle
Entwicklungsumgebungen: PyCharm, Visual Studio Code, Jupyter, RStudio
Tools: Jira, Confluence, Git, Sharepoint, MS Office, TexStudio, ShareLaTeX
Systeme: Windows, Linux
Branchenkenntnisse
Mobilität, Beratung, Forschung, Lehre
Zertifizierung
Scrum Master
Product Owner
AWS Certified Cloud Practitioner
AWS Certified Machine Learning Specialty in Vorbereitung
Tableau in Vorbereitung
Methoden und Technologien
Projektmanagement: Scrum, Kanban
Data Science: Data Mining, Machine Learning, Neuronale Netze, Zeitreihenanalysen, Clustering, Klassifikation, Regression, Natural Language Processing, Räumliche Statistik, DSGVO
Persönlichkeit: Organisationstalent, Teamfähigkeit, Sorgfalt
Technisches Skillset
Programmiersprachen: Python, R, LaTeX
Frameworks: NumPy, Pandas, Scikit-Learn, Scikit-Image, Tensorflow, Keras, PyTorch, Matplotlib, Seaborn, Plotly, nltk, spaCy, FastText, tidyr, dplyr, plotly, ggplot2, RColorBrewer, stats, RSelenium, sp, stringr, readr
Datenbanken: Microsoft SQL Server, SQLite, MongoDB, MySQL, Oracle
Entwicklungsumgebungen: PyCharm, Visual Studio Code, Jupyter, RStudio
Tools: Jira, Confluence, Git, Sharepoint, MS Office, TexStudio, ShareLaTeX
Systeme: Windows, Linux
Branchenkenntnisse
Mobilität, Beratung, Forschung, Lehre
Zertifizierung
Scrum Master
Product Owner
AWS Certified Cloud Practitioner
AWS Certified Machine Learning Specialty in Vorbereitung
Tableau in Vorbereitung
Sprachen
DeutschMutterspracheEnglischverhandlungssicherPolnischMuttersprache
Projekthistorie
Methoden: Data Science, Machine Learning, Deep Learning, ETL, Data Engineering, Cloud (AWS), Clean Code, Anforderungsmanagement
Aufgaben
• Verantwortung für Anforderungsmanagement und Kundenkommunikation, inklusive Abstimmung technischer Details und Präsentation der Ergebnisse bei internen Stakeholdern.
• Unterstützung bei der Projektplanung und Koordination der Datenbeschaffung aus internen Unternehmensorganisations-einheiten.
• Aufbau einer End-to-End-Datenpipeline für AWS SageMaker zur automatisierten Modellerstellung und -aktualisierung.
• Entwicklung von ETL-Pipelines mit PyIceberg, AWS Glue und Polars für die tägliche Verarbeitung und Konsolidierung von Datenfiles sowie Sicherstellung von Datenqualität und Vollständigkeit.
• Austausch mit Fachbereichen zur Qualitätssicherung und Dokumentation der Daten.
• Entwicklung und Weiterentwicklung von AWS Lambdas und einer PostgreSQL-Datenbank für effiziente Datenhaltung und -verarbeitung.
• Durchgängige Anwendung von Clean-Code-Prinzipien zur langfristigen Wartbarkeit und Skalierbarkeit der Lösung.
• Aufbau einer modularen Codebasis mit Packaging-Tools.
• Sicherstellung der Qualität durch Unit- und Integrationstests mit pytest, automatisierte Deployments in CI/CD-Pipelines.
Eingesetzte Tools: Python, Polars, AWS SageMaker, AWS Glue, PyIceberg, Post-greSQL, AWS Lambda, CloudFormation, CI/CD-Pipelines, Ju-pyterLab, VS Code, Jira, Confluence
Entwicklung eines Proof-of-Concepts zur Vorhersage der Ausfallwahrscheinlichkeit im Güterverkehr, mit dem Ziel, Betriebsabläufe datenbasiert zu optimieren und Entscheidungen frühzeitig zu unterstützen.
Methoden: XGBoost, Statistische Datenanalyse, Agile Entwicklung, Kanban
Aufgaben
• Aufbau und Betrieb einer skalierbaren Datenpipeline für mo-dellgestützte Prognosen.
• Verarbeitung großer Datensätze und Feature Engineering zur Optimierung eines XGBoost-Modells.
• Entwicklung einer automatisierten ML-Pipeline mit AWS Sage-Maker.
• Dokumentation der Ergebnisse und Präsentation von Hand-lungsempfehlungen an Stakeholder.
Eingesetzte Tools:
Python, Polars, AWS SageMaker, SQL, VS Code, JupyterLab, Jira, Confluence
Produktentwicklung bei ainovi
Entwicklung eines interaktiven Dashboards für den Industriesektor zur Verfolgung von Zielen wie der Reduzierung von Materialverschwendung und der Implementierung von Predictive Maintenance
Tools & Libraries: Tableau, PowerBI, Python
Entwicklung eines interaktiven Dashboards für den Industriesektor zur Verfolgung von Zielen wie der Reduzierung von Materialverschwendung und der Implementierung von Predictive Maintenance
- Data Preprocessing von verschiedenen Datenquellen
- Explorative Analysen von Produktionsdaten
- Entwicklung eines interaktiven Dashboards
- Dokumentation der Ergebnisse und anschließende Kundenpräsentation
Tools & Libraries: Tableau, PowerBI, Python