13.11.2025 aktualisiert

**** ******** ****
verifiziert
Premiumkunde
100 % verfügbar

Senior Data Scientist | Machine Learning Engineer | GenAI | LLMs

Mainz, Deutschland
Deutschland +2
M.Sc. Computer Science mit Schwerpunkt Machine Learning
Mainz, Deutschland
Deutschland +2
M.Sc. Computer Science mit Schwerpunkt Machine Learning

Profilanlagen

JanaBecker-CV-de-min.pdf
JanaBecker-CV-eng-min.pdf

Skills

Adobe AnalyticsJavascriptAPIsKünstliche IntelligenzAmazon Web ServicesAmazon S3Test AutomationBigqueryCloud ComputingCode-ReviewDatenbankenContinuous IntegrationDjangoElasticsearchGithubPythonMachine LearningNginxNltkNode.JsPair ProgrammingProduktlebensdauerScrumVisualisierungTensorflowTransformerSQLGoogle CloudData SciencePytorchFlaskLarge Language ModelsGrafanaApache SparkDeep LearningKerasCloudformationFastapiVue.JsKanbanMatplotlibGitlab-CiGit FlowScikit-learnPlotlyApache KafkaGraphqlMachine Learning OperationsGensimKibanaSpacyTerraformDockerJenkins
  1. 12 Jahre Programmiererfahrung, davon 6 Jahre professionell im Einsatz
  2. Hands-on Machine Learning Erfahrung: von LLMs & CNNs bis hin zu leichten, effizienten Modellen wie fasttext XGBoost
  3. DevOps & Fullstack Erfahrung
  4. Schneller Durchblick in Business-Logik & neue Themen
  5. Teamplayer mit Initiative – ich habe Spaß an der Arbeit und noch mehr an guter Zusammenarbeit

Schwerpunkte
Machine Learning · NLP · Transformer/Large Language Models · MlOps


Tech-Stack

Sprachen
Python · JavaScript

Entwicklung & Deployment
Docker · GitHub Actions · Terraform · Nginx · Jenkins · GitLab CI/CD

Cloud
GCP (Vertex AI, Compute Engine, BigQuery) · AWS (ECS, CloudFormation, S3)

Datenbanken
Elasticsearch · SQL · BigQuery

Visualisierung
Grafana · Kibana · Adobe Analytics · Plotly · Matplotlib · TensorBoard · AmCharts 4/5

Frameworks & Libraries
ML: PyTorch · Transformers · TensorFlow · Keras · LangChain · RAG · Vektordatenbanken · SageMaker · VertexAI · Scikit-learn · SpaCy · Gensim · NLTK
Daten: pandas · Kafka · Spark
Web & API: Flask · FastAPI · Django · Node.js · axios · GraphQL · Vue.js · Quasar

Methodik
Scrum · Kanban · CI/CD · Git Flow · Code Reviews · Pair Programming · Test Automation · TDD · Product Lifecycle Management

Sprachen

DeutschMutterspracheEnglischverhandlungssicherRussischgutSchwedischGrundkenntnisse

Projekthistorie

Senior Data Scientist

Otto

Konsumgüter und Handel

>10.000 Mitarbeiter

Im letzten Projekt habe ich die Filterfunktionalität des bekannten Onlinehändlers Otto auf Basis von Kundenverhalten neu aufgesetzt und verbessert. Durch den Einsatz von Large Language Models und einer Optimierung des bestehenden FastText-Ansatzes konnte ich die Modellgenauigkeit von durchschnittlich 85% auf 92% steigern.

Meine Rolle & Schwerpunkte:
  • Research & Prototyping: Evaluierung von Ansätzen (FastText vs. Transformer wie RoBERTa XLM, BERT, Mistral, LLaMA 2.1).
  • Training & Optimierung: Effizientes Fine-Tuning (LoRA/QLoRA), extreme Multilabel-Classification.
  • MLOps & Skalierung: Aufbau einer automatisierten Pipeline mit Dagster in AWS & GCP.
    • Ressourceneffizientes (Re-)Training auf EC2-Instanzen
    • Automatisiertes Deployment von geprüften Modellen in den Live-Betrieb

Technologien & Tools:
Python · Transformers · PyTorch · Dagster · GCP (VertexAI, BigQuery) · AWS(ECS, Cloudformation, S3)

Impact:
➡️ Mehr Präzision in den Filterfunktionen → Kund*innen finden schneller, was sie suchen.
➡️ Stabile Infrastruktur → Modelle lassen sich skalierbar, effizient und sicher in Produktion bringen.

Machine Learning Engineer

Sommerfeld AG

Sonstiges

250-500 Mitarbeiter

Entwicklung eines Systems zur automatisierten Erkennung von Rasenkrankheiten mit Convolutional Neural Networks (CNNs). Dabei kam auch semantische Segmentierung zum Einsatz, um Krankheitsbilder präzise zu lokalisieren. Zusätzlich habe ich eine Plattform aufgebaut, die ein schnelles und intuitives Labeling neuer Datensätze ermöglicht – und so die Erweiterung des Trainingsdatensatzes deutlich effizienter macht.

Technologien & Tools:
Python · TensorFlow · Keras · S3 · Docker · Label Studio

Impact:
➡️ Frühzeitige Erkennung von Krankheiten → reduziert Ausfälle und Pflegekosten
➡️ Effizienter Datenaufbau → einfaches Labeling verkürzt die Zeit bis zur nächsten Modelliteration

Data Scientist

R + V Versicherung AG

Versicherungen

>10.000 Mitarbeiter

Entwicklung einer Lösung zur automatisierten Verarbeitung von Kundendaten und Anfragen aus unterschiedlichen Quellen. Aufbau einer dynamischen Plattform zur Speicherung, Verarbeitung, Visualisierung und manuellen Verifizierung der KI-Ergebnisse. Zusätzlich habe ich eine bestehende Anwendung dockerisiert, um Deployment und Skalierung zu vereinfachen.
Darüber hinaus habe ich die Konzeption und erste Schritte für eine Monitoring- und Reporting-Umgebung erarbeitet, um langfristig Transparenz und Nachvollziehbarkeit zu sichern.

Technologien & Tools:
PostgreSQL · Python · Docker · Elastic Stack (Logstash · Elasticsearch · Kibana)

Impact:
➡️ Schnellere und präzisere Verarbeitung von Kundendaten → weniger manueller Aufwand, höhere Datenqualität
➡️ Konzept für Monitoring & Reporting → anschlussfähig für zukünftige Umsetzung, hilft der Transparenz, Effizienz und Fehlerdiagnose
➡️ Effizientes Deployment → Dockerisierung erhöht Skalierbarkeit und reduziert Betriebskosten

Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden