24.09.2025 aktualisiert


verifiziert
100 % verfügbarFreelance Data Scientist, IT Consultant, Software Developer & Penetration Tester
Freiburg im Breisgau, Deutschland
Weltweit
Diplom PhysikerSkills
JavascriptAgile MethodologieKünstliche IntelligenzChemieKünstliche Neurale NetzwerkeMicrosoft AzureBig DataC#C++Cloud ComputingContinuous IntegrationDevopsR (Programmiersprache)Apache HadoopPythonMachine LearningPhysikProduktentwicklungScrumTensorflowSoftwareentwicklungSoftware SystemsStatistikenZeitreihenanalyseCloud PlatformData SciencePytorchApache SparkKerasKubernetesDocker
Maschinelles Lernen und KI
Umfassende Expertise in verschiedenen ML-Frameworks, neuronalen Netzen und KI-Technologien wie PyTorch, TensorFlow und Keras.
Softwareentwicklung
Fundierte Kenntnisse in mehreren Programmiersprachen wie Python, R, C#, C++ und JavaScript, sowie in der Entwicklung komplexer Softwaresysteme.
Cloud und DevOps
Erfahrung mit Cloud-Plattformen wie Azure, containerbasierter Entwicklung mit Docker und Kubernetes, sowie CI/CD-Prozessen.
Data Science
Anwendung fortgeschrittener statistischer Methoden und Datenanalysetechniken, einschließlich Zeitreihenanalyse und prädiktiver Modellierung.
Big Data Technologien
Vertrautheit mit Big Data-Frameworks wie Hadoop und Spark, sowie Erfahrung in der Verarbeitung und Analyse großer Datenmengen.
Wissenschaftliches Computing
Hintergrund in der Anwendung von Computermethoden zur Lösung komplexer wissenschaftlicher Probleme, insbesondere in der Physik und Chemie.
Agile Methoden
Erfahrung in der Anwendung agiler Entwicklungsmethoden wie Scrum und in der Leitung von Entwicklungsteams.
Umfassende Expertise in verschiedenen ML-Frameworks, neuronalen Netzen und KI-Technologien wie PyTorch, TensorFlow und Keras.
Softwareentwicklung
Fundierte Kenntnisse in mehreren Programmiersprachen wie Python, R, C#, C++ und JavaScript, sowie in der Entwicklung komplexer Softwaresysteme.
Cloud und DevOps
Erfahrung mit Cloud-Plattformen wie Azure, containerbasierter Entwicklung mit Docker und Kubernetes, sowie CI/CD-Prozessen.
Data Science
Anwendung fortgeschrittener statistischer Methoden und Datenanalysetechniken, einschließlich Zeitreihenanalyse und prädiktiver Modellierung.
Big Data Technologien
Vertrautheit mit Big Data-Frameworks wie Hadoop und Spark, sowie Erfahrung in der Verarbeitung und Analyse großer Datenmengen.
Wissenschaftliches Computing
Hintergrund in der Anwendung von Computermethoden zur Lösung komplexer wissenschaftlicher Probleme, insbesondere in der Physik und Chemie.
Agile Methoden
Erfahrung in der Anwendung agiler Entwicklungsmethoden wie Scrum und in der Leitung von Entwicklungsteams.
Sprachen
DeutschMutterspracheEnglischverhandlungssicherNiederländischGrundkenntnisse
Projekthistorie
○ Technologien: Python, PyTorch, CUDA, Docker, JupyterLab, Google Colab,
Huggingface
○ Theorie und Hands-On Workshops zu Generativer KI für Projekt- und
Teamleiter. Umfassender Überblick über die aktuelle KI-Landschaft
mit Bewertungskriterien für verschiedene KI-Technologien, Identifikation
optimaler KI-Use-Cases durch systematische Analyse von Mensch-Mensch,
Mensch-Maschine und Maschine-Maschine-Prozessen, Methodik zur
Entscheidungsfindung zwischen klassischen ML-Verfahren, Zeitreihenanalyse,
Signalverarbeitung und LLM-basierten Lösungen unter Berücksichtigung
von Kosten und Leistungsaspekten, Entwicklung maßgeschneiderter
Edge-KI-Systeme mit RAG/GRAG-Architekturen und LoRA/QLoRA Fine-
Tuning-Techniken, Konzeption autonomer KI-Agenten mit spezifischen
Tool-Sets und Reasoning-Fähigkeiten, Chatbot-Lösungen mit React, Gradio
und Streamlit, Hosting-Strategien mit Fokus auf lokale Infrastrukturen und
Cloud-Lösungen (Azure, STACKIT), Investitionsanalyse für KI-Projekte mit
Hardware-Optimierung und Ressourcenplanung, Total Cost of Ownership,
Datenanonymisierungsstrategien und EU AI Act-Compliance, sowie Integration
von Datenschutz- und Sicherheitskonzepten.
Huggingface
○ Theorie und Hands-On Workshops zu Generativer KI für Projekt- und
Teamleiter. Umfassender Überblick über die aktuelle KI-Landschaft
mit Bewertungskriterien für verschiedene KI-Technologien, Identifikation
optimaler KI-Use-Cases durch systematische Analyse von Mensch-Mensch,
Mensch-Maschine und Maschine-Maschine-Prozessen, Methodik zur
Entscheidungsfindung zwischen klassischen ML-Verfahren, Zeitreihenanalyse,
Signalverarbeitung und LLM-basierten Lösungen unter Berücksichtigung
von Kosten und Leistungsaspekten, Entwicklung maßgeschneiderter
Edge-KI-Systeme mit RAG/GRAG-Architekturen und LoRA/QLoRA Fine-
Tuning-Techniken, Konzeption autonomer KI-Agenten mit spezifischen
Tool-Sets und Reasoning-Fähigkeiten, Chatbot-Lösungen mit React, Gradio
und Streamlit, Hosting-Strategien mit Fokus auf lokale Infrastrukturen und
Cloud-Lösungen (Azure, STACKIT), Investitionsanalyse für KI-Projekte mit
Hardware-Optimierung und Ressourcenplanung, Total Cost of Ownership,
Datenanonymisierungsstrategien und EU AI Act-Compliance, sowie Integration
von Datenschutz- und Sicherheitskonzepten.
Technologien: C#, gRPC, Simatic PCS7, SQL, JavaScript, React, Docker,
Python, FastAPI, Swagger, PyTorch, CUDA, RAG, GRAG, Agenten,
Huggingface
○ Entwicklung eines C# gRPC-Moduls mit Reflection. Planung und
Implementierung eines digitalen Softwareentwicklers für automatisierte,
sprachgesteuerte Codeverarbeitung in Azure DevOps. Architektur: Python-
Backend (FastAPI), React-Frontend, RAG/GRAG für Codebase-Verständnis
und Integration interner Dokumente, Handbücher und Schulungsunterlagen.
Integration von Qualitätssicherungsmechanismen: Explainable AI mit Arize
Phoenix, RAG-Evaluierung, Halluzinations-Erkennung. Das System agiert
autonom, trifft eigenständige Entscheidungen zur Codeoptimierung und führt
komplexe Entwicklungsaufgaben aus.
Python, FastAPI, Swagger, PyTorch, CUDA, RAG, GRAG, Agenten,
Huggingface
○ Entwicklung eines C# gRPC-Moduls mit Reflection. Planung und
Implementierung eines digitalen Softwareentwicklers für automatisierte,
sprachgesteuerte Codeverarbeitung in Azure DevOps. Architektur: Python-
Backend (FastAPI), React-Frontend, RAG/GRAG für Codebase-Verständnis
und Integration interner Dokumente, Handbücher und Schulungsunterlagen.
Integration von Qualitätssicherungsmechanismen: Explainable AI mit Arize
Phoenix, RAG-Evaluierung, Halluzinations-Erkennung. Das System agiert
autonom, trifft eigenständige Entscheidungen zur Codeoptimierung und führt
komplexe Entwicklungsaufgaben aus.
Technologien: Python, PyTorch, LLMs, ChatGPT, RESTGPT, NanoGPT, Java,
Android, REST API, Swagger, C#/C++, MS Azure, Azure DevOps Pipelines
○ Entwicklung von Verfahren künstlicher Intelligenz zur Umsetzung von digitalen
Assistenten sowie zur Erkennung und Klassifikation von Emotionen auf Basis
von Bild- und Audiodaten. Entwicklung von dockerisierten Prototypen mit Hilfe
verschiedener GPT-Modelle und Implementierung der APIs, sowie Entwicklung
und Training von lokalen alternativen LLMs auf Basis von freien Modellen mit
Web- und benutzerspezifischen Daten.
○ Ansteuerung eines Telepräsenzrobotersystems und Verknüpfung des Roboters
mit Serveranwendungen über REST-APIs.
Android, REST API, Swagger, C#/C++, MS Azure, Azure DevOps Pipelines
○ Entwicklung von Verfahren künstlicher Intelligenz zur Umsetzung von digitalen
Assistenten sowie zur Erkennung und Klassifikation von Emotionen auf Basis
von Bild- und Audiodaten. Entwicklung von dockerisierten Prototypen mit Hilfe
verschiedener GPT-Modelle und Implementierung der APIs, sowie Entwicklung
und Training von lokalen alternativen LLMs auf Basis von freien Modellen mit
Web- und benutzerspezifischen Daten.
○ Ansteuerung eines Telepräsenzrobotersystems und Verknüpfung des Roboters
mit Serveranwendungen über REST-APIs.