23.10.2025 aktualisiert

**** ******** ****
100 % verfügbar

Data Science/Engineering, Full-Stack Software-Development (Python/Django), DevOps

Berlin, Deutschland
Deutschland +1
Informatik
Berlin, Deutschland
Deutschland +1
Informatik

Profilanlagen

Profil-Janek-Schleicher-2025-09-10-EN.pdf
Profil-Janek-Schleicher-2025-09-10.pdf

Skills

Über mich
Vielseitig interessiert mit viel Lust immer wieder Neues zu lernen. Von Backend-Entwickler (Perl/Python), über Fullstack-Entwickler (Python/Django/Scala), DevOps Engineer, Senior Data Scientist, Certified Kubernetes Administrator bis Data Engineer.
Freiberuflichkeit
Seit November 2019 arbeite ich als freiberuflicher Data Scientist und betreue dabei den kompletten DevOps-Entwicklungs-Prozess einer modernen Software-Lösung mit oder ohne KI-Anteil:
  1. Datenanalyse
  2. Konzeption und Implementierung von Machine-Learning-Modellen inkl. Test-Driven-Development und Deployment auf die Wunsch-Cloud-Infrastruktur oder On-Premise
  3. Data-Engineering inkl. Cloud-Computing und Backend-Development (Python/Scala)
  4. DevOps mit Terraform, Ansible, GitOps, AWS, GCP, Kubernetes oder OpenShift
  5. auf Wunsch inkl. Full-Stack-Development (Python/Django/Javascript/Perl)
  6. in jedem Fall testbasierte Arbeitsweise mit Fokus auf Sicherheit und Datenschutz
Besondere Stärken sind:
  1. Sehr breites anwendungsfähiges Wissen
  2. Betreuen von (Junior-)Entwicklern
  3. Debugging von Problemen

Top-Kenntnisse
  1. Data Science/Data Engineering,
  2. Full Stack Development (Python/Django, Scala/Spark)
  3. DevOps
Weitere Kenntnisse
  1. Airflow
  2. Anaconda
  3. Ansible
  4. Apache Webserver
  5. Artifactory/JFrog
  6. Azure Authentication
  7. Backend-Development (REST-APIs)
  8. Bash
  9. Bitbucket
  10. CI/CD
  11. Confluence
  12. Cytoscape
  13. Data Warehouse
  14. Data Vault
  15. Django
  16. Docker
  17. Elastic Stack
  18. Exasol
  19. Excel
  20. FastAPI
  21. Flask
  22. GCP
  23. Git
  24. Github Actions
  25. GitOps
  26. GKE
  27. GraphX
  28. Hadoop
  29. Helm
  30. Hive
  31. Hue
  32. HTML/CSS
  33. Jenkins
  34. Jira
  35. Jupyter
  36. jQuery
  37. Keras
  38. Kerberos
  39. Kubernetes
  40. Linux
  41. LDAP
  42. MS SQL Server
  43. MS Teams
  44. MySQL
  45. Natural Language Processing
  46. Numpy
  47. OCR
  48. OpenAPI/Swagger
  49. Pandas
  50. Parquet
  51. Perl
  52. PostgreSQL
  53. Protobuf
  54. Public Key Infrastructure
  55. Pytest
  56. Redis
  57. Scikit-Learn
  58. Scrum
  59. Selenium
  60. Slack
  61. Streamlit
  62. SQL
  63. Sqlalchemy
  64. Sqlite
  65. Subversion
  66. Test Driven Development
  67. OAuth2
  68. OICD
  69. OpenShift
  70. OpenSSL
  71. TensorFlow
  72. Terraform
  73. OpenRefine
  74. OpenShift
  75. Unix Shell Scripting
  76. Websockets
  77. Windows 10
  78. WSL 2
  79. x.509

Sprachen

DeutschMutterspracheEnglischverhandlungssicherFranzösischGrundkenntnisse

Projekthistorie

Python Entwicklung & DWH im Bankenumfeld

Deutsche Bank

Banken und Finanzdienstleistungen

>10.000 Mitarbeiter

Erstellen und Betreuen von Python - Projekten für Analytic Data Warehouse für Group Audit (etwa 800 Mitarbeiter) bei der Deutschen Bank (etwa 100’000 Mitarbeiter)
  • Erstellen automatisierter Data Pipelines im Risk Assessment 
  • Betreuung und Wissensweitergabe an interne Mitarbeiter
  • Migration in die Hybrid Cloud
  • DevOps
  • Erstellen eines Authentifizierungssystem für alle Projekte innerhalb der Group Audit Data Analytics

Full Stack Developer (Data Engineering)

Boehringer Ingelheim Pharma GmbH & Co KG

Pharma und Medizintechnik

>10.000 Mitarbeiter

Projekt Biobase
Digitales Produkt, das Wissenschaftlern während des Arzneimittel-Herstellungsprozess hilft, einfachen Zugang zu den relevanten Daten zu haben. Es verknüpft die Daten aus verschiedenen Quellen und Produktphasen (Forschung, Produktion, etc.) durch eine Harmonisierung zu einer kombinierten Datenmenge. Diese Daten werden verfügbar gemacht mitsamt der zugehörigen Analysen und Grafiken.
  • Iterative Entwicklung der Data Processing Pipeline in einem
  • Apache Hadoop Ökosystem basierend auf User Stories
  • Automatisierung der Data Pipeline
  • Sicherstellen der Qualität durch Daten-Exploration und Entwicklung passender Test-Methoden
Eingesetzte Technologien
  • Exasol
  • Lua
  • Postgresql
  • Spark
  • Hadoop
  • Hive
  • Hue
  • Oozie
  • sqoop
  • Parquet
  • Scala
  • GraphX
  • sbt
  • Golang
  • Protobuf
  • Openshift
  • Windows 10
  • Powershell
  • Task Scheduler
  • Visual Studio Code
  • WSL2
  • IntelliJ
  • Jenkins
  • SQL
  • Python
  • Jupyter Notebook, Jupyterlab
  • Anaconda
  • Pandas
  • Scikit-learn
  • Keras
  • Bash
  • Linux
  • MS Teams, Skype for Business
  • Mural
  • Git
  • BitBucket, Confluence, Jira
  • Scrum
  • OpenRefine
  • Trifacta
  • Cytoscape
  • Excel
  • OCR
  • Apache Airflow

Senior Full Stack Entwickler Python/Django

Utimaco TS GmbH

Internet und Informationstechnologie

50-250 Mitarbeiter

Weiterentwicklung einer bestehenden Applikation in Python und Django für ein Unternehmen im Bereich Informationssicherheit mit etwa 200 Mitarbeitern

  • Refactoring und Trouble Shooting des bestehenden testunterstützenden Python/Django Tools

  • Bug fixing der Applikation

  • Technische Beratung der Junior Django Entwickler

  • Dokumentation des Quellcodes


Eingesetzte Technologien:

  • Python, Django

  • Javascript, jQuery

  • RHEL

  • Confluence, Jira, Crucible

  • Subversion

 


Zertifikate

Certified Kubernetes Administrator

Linux Foundation

2020

exali-logo

exali Berufshaftpflicht-Siegel

Das original exali Berufshaftpflicht-Siegel bestätigt dem Auftraggeber, dass die betreffende Person oder Firma eine aktuell gültige branchenspezifische Berufs- bzw. Betriebshaftpflichtversicherung abgeschlossen hat.

Versichert bis: 01.01.2026


Kontaktanfrage

Einloggen & anfragen.

Das Kontaktformular ist nur für eingeloggte Nutzer verfügbar.

RegistrierenAnmelden