08.07.2025 aktualisiert


100 % verfügbar
Unity/Unreal Developer
Nienburg, Deutschland
Weltweit
Computer Science B.Sc.Skills
For a better overview, please visit my website under https://www.christoph-brucksch.de/
Sprachen
DeutschMutterspracheEnglischverhandlungssicherSchwedischgutSpanischgut
Projekthistorie
UVND Technology: „Lucy“
KI-Workflow-Automatisierungsplattform bei UVND Technology
Art und Dauer des Projekts
Freiberuflich, Oktober 2024 - März 2025
Schlagworte
KI-Entwicklung, Workflow-Automatisierung, Open-Source-LLMs, Voicebot-Integration, Datenschutz, No-Code-Builder, Whisper, Systemarchitektur, Multi-Agenten, Deepseek, DSGVO, TTS, Natural Language Processing
Unternehmen und Produkt
UVND Technology ist ein inhabergeführtes KI-Unternehmen aus Issum (NRW), gegründet 2014 von Jan Laufkötter. Es entwickelt datenschutzkonforme KI-Lösungen für den europäischen Markt und kombiniert Beratung, Schulung und Produktentwicklung. Das Unternehmen ist regional gut vernetzt und durch Vorträge und Workshops präsent.
Im Zentrum des Projekts stand die Plattform „Lucy“, entwickelt von Tim Laufkötter. Lucy ist eine modulare KI-Plattform zur Automatisierung von Workflows, mit Funktionen wie Text- und Bilderzeugung, Websuche, Sprachverarbeitung und API-Integration. Besonderes Augenmerk liegt auf DSGVO-Konformität, Multi-Agenten-Architektur und der Nutzung von Open-Source-LLMs.
Beteiligte
- Tim Laufkötter – Technischer Leiter & KI-Architekt
- Jan Laufkötter – Geschäftsführer & strategischer Kopf
- Timo Schulz – Marketing & Vertrieb
- Klaus Bleck – Senior Softwareentwickler
Klaus Bleck ist ein erfahrener Softwareentwickler mit Fokus auf verteilte und mobile Anwendungen. Er studierte Informatik an der Hochschule Osnabrück und ist als Experte für Softwareentwicklung bei der Schleupen SE tätig. Bei UVND brachte er seine Expertise in die Entwicklung der KI-Plattform „Lucy“ ein, insbesondere in den Bereichen Systemarchitektur und Backend-Entwicklung.
- Jülide Bleck – Softwareentwicklerin
Jülide Bleck ist Softwareentwicklerin mit einem Abschluss in Informatik von der Hochschule Osnabrück. Bei UVND unterstützte sie die Entwicklung von „Lucy“ mit ihrem Know-how in der Softwareentwicklung, insbesondere in der Integration von KI-Komponenten.
Die Entwicklung von „Lucy“ fand in einem kleinen, hochmotivierten Team statt, das sich durch kreative Energie, Eigenverantwortung und eine gemeinsame Vision auszeichnete. Das Projekt entstand im engen Gründerumfeld rund um Tim Laufkötter und war stark von persönlichem Engagement geprägt. Ich selbst war dem Kernteam freundschaftlich verbunden und begleitete die Entwicklung sowohl beratend als auch operativ.
Das Arbeitsumfeld war unternehmerisch geprägt – mit flachen Hierarchien, schnellen Entscheidungswegen und einem klaren Fokus auf technologische Exzellenz und Datenschutz. Unser gemeinsames Ziel war es, eine leistungsfähige, datensouveräne KI-Plattform „Made in Germany“ zu schaffen, die sich durch ihre Flexibilität und Integrationsfähigkeit vom internationalen Wettbewerb abhebt.
Im Verlauf des Projekts war geplant, gemeinsam mit Timo Schulz und der Familie Laufkötter eine neue Gesellschaft (UVND GmbH) zu gründen, um die Weiterentwicklung von Lucy strukturell voranzutreiben. Da keine Einigung über die wirtschaftlichen Rahmenbedingungen erzielt werden konnte, wurde dieses Vorhaben nicht umgesetzt. In der Folge beendeten Timo Schulz, die von mir ins Team eingebrachten Entwickler Klaus und Jülide Bleck sowie ich im März 2025 unsere Mitarbeit. Die Zusammenarbeit war dennoch sowohl fachlich als auch persönlich äußerst bereichernd und stellt für mich einen wichtigen Meilenstein in meiner beruflichen Entwicklung dar – nicht zuletzt, weil ich dadurch den Einstieg in die KI-Entwicklung gefunden habe.
Rolle und Verantwortlichkeiten
Im Oktober 2024–März 2025 unterstützte ich UVND Technology bei der Entwicklung von Lucy. Ab Oktober 2024 war ich zunächst als technischer Berater tätig und übernahm ab Januar 2025 zusätzlich operative Aufgaben als Entwickler. In dieser Zeit verantwortete ich den Aufbau der Softwareentwicklung und arbeitete eng mit Chefentwickler Tim Laufkötter zusammen. Darüber hinaus förderte ich die Erweiterung des Entwicklerteams durch die Auswahl und Einarbeitung neuer Teammitglieder. Gemeinsam entwarfen wir die Softwarearchitektur für die nächste Generation „Lucy 2“ und integrierten diverse Open-Source-Komponenten in die Plattform. Ein Schwerpunkt meiner Arbeit lag auf der technischen Umsetzung komplexer KI-Features. So integrierte ich verschiedene Open-Source-Voicebot-Module (z. B. Whisper, Spark, F5-TTS, Flash 2.5) sowie mehrere Large Language Models (u. a. Phi-4, LLaMA, Deepseek und Qwen) in die Systemlandschaft. Dadurch erhielt Lucy erweiterte Fähigkeiten in den Bereichen Sprachsteuerung, Sprachsynthese und natürliche Sprachverarbeitung. Zudem konzipierte und entwickelte ich einen No-Code Flow-Builder, der es Anwendern ermöglicht, eigene KI-gestützte Workflows nach dem Baukastenprinzip zu erstellen – vergleichbar mit der Funktionsweise von Make.com. Neben den Entwicklungsaufgaben war ich auch an strategischen Themen beteiligt. In enger Abstimmung mit dem Marketing und Vertrieb (Timo Schulz) erarbeitete ich einen Leitfaden zum Strukturvertrieb, Vertriebsschulungen, Marketing Strategien, sowie ein Lizenzierungsmodell für Lucy.
Ergebnis und Erkenntnisse
Im März 2025 endete meine Mitarbeit bei UVND Technology, nachdem die geplante Gründung einer gemeinsamen Gesellschaft mit Timo Schulz und der Familie Laufkötter nicht realisiert werden konnte. In diesem Zusammenhang verließen auch Timo Schulz sowie die von mir ins Team gebrachten Entwickler Klaus und Jülide Bleck das Unternehmen. Die Entscheidung erfolgte einvernehmlich und auf Augenhöhe.
Rückblickend war die Zusammenarbeit sowohl fachlich als auch persönlich äußerst erfolgreich. Das Projekt „Lucy“ wurde in dieser Zeit maßgeblich weiterentwickelt, und ich bin stolz auf die Beiträge, die wir im Team leisten konnten. Für mich persönlich war die Zeit bei UVND besonders prägend: Ich konnte fundierte Erfahrungen in der KI-Entwicklung sammeln – von der Architekturarbeit über die Integration von Open-Source-Technologien bis hin zur abteilungsübergreifenden Zusammenarbeit in einem agilen Start-up-Umfeld. Diese Phase markiert für mich den Einstieg in die KI-Entwicklung und einen wichtigen Meilenstein meiner beruflichen Laufbahn.
Fortis: Watch API
Art und Dauer des Projekts
Freiberuflich, September 2024 – Januar 2025
Schlagworte
Unity, C#, WebGL, JavaScript API, Streaming AssetBundles, 3D-Konfigurator, Kamera-Control, Label-Engine, Responsive Integration, Plattformunabhängigkeit
Kunde
Fortis Watches AG mit Sitz in Grenchen (Schweiz) ist eine unabhängige Tool‑Watch‑Manufaktur mit etwa 40 Mitarbeitenden und über 110‑jähriger Geschichte. Bereits 1926 präsentierte das Unternehmen als Pionier eine der ersten serienreifen Automatikuhren und ist seit 1994 offizieller Ausrüster bemannter Roskosmos‑Missionen. Hauptabsatzmärkte sind die D‑A‑CH‑Region, die USA und Japan.
Partner
Fabian Hofmann arbeitet seit über 20 Jahren freiberuflich unter dem Namen Schallplae als 3‑D‑Artist, Look‑Developer und Exhibition‑Designer. Er setzt auf 3ds Max, Houdini + Redshift, Nuke und Substance; sein Portfolio reicht von Automotive‑Visuals über Landes‑ausstellungen bis zum Musikvideo „Meredi – Above“ für Velvet Mediendesign. Fabian war für die Erstellung sämtlicher hochauflösender 3‑D‑Modelle der Fortis‑Uhren verantwortlich.
Weitere Akteure
Die halbstark GmbH mit Sitz in Münster ist eine Full‑Service‑Agentur für UX‑, Web‑ und E‑Commerce‑Lösungen. Sie verantwortete das responsive Frontend des neuen Fortis‑Onlineshops und integrierte den Unity‑WebGL‑Viewer nahtlos in die Website.
Worum ging es in dem Projekt?
Gemeinsam mit Fabian Hofmann entwickelte ich für Fortis einen plattformunabhängigen 3‑D‑Viewer als Unity‑WebGL‑Modul, der von halbstark nahtlos in den neuen Onlineshop eingebettet wurde. Im Browser können Nutzer die Uhren in Echtzeit drehen, zoomen und konfigurieren; mehrere Modelle und Varianten lassen sich per Dropdown durchschalten. Über eine JavaScript‑API werden interaktive Labels mit Callback‑Funktionen direkt auf den Zeitmessern platziert, sodass sich seitens des Shops dynamisch Inhalte steuern lassen. Kamerafahrten, Perspektivwechsel und weitere Einstellungen werden ebenfalls scriptgesteuert ausgelöst und von halbstark unmittelbar im Frontend genutzt. Die Uhr ist komplett animiert und zeigt immer die aktuelle Uhrzeit an.
Kernfunktionen im Überblick
Unity Game Engine (C#), WebGL, JavaScript, JQuery, Bootstrap, HTML 5, WebAssembly, Substance Painter
Art und Dauer des Projekts
Freiberuflich, September 2024 – Januar 2025
Schlagworte
Unity, C#, WebGL, JavaScript API, Streaming AssetBundles, 3D-Konfigurator, Kamera-Control, Label-Engine, Responsive Integration, Plattformunabhängigkeit
Kunde
Fortis Watches AG mit Sitz in Grenchen (Schweiz) ist eine unabhängige Tool‑Watch‑Manufaktur mit etwa 40 Mitarbeitenden und über 110‑jähriger Geschichte. Bereits 1926 präsentierte das Unternehmen als Pionier eine der ersten serienreifen Automatikuhren und ist seit 1994 offizieller Ausrüster bemannter Roskosmos‑Missionen. Hauptabsatzmärkte sind die D‑A‑CH‑Region, die USA und Japan.
Partner
Fabian Hofmann arbeitet seit über 20 Jahren freiberuflich unter dem Namen Schallplae als 3‑D‑Artist, Look‑Developer und Exhibition‑Designer. Er setzt auf 3ds Max, Houdini + Redshift, Nuke und Substance; sein Portfolio reicht von Automotive‑Visuals über Landes‑ausstellungen bis zum Musikvideo „Meredi – Above“ für Velvet Mediendesign. Fabian war für die Erstellung sämtlicher hochauflösender 3‑D‑Modelle der Fortis‑Uhren verantwortlich.
Weitere Akteure
Die halbstark GmbH mit Sitz in Münster ist eine Full‑Service‑Agentur für UX‑, Web‑ und E‑Commerce‑Lösungen. Sie verantwortete das responsive Frontend des neuen Fortis‑Onlineshops und integrierte den Unity‑WebGL‑Viewer nahtlos in die Website.
Worum ging es in dem Projekt?
Gemeinsam mit Fabian Hofmann entwickelte ich für Fortis einen plattformunabhängigen 3‑D‑Viewer als Unity‑WebGL‑Modul, der von halbstark nahtlos in den neuen Onlineshop eingebettet wurde. Im Browser können Nutzer die Uhren in Echtzeit drehen, zoomen und konfigurieren; mehrere Modelle und Varianten lassen sich per Dropdown durchschalten. Über eine JavaScript‑API werden interaktive Labels mit Callback‑Funktionen direkt auf den Zeitmessern platziert, sodass sich seitens des Shops dynamisch Inhalte steuern lassen. Kamerafahrten, Perspektivwechsel und weitere Einstellungen werden ebenfalls scriptgesteuert ausgelöst und von halbstark unmittelbar im Frontend genutzt. Die Uhr ist komplett animiert und zeigt immer die aktuelle Uhrzeit an.
Kernfunktionen im Überblick
- Fortis Unity API: Vollständig dokumentierte Endpoints in JavaScript und C# für Kamera, Uhren, Labels und Debugging, bereit zum sofortigen Plug‑and‑Play‑Einsatz.
- Streaming AssetBundles: Die Streaming‑AssetBundle‑Technologie ermöglicht das Nachladen jeder Uhrenvariante blitzschnell on‑the‑fly aus der Cloud, während der Shop live bleibt. Die Quell‑URL‑Liste lässt sich im laufenden Betrieb per Klick umschalten, sodass neue Kollektionen sofort verfügbar sind. Eine integrierte Free‑Memory‑Routine entlädt nicht mehr benötigte Assets automatisch und hält den RAM‑Verbrauch minimal – für flüssige Performance selbst auf älteren Endgeräten.
- Kamera‑Control: Positionen animieren, Zoom‑ und Rotationsgeschwindigkeit live anpassen, Min‑/Max‑Abstände setzen, Achsen invertieren, Eingaben sperren: jede Einstellung in Echtzeit steuerbar.
- Label‑Engine: Mit der Label‑Engine lassen sich Beschriftungen per JSON vollständig erstellen, aktualisieren oder löschen. Dadurch kann Halbstark die Labels im Live Betrieb justieren: Position, Rotation, Canvas‑Größe, Farben, Look‑at‑Camera‑Modus sowie Freeze‑Achsen präzise nach Bedarf, und Klick‑Callbacks machen jedes Label zu einem interaktiven Hotspot.
- Das Variant‑Handling ruft zunächst sämtliche verfügbaren Uhrenmodelle ab, erlaubt anschließend die gezielte Wahl einer gewünschten Variante und aktualisiert mithilfe von Echtzeit‑Callbacks sofort die entsprechende Auswahl im Shop.
- Das integrierte Debug‑Overlay stellt farbige Meldungen direkt aus Unity bereit und nutzt ein Banner‑System, um Status‑ und Fehlermeldungen sofort sichtbar zu machen.
- Das gesamte Modul läuft vollkommen plattformunabhängig und plug‑in‑frei auf Chrome, Firefox, Edge, Safari sowie auf iOS‑, Android‑, Windows‑, macOS‑ und Linux‑Geräten.
- Konzeption und Entwicklung einer modularen Gesamtarchitektur samt performantem C#‑Backend und maßgeschneiderten Unity‑Editor‑Tools.
- Implementierung sämtlicher JavaScript‑APIs und Callback‑Layer für ein verzögerungsfreies Zusammenspiel von Browser und Engine.
- Einrichtung einer vollautomatischen Build‑Pipeline mit Brotli‑/GZip‑Fallback, intelligenter Extension‑Erkennung und CI‑Deployment auf Knopfdruck.
- Realisierung einer Plug‑&‑Play‑Integration für Halbstark inklusive Hot‑Update‑Mechanismus für Live‑Aktualisierungen.
- Entwicklung eines individuellen Unity‑Editor‑Windows, das Fabian Hofmann den Import von Uhren‑Assets und die Prefab‑Erstellung per Button automatisiert.
- Implementierung einer Test Seite zum Testen aller Schnittstellen und Vorschau aller Modelle
Unity Game Engine (C#), WebGL, JavaScript, JQuery, Bootstrap, HTML 5, WebAssembly, Substance Painter
Mercedes Benz Tech Motion: InCar XR
Art und Dauer des Projekts
Arbeitnehmerüberlassung über top itservices AG, August 2023 – August 2024
Schlagworte
Unity, C#, C/C++, XR-Entwicklung, In-Car XR, OpenXR, Monado, Motion Sickness Mitigation, AR/VR/MR, Fahrzeugintegration
Kunde
Die Mercedes‑Benz Tech Motion GmbH ist eine konzerninterne Data‑ und Softwaretochter mit rund 650 Mitarbeitenden, die zukunftsweisende digitale und virtuelle Erlebnisse wie das Betriebssystem MB.OS, Digital‑Twin‑Lösungen und Virtual‑Engineering‑Plattformen für den Mercedes‑Benz‑Konzern entwickelt. Das Spezialteam “In‑Car XR Development & Sensor Data“ verantwortet die Forschung sowie die serienreife Umsetzung von Augmented‑, Virtual‑ und Mixed‑Reality‑Funktionen im Fahrzeuginnenraum.
Teamzusammensetzung
Von August 2023 bis August 2024 war ich als XR‑Software‑Engineer (Unity, C++/C#) in Vollzeit für das Team „In‑Car XR Development & Sensor Data“ der Mercedes‑Benz Tech Motion GmbH tätig. Das interdisziplinäre Team aus über 20 Fachkräften – darunter interne und externe Software‑Engineer, Interaction‑Designer, Computer‑Vision‑Spezialisten sowie Master‑ und Doktoranden – entwickelt serienreife XR‑Funktionen und Forschungsprototypen für den Fahrzeuginnenraum.
Meine Verantwortlichkeiten
Art und Dauer des Projekts
Arbeitnehmerüberlassung über top itservices AG, August 2023 – August 2024
Schlagworte
Unity, C#, C/C++, XR-Entwicklung, In-Car XR, OpenXR, Monado, Motion Sickness Mitigation, AR/VR/MR, Fahrzeugintegration
Kunde
Die Mercedes‑Benz Tech Motion GmbH ist eine konzerninterne Data‑ und Softwaretochter mit rund 650 Mitarbeitenden, die zukunftsweisende digitale und virtuelle Erlebnisse wie das Betriebssystem MB.OS, Digital‑Twin‑Lösungen und Virtual‑Engineering‑Plattformen für den Mercedes‑Benz‑Konzern entwickelt. Das Spezialteam “In‑Car XR Development & Sensor Data“ verantwortet die Forschung sowie die serienreife Umsetzung von Augmented‑, Virtual‑ und Mixed‑Reality‑Funktionen im Fahrzeuginnenraum.
Teamzusammensetzung
Von August 2023 bis August 2024 war ich als XR‑Software‑Engineer (Unity, C++/C#) in Vollzeit für das Team „In‑Car XR Development & Sensor Data“ der Mercedes‑Benz Tech Motion GmbH tätig. Das interdisziplinäre Team aus über 20 Fachkräften – darunter interne und externe Software‑Engineer, Interaction‑Designer, Computer‑Vision‑Spezialisten sowie Master‑ und Doktoranden – entwickelt serienreife XR‑Funktionen und Forschungsprototypen für den Fahrzeuginnenraum.
Meine Verantwortlichkeiten
- Erweiterung des Mercedes‑XR‑Frameworks
Ich analysierte die bestehende In‑Car‑XR‑Basisbibliothek, identifizierte Performance‑Engpässe und ergänzte modulare Schnittstellen für Head‑ und Hand‑Tracking, Device‑Abstraktion sowie Fahrzeug‑Telemetrie. Durch Refactoring nach SOLID‑Prinzipien, die Einführung von Assembly Definitions und weiteren Optimierungen reduzierte ich die Build‑Zeit um 35 % und steigerte die durchschnittliche Bildrate um 18 %.
- Integration und Weiterentwicklung von Monado
Ich untersuchte die Open‑Source‑OpenXR‑Runtime Monado auf ihre Eignung für ein visuell‑inertiales 6‑DoF‑Inside‑Out‑Tracking, das ORB‑SLAM3 und Basalt kombiniert und speziell auf dynamische Fahrsituationen ausgelegt ist. Die gewonnenen Erkenntnisse bildeten die Basis für künftige Headset‑Portierungen.
- Entwicklung fahrzeugintegrierter XR‑Erlebnisse
Mit der Unity‑Engine konzipierte und implementierte ich mehrere VR‑ und AR‑Anwendungen:- „Pac‑Car“ – ein standortbasiertes Gamification‑Szenario, das reale Fahrzeugbewegungen in Pac‑Man‑ähnliches Gameplay übersetzt.
- AR‑Overlays für Points of Interest und animierte Navigationspfeile, synchronisiert mit dem MBUX‑Navigationssystem.
- Dynamische Gamification‑Layer (Scores, Badges) inklusive XR‑UI‑Elementen.
- „Pac‑Car“ – ein standortbasiertes Gamification‑Szenario, das reale Fahrzeugbewegungen in Pac‑Man‑ähnliches Gameplay übersetzt.
- Motion‑Sickness‑Mitigation
Ich entwickelte adaptive Komfortfunktionen, die fortlaufend Sensordaten aus IMU, GNSS und Raddrehzahlsensoren fusionieren, um Fahrzeugbeschleunigungen in Echtzeit zu erkennen. Bei starker Quer‑ oder Längsbeschleunigung reduziert ein Gain‑Warping‑Algorithmus den virtuellen Bewegungsfaktor (V‑to‑P‑Gain) stufenlos, sodass die visuelle Bewegung näher an der realen Fahrzeugdynamik bleibt. Wird eine kritische Schwelle überschritten, aktiviert sich ein Content‑Freeze: das VR‑Bild wird sanft abgeblendet und durch ein statisches Komfort‑HUD ersetzt, bis die Beschleunigungswerte wieder abklingen. Diese Mechanismen senkten die gemessene Simulator‑Sickness‑Rate in Testfahrten spürbar
- Entwickelt und testet AR/VR/MR‑Erlebnisse für den Fahrzeuginnenraum – von Prototypen bis zur Marktreife. Fokus: Interaktionsdesign während der Fahrt, Synchronisation virtueller ↔ realer Umgebung, Reduktion von Motion‑Sickness.
- Betreut eine konzernweite XR‑Plattform (Self‑Service, Cloud‑basiert) zur automatisierten Aufbereitung von 3D‑Daten und Verteilung an XR‑Endgeräte; damit können alle Fachbereiche eigenständig XR‑Inhalte erstellen.
- Liefert Kernbausteine für MB.OS‑Infotainment (z. B. In‑Car‑AR‑Navigation, 3D‑Cluster‑Visualisierung) und arbeitet eng mit Virtual‑Engineering‑Teams an Digital‑Twin‑Prozessen.
- Differenzierung durch Digital Luxury – immersive In‑Car‑Erlebnisse ergänzen klassisches Premium‑Design und stärken die Marke im Software‑defined‑Vehicle‑Wettbewerb.
- Neue Geschäftsmodelle – XR‑basierte Infotainment‑Abos, Remote‑Service‑Pakete und digitale Fahrzeug‑Upgrades schaffen wiederkehrende Umsätze nach dem Fahrzeugverkauf.
- Sicherheit & Komfort – AR‑Head‑up‑Navigation reduziert kognitive Last; KI‑gestützte Motion‑Sickness‑Erkennung passt Inhalte dynamisch an.
- Beschleunigte Entwicklung & After‑Sales – Digital‑Twins und VR‑Trainings verkürzen Entwicklungszyklen, senken Fehlerquoten und vereinfachen Werkstattprozesse.
- Vorbereitung auf autonomes Fahren – Wenn das Lenkrad zur Option wird, liefert InCarXR produktive Arbeits‑ und Entertainment‑Umgebungen, die Fahrzeit in Erlebnis‑ oder Arbeitszeit verwandeln.