Teilautonomes Fahren für E-Rollstühle zur Kollisionsvermeidung

Services
Computer VisionRoboticsSimulationProduct Innovation

// RELEVANCE

Selbstbestimmung für mehr Lebensqualität

Ziel des Projekts war es, die Selbstständigkeit von Menschen mit Mobilitätseinschränkungen durch ein teilautonomes E-Rollstuhlsystem zu fördern. Ein innovativer Tech Stack aus Sensorik, Aktuatorik und Middleware sollte neue Möglichkeiten aufzeigen – von sicherem Navigieren im Alltag bis hin zur intelligenten Interaktion mit der Umgebung. Gleichzeitig diente das Projekt als spannendes Testfeld für zukünftige Mobility Services im Bereich Care, Health und Smart Assistance.

image

// CHALLENGE

Schmale Türen, volle Gänge: Herausforderung für Mensch & Bestandsprobe für Hardware

Der Rollstuhl soll zuverlässig, präzise und sicher durch Alltagsumgebungen manövrieren. Die größte technische Herausforderung: eine sichere und exakte Lokalisierung in Echtzeit, insbesondere bei niedrigen Geschwindigkeiten und in unstrukturierten, engen Umgebungen. Dabei zeigte sich in der Bestandsprobe ein kritischer Schwachpunkt: das Frontpanel. Es ist das erste Bauteil, das bei Kollisionen oder Fehleinschätzungen in engen Räumen beschädigt wird – was zu teuren Reparaturen oder im schlimmsten Fall zu einer kompletten Manövrierunfähigkeit führen kann. Gerade in sensiblen Alltagskontexten ist jedoch maximale Ausfallsicherheit gefragt. Die zentrale Aufgabe bestand deshalb nicht nur in der Auswahl einer präzisen Sensorik, sondern auch im Aufbau eines robusten, wirtschaftlich tragbaren Hardware-Setups, das langfristig zuverlässig funktioniert und für eine Serienfertigung geeignet ist.

image

// APPROACH

Von der Simulation zur Probefahrt

In Zusammenarbeit mit Alber entwickelten wir eine modulare, ROS2-basierte Simulationsumgebung, um unterschiedliche Sensor- und Kommunikationsarchitekturen effizient und sicher evaluieren zu können. Zum Einsatz kam eine Kombination aus zwei Lidar-Sensoren, um eine robuste, echtzeitfähige Umgebungswahrnehmung zu ermöglichen. Mithilfe von SLAM-Algorithmen wurde die Umgebung dynamisch kartiert und navigierbar gemacht – auch bei wechselnden Lichtverhältnissen oder engen räumlichen Bedingungen. Die Entwicklung erfolgte iterativ: von Technologie-Scouting und Sicherheitsbewertung über systematische Machbarkeitstests bis hin zur prototypischen Integration in einen realen Rollstuhl. Dieser wurde hands-on direkt bei uns im Office für erste Testfahrten und Nutzerbeobachtungen eingesetzt.

image

// APPROACH

Echtzeit-Navigation per App dank SLAM und Sensorfusion

Für die Implementierung der Simultaneous Localization and Mapping Algorithmen kam die SlamToolbox von ROS2 zum Einsatz. Auf Basis der beiden LiDAR Sensoren wurde eine Umgebungskarte erstellt, aus der eine Costmap generiert wird: eine zweidimensionale Darstellung, die befahrbare von nicht befahrbaren Bereichen trennt. Diese Costmap bildet die Grundlage für die automatische Routenplanung des Systems – der Algorithmus berechnet die effizienteste und sicherste Strecke zu einem zuvor definierten Zielpunkt. So wird eine präzise, adaptive Navigation durch komplexe Alltagssituationen ermöglicht.

Zur Steuerung und praktischen Nutzbarkeit der Funktionen entwickelten wir eine mobile App mit Flutter. Diese wurde durch... mit Ros2 verknüpft. Nutzer:innen können über die App teilautonome Fahrten initiieren, pausieren oder abbrechen – und das in Echtzeit. Das UX/UI-Design der Anwendung wurde gezielt auf die Bedürfnisse der Zielgruppe abgestimmt. Besonderer Fokus lag auf der Umsetzung barrierefreier Interaktionskonzepte gemäß dem Barrierefreiheitsstärkungsgesetz (BFSG) – mit klarer visueller Struktur und Touch-optimierter Bedienung.

// IMPACT

Hands-on Engineering: den Status Quo herausfordern, zweckentfremden, Grenzen testen

Im Mittelpunkt stand kein fertiges Produkt, sondern ein echtes Technologie-Experiment. Gemeinsam mit Alber haben wir bewährte Komponenten – von LiDAR über ROS2 bis zur TrueDepth-Kamera – bewusst zweckentfremdet, kombiniert und bis an ihre Grenzen gebracht. Statt theorielastiger Konzepte ging es um hands-on Engineering: testen, crashen, verbessern. So entstand nicht nur ein funktionierender Prototyp für teilautonome Mobilität, sondern auch ein tiefes Systemverständnis auf allen Ebenen – von der Sensorik über die Routenlogik bis hin zur barrierefreien App-Steuerung. Das Projekt zeigt: Innovation entsteht dort, wo Neugier und technischer Pragmatismus das Maximum aus dem Status quo herausholen. Das entwickelte System soll die Basis für modulare Assistenzlösungen bilden, die flexibel auf unterschiedliche Anforderungen im Bereich Mobility & Care reagieren.

Let’s Co-create the Future, Together!

Du möchtest intelligente Datenmodelle gestalten und autonome Systeme initialisieren? Dann buche jetzt einen unverbindlichen Intro-Call mit unserem R&D-Lead Maximilian Schmitt.

Termin finden
↑ Maximilian Schmitt, Research & Development Lead
↑ Maximilian Schmitt, Research & Development Lead

formigaslogo formigas Studios für Innovation & Technologie

hi@formigas.io +49 (0) 7531 584 92 300

Impressum Datenschutz AGB (DE) AGB (CH)

formigas.storet-8.space

Instagram Linkedin Github

(DE) formigas GmbH, Turmstraße 8, 78467 Konstanz

(CH) formigas AG, The Circle 60, 8058 Zürich