Doctoralthesis

Evolutionär optimierte Haltungs- und Bewegungsmodelle auf Basis von Motion-Capture-Daten als Teil gesundheitsbezogener Assistenzsysteme

Die Doktorarbeit wurde am 25.08.2020 an der Fakultät VI der Carl von Ossietzky Universität Oldenburg eingereicht und am 08.09.2020 wurde das Promotionsverfahren eröffnet.

Zusammenfassung der Arbeit

Gesundheit, Zustand, Verhalten und Leistung eines Menschen können anhand seiner Körperhaltungen und -bewegungen bewertet werden. Technische Beobachtungssysteme für Bewegungen (Motion-Capture-Systeme) sind ein Instrument zur Erfassung dieser Haltungen und Bewegungen und liefern eine Fülle von Daten, für deren Verarbeitung geeignete Prozesse, Algorithmen und Modelle nötig sind.

Diese Arbeit beschreibt einen Ansatz zur Optimierung von Körperhaltungs- und Bewegungsmodellen auf Basis von Motion-Capture-Daten als Teil von gesundheitsbezogenen Assistenzsystemen. Zur Optimierung und Anpassung der Modelle werden hierbei evolutionäre Algorithmen verwendet, die sich insbesondere durch ihre Flexibilität auszeichnen. Es wird anhand eines generalisierten Konzepts gezeigt, wie sich Skelett-basierte Bewegungsdaten von optischen oder inertialen Motion-Capture-Systemen nutzen lassen, um angepasste Modelle der menschlichen Bewegung zu erzeugen, mit denen sich dann beispielsweise Aussagen über die Gesundheit oder das Verhalten von Menschen treffen lassen. Das an konkrete Motion-Capture-Systeme und Anwendungsdomänen adaptierte Konzept wurde mit zwei gesundheitsbezogenen Anwendungsfällen auf die praktische Machbarkeit überprüft und empirisch evaluiert.

Im ersten Anwendungsfall wird die Erstellung eines Klassifikators für Körperhaltungen gezeigt, bei dem inertiale Sensordaten des Motion-Capture-Anzugs SIRKA für die Klassifikationen nach der OWAS-Methode genutzt werden. Der Klassifikator könnte bspw. als Teil von intelligenter Arbeitskleidung vor schädlichen Haltungen warnen. Hierbei wird eine XML-Beschreibungssprache eingeführt, mit der sich Motion-Capture-Daten und Bewertungsmethoden für Körperhaltungen mit Hilfe einer abstrakten Skelettdarstellung semantisch verknüpfen lassen, was die Wiederverwendbarkeit der Systemkomponenten verbessert.

Im zweiten Anwendungsfall wird die Ableitung von Trainingsparametern für die Herz-Lungen- Wiederbelebung (HLW) auf Basis von Daten des optischen Motion-Capture-Systems Kinect demonstriert. Dazu werden die periodischen Bewegungen der oberen Gliedmaßen während der HLW auf eine sinusförmige Modellfunktion abgebildet, von der sich die Kompressionsfrequenz und Eindrucktiefe ableiten lassen. Dieses Modell könnte als Teil von neuartigen Assistenzsystemen beim Training der HLW oder bei Notfällen die Retter unterstützen.

Für beide Anwendungsfälle werden Software-Prototypen beschrieben und Ergebnisse der empirischen Evaluationsstudien diskutiert. Die Ergebnisse zeigen, dass der Ansatz grundsätzlich für praktische Anwendungsfälle umgesetzt werden kann. Für den Klassifikator von Körperhaltungen wurden eine Reihe von Fehlerquellen identifiziert und ausführlich diskutiert. Das Bewegungsmodell für die Trainingsparameter der HLW zeigt nur minimale Fehler beim Ableiten der Kompressionfrequenz und wird beim Ableiten der Eindrucktiefe von der Genauigkeit des Kinect-Sensors limitiert.