Projekte

REACT-EU

Früherkennung von Atemwegserkrankungen mittels Infrarotthermographie und KI-Methoden

Häufige Symptome der Covid-19 Erkrankungen sind Fieber und die Beeinträchtigung der Atemwege, welche sich durch Husten oder Veränderungen der Atemmuster (z.B. beschleunigte, flache Atmung) ausdrücken. Beides lässt sich mittels kontaktloser Sensorik aus der Entfernung detektieren. Besondere Bedeutung kommt hierbei der Infrarotthermographie zu: Diese ist unabhängig von der Beleuchtung und der visuelle Eindruck der Thermographie unterscheidet sich stark von Videoaufnahmen im sichtbaren Bereich. Dies erleichtert die Anonymisierung und verbessert die Nutzerakzeptanz, was die Anwendung im öffentlichen Raum ermöglicht. Im Rahmen des Projektes sollen Methoden der künstlichen Intelligenz entwickelt werden, welche die Früherkennung von Covid-19 Erkrankungen aus Infrarotthermographiedaten ermöglicht.

Dieses Projekt wird aus Mitteln des Europäischen Fonds für regionale Entwicklung als Teil der Reaktion der Union auf die COVID-19-Pandemie finanziert.

BYouTrain

Biomechanisch informiertes, vertrauenswürdiges maschinelles Lernen aus sozialen Videoplattformen zur Überwachung von körperlichem Training

Soziale Videoplattformen wie YouTube sind eine beliebte Quelle für das Erlernen verschiedener Fähigkeiten, einschließlich körperlicher Übungen. Wir wollen ein System entwickeln, das diese reichhaltige Informationsquelle nutzt, um Nutzerinnen und Nutzern zu helfen, Übungen richtig auszuführen. Wir wollen erreichen, dass die Maschine automatisch aus der „Weisheit der Massen“, die in sozialen Videoplattformen enthalten ist, lernt, was eine korrekt ausgeführte Übung ist. Zu diesem Zweck schlagen wir einen auf Biomechanik basierenden Ansatz für maschinelles Lernen vor. Durch die Verschmelzung von Bildverarbeitung, biomechanischer Modellierung und maschinellem Lernen wird das System auf aussagekräftigen biomechanischen Parametern beruhen und somit effizient sein, sowohl was den Rechenaufwand als auch die benötigten Daten angeht. Vor allem aber wird es intrinsisch erklärbar sein und somit in der Lage sein, die Qualität von Übungen zu klassifizieren und Empfehlungen auf vertrauenswürdige Weise zu geben. In diesem interdisziplinären Projekt wird KIS*MED seine Expertise in den Bereichen Kamerabasierten Bewegungserfassung, Signalverarbeitung und maschinelles Lernen einbringen, während das Lauflabor seine Expertise in den Bereichen biomechanische Modellierung, Sportwissenschaft und Aufzeichnung menschlicher Bewegung beisteuern wird. Das Projekt wird gefördert vom FiF – dem Forum interdisziplinäre Forschung.

YLSY-Stipendienprogramm

Yurt Dışına Lisansüstü Öğrenim Görmek Üzere Gönderilecek Adayları Seçme ve Yerleştirme

YLSY (“Auswahl und Vermittlung von Kandidaten, die für eine postgraduale Ausbildung ins Ausland geschickt wurden”) ist ein offizielles Stipendium, das vom türkischen Bildungsministerium angeboten wird, um qualifizierte Postgraduierte für öffentliche Ämter und Behörden auszubilden.

Am KIS*MED ist Gökhan Güney ein YLYS-Stipendiat und Promotionsstudent. Seine Arbeit konzentriert sich auf die durch künstliche Intelligenz unterstützte Analyse menschlicher Zustände in einem breiten Spektrum, einschließlich, aber nicht beschränkt auf die Handbewegungen und Augenblinzelreflexe von Parkinson-Patienten und die emotionalen Zustände gesunder Menschen.

mSimCam

Eine multimodale Simulationsumgebung für kamerabasierte Erfassung kardiorespiratorischer Aktivität (HO 6691/1-1)

Ein beliebtes Motiv vieler Zukunftsszenarien ist der Arzt, der kontaktlos einen Patienten abscannen und damit unmittelbar dessen gesamten Gesundheitszustand erfassen kann. In der Praxis zeigen sich kamerabasierte Verfahren als vielversprechende Ansätze, sich dieser Vision anzunähern. Insbesondere zur Überwachung der Atmung und des Pulses wurde bei KIS*MED dazu bereits an Techniken geforscht, welche unter optimalen Bedingungen Pulsrate und Atemrate mittels Kameras erfassen. Um die Weiterentwicklung voranzutreiben, wird eine Vielzahl möglichst diverser Datensätze benötigt.

Die große Herausforderung ist jedoch, dass Kamerabilder geschützte Patienteninformationen darstellen, quasi nicht zu anonymisieren und deshalb schwierig unter verschiedenen Forschungsgruppen zu teilen sind. Weiterhin existieren für viele Krankheitsbilder, wenn überhaupt, nur sehr wenige Messdaten, die nicht für die Evaluierung existierender Algorithmen ausreichen. Daher hat das DFG-geförderte Projekt zum Ziel eine Simulationsumgebung zu schaffen, welche synthetisch Videodaten von realistischen Avataren generieren kann, die relevante kardiorespiratorische Aktivität aufweisen. An diesen Daten können in der Folge nicht nur neuartige Algorithmen getestet werden und z.B. tiefe neuronale Netze trainiert werden, sondern sie ermöglichen erstmals einen einfachen Austausch zwischen internationalen Forschergruppen.