Neuland

Menschenversteher

Wie Tanja Schultz menschliche Biosignale in Helfer für den Alltag verwandelt.

Sprechen ist eine komplizierte Sache. Um akustische Signale in Wörter umzuformen, benötigt der Mensch über 100 Muskeln. Winzige Kontraktionen der Muskulatur ergeben unterschiedliche Laute. Die Kommunikation über das Sprechen ist ein jahrelanger Lernprozess in der Kindheit. Die akustische Kommunikation kann aber auch eine Barriere sein, zum Beispiel für stumme Menschen und in Situationen, wenn laute Umgebungsgeräusche eine normale Unterhaltung unmöglich machen oder wenn Sprechen in leisen Umgebungen andere Personen stört. Eine Hürde, die Tanja Schultz überwunden hat: Sie kann Muskelsignale in Sprache verwandeln.

„Wir transformieren die Bewegungen der Gesichtsmuskeln in Text um, indem wir einzelne Sprachlaute aus der Bewegung der Artikulationsmuskeln ablesen und daraus Wörter bilden“, erklärt die Informatikprofessorin Tanja Schultz. Ein selbstentwickelter Algorithmus und eine detaillierte Kenntnis anatomischer und neuronaler Zusammenhänge machen die Entwicklung dieser ‚lautlosen Sprachkommunikation‘ möglich. Ausgegeben wird der lautlos gesprochene Text entweder am Computerbildschirm des Empfängers oder am Telefon über eine Computerstimme. „Für Sicherheitskräfte ist das sehr interessant, vor allem in leisen Umgebungen. Auch bei vertraulichen Gesprächen kann die Technologie eingesetzt werden, in denen die notwendige Kommunikation nicht stören darf“, sagt Schultz, die das Cognitive Systems Lab am KIT-Institut für Anthropomatik seit 2007 leitet.

„Ich möchte Computern beibringen, Menschen zu verstehen.“

Professorin Tanja Schultz

Während die multilinguale Muskel-Sprache-Erkennung schon als Prototyp eingesetzt wird, steht die Umwandlung weiterer Biosignale noch am Anfang, so Schultz: „Letztlich lassen sich fast alle menschlichen Regungen auf neuronale Hirnsignale zurückführen. Wir versuchen, diese Signale direkt zu messen und auszuwerten, um daraus sinnvolle Anwendungen zu generieren.“ Diese Gehirn-Computer-Schnittstelle birgt Perspektiven für unterschiedliche Krankheitsbilder. Eine direkte Übersetzung von Gedanken in Sprache könnte Menschen mit dem Locked-in-Syndrom eine Kommunikation überhaupt erst ermöglichen. Ein weiteres Gerät des Informatiker-Teams, der Workload-Anzeiger, gibt die mentale Arbeitslast des Hirns kontinuierlich aus. So kann das Gerät Überforderung und Stress des Benutzers erkennen und anzeigen.

Tamja Schultz beschreitet damit ein futuristisches Forschungsgebiet, nämlich die Übertragung von Emotionen und Stimmungen in automatisierte Anwendungen. Dabei geht es nicht nur darum, Gefühle zu erkennen und daraus Erkenntnisse zu gewinnen.„Der Haushaltsroboter der Zukunft soll nicht anfangen zu staubsaugen, wenn sein Besitzer gestresst nach Hause kommt. Dafür ist ein Gespür für menschliche Gefühle und eine anschließende Anpassung der Aktivitäten notwendig. Das Ziel ist es, Maschinen Empathie einzupflanzen und sie damit zu befähigen, auf uns Menschen angemessen zu reagieren“, sagt die KIT-Wissenschaftlerin. „Bislang müssen wir Menschen unsere Wünsche und Bedürfnisse den Möglichkeiten der Technik unterordnen. Meine Vision ist es, dass sich die Technik mittels empathischer Technologien an uns Menschen anpasst.“

KIT-Kinder-Uni: Können Computer Gedanken lesen?