Menschen mit Cochlea-Implantaten – einer Art künstlichem Innenohr – können in lauten Situationen nur schwer einzelne Stimmen erfassen. Ein neuer Algorithmus der Implantate verbessert das Hören in geräuschvollen Momenten.
In einem voll besetzten Restaurant einem Gespräch zu folgen, ist nicht immer ganz einfach. Denn einzelne akustische Reize müssen aus dem Stimmengewirr herausgefiltert, von den vielen Hintergrundgeräuschen abgegrenzt und anschließend von unserem Gehirn bewusst wahrgenommen werden. Eine Fähigkeit, die bei Menschen mit Schwerhörigkeit und insbesondere bei Trägern von Hörgeräten und neuronalen Hörprothesen, sogenannten Cochlea-Implantaten, stark eingeschränkt ist. Sie können ihrem Gegenüber im Gewirr von Störgeräuschen nur sehr schwer folgen. Das soll sich zukünftig ändern. Bernhard Seeber, Professor für Audio-Signalverarbeitung an der Technischen Universität München, und seinem Team ist es gelungen, einen neuen Algorithmus für Cochlea-Implantate zu entwickeln, also eine neue mathematische Programmierung des Implantates. Der Algorithmus optimiert die Übertragung der eintreffenden akustischen Geräusche in elektrische Signale, die anschließend dem Gehirn übermittelt werden. Der Trick dabei: Er optimiert die Signale für das Hören mit beiden Ohren.
Zwei Ohren für räumliche Wahrnehmung
Denn genau für komplexe Geräuschsituationen hat die Natur uns zwei Ohren verliehen: Das Hören mit beiden Ohren, das binaurale Hören, hilft uns, Geräuschquellen zu lokalisieren und Sprache im Gewirr anderer Töne zu verstehen, wie beispielsweise in einer überfüllten Bahnhofshalle. Durch das Hören mit zwei Ohren entsteht eine räumliche Wahrnehmung und ungewollte Störgeräusche werden herausgefiltert. Denn die Geräusche kommen am rechten und linken Ohr mit einer minimalen Zeitverschiebung und in leicht unterschiedlicher Intensität an. Diese Informationen verarbeitet unser Gehirn. „Wir konnten zeigen, dass Menschen mit Cochlea-Implantaten diese minimalen Unterschiede in einer lauten Umgebung nicht wahrnehmen können. Um dieses Problem zu beheben, haben wir den neuen Algorithmus entwickelt“, beschreibt Seeber. Unterstützt wurde er hierbei vom Bundesforschungsministerium im Rahmen des Bernstein Zentrums München.
Neuer Algorithmus verbessert das Hören
Der neuartige Algorithmus verarbeitet das akustische Signal so, dass es – wie beim Hören mit zwei Ohren – zu einer minimalen zeitlichen Verzögerung kommt. „Genauer gesagt ermittelt der Algorithmus Momente im Schall, die Informationen für beide Ohren enthalten. Dann fügt er bei der Übertragung an den Hörnerv vor diesen Momenten kurze Pausen ein. Dadurch sind die Nervenzellen im Hörnerv beim Beginn des Geräusches bereit und können den zeitlichen Moment des Schalleinsatzes und damit die räumliche Ausrichtung exakter erfassen“, erklärt Seeber. Der neue Algorithmus wurde bereits erfolgreich bei Gesunden mit simuliertem Hören mit Cochlea-Implantat getestet, aber auch bei einer kleinen Anzahl von Menschen mit Cochlea-Implantat. Es zeigten sich deutliche Vorteile des neuen Algorithmus gegenüber den herkömmlichen Algorithmen, die in den Implantaten bislang zum Einsatz kommen. Eine größere Studie mit Cochlea-Implantat-Trägern ist derzeit in Vorbereitung.
Ein stiller Raum für laute Untersuchungen
Zukünftig werden Professor Seeber und sein Team ihre Untersuchungen zum Hören mit und ohne Hörhilfen in einem neuen Forschungslabor fortsetzen: in einem Raum, der alle Schallreflexionen an den Wänden dämpft, und komplett still ist. Die in diesem Raum eingesetzte Technik, genannt „real-time Simulated Open Field Environment“ oder kurz rtSOFE, wurde Ende März 2018 an der TU München in Betrieb genommen. Was ist das Besondere an diesem Raum? „Wir können durch eine neue selbstentwickelte Software über viele Lautsprecher in dem Raum die Geräusche von komplexen Hörsituationen realistisch und interaktiv nachbilden. So können wir nicht nur Geräuschquellen virtuell im Raum bewegen, sondern auch mit den Geräuschen interagieren“, beschreibt Seeber. Denn beispielsweise bewegen wir in einer Unterhaltung stets unseren Kopf und Körper. Wir wenden uns einem Gesprächspartner zu, schauen die Person an – dabei ändert sich die akustische Situation fortlaufend. „Diese realistischen Hörsituationen können wir ab sofort auch im Labor nachbilden“, so Seeber. Zudem können in dem Raum auch Bilder in 360° und dreidimensional abgebildet werden, sodass die Probanden neben dem akustischen auch einen visuellen Eindruck einer Situation vermittelt bekommen. Damit wird die Situation noch natürlicher.
Die Forschungsgruppe will mithilfe des neuen Raumes zukünftig weiter an optimalen Algorithmen für Hörgeräte und Cochlea-Implantate arbeiten, um den Betroffenen zu helfen, in komplexen Hörsituationen besser zu hören. „Denn die Arbeitsweise der Algorithmen können wir nur in komplexen, dynamischen Hörsituationen untersuchen, verstehen und verbessern“, sagt Seeber. Zudem will das Team untersuchen, wie Menschen mit und ohne Hörhilfen in bestimmten Situationen reagieren, um möglichst optimal verstehen zu können, zum Beispiel durch Drehung des Kopfes. Aber auch wie wir Hörsituationen verändern, um optimal zu verstehen, beispielsweise indem wir auf unsere Gesprächspartner zugehen. Eine weitere Forschungsfrage ist: Welchen Beitrag liefert die visuelle Information zum Hören? Also spielt etwa das Lippenlesen in natürlichen Hörsituationen tatsächlich eine bedeutende Rolle?
Das Bernstein Zentrum München ist Teil des „Nationalen Bernstein Netzwerks Computational Neuroscience“. Seit 2004 fördert das Bundesministerium für Bildung und Forschung mit dieser Initiative das recht junge Forschungsgebiet der Computational Neuroscience. Benannt wurde das Netzwerk nach dem deutschen Physiologen Julius Bernstein (1839–1917). Seine frühen Arbeiten zu einer Membrantheorie bereiteten den Boden für spätere Forschung, welche die Erregbarkeit von Nervenzellen und deren Reizweiterleitung erklären konnte.
Die Computational Neuroscience verbindet biomedizinische Experimente mit theoretischen Modellen. Mathematiker, Physiker, Biologen, Psychologen, Mediziner und Ingenieure identifizieren gemeinsam Prinzipien des Gehirns und übersetzen sie in eine mathematische Sprache. Die theoretischen Modelle der normalen oder krankhaft veränderten Hirnfunktion lassen sich am Computer simulieren und virtuell überprüfen. Erfolgreiche Modelle können dann in neu entwickelten technischen Systemen eingesetzt werden. Auf diese Weise eröffnet die Computational Neuroscience den Weg zu neuen Erkenntnissen und medizinischen Anwendungen – wie hier für Hörgeräte und Cochlea-Implantate.
Ansprechpartner:
Prof. Dr.-Ing. Bernhard Seeber
Professur für Audio-Signalverarbeitung
Fakultät für Elektrotechnik und Informationstechnik
Technische Universität München
Theresienstraße 90
80333 München
aip@ei.tum.de