01.07.2021 | Schallforschung

Künstliche Intelligenz verbessert Kopfhörer-Raumklang

Der Schallforscher Piotr Majdak von der Österreichischen Akademie der Wissenschaften untersucht im Rahmen des EU-Forschungsprojekts SONICOM mit Kolleg/innen aus London, wie man räumliche Klangerlebnisse mit Hilfe von künstlicher Intelligenz möglichst realistisch über Kopfhörer reproduzieren kann. Das könnte zum Beispiel virtuelle soziale Interaktionen erleichtern.

Realistischen Raumklang über Kopfhörer zu replizieren, ist schwierig, weil neben der Raumsimulation auch noch der individuelle Einfluss der Ohrmuschel berücksichtigen werden muss. © ÖAW/Klaus Pichler

Menschen sind es gewohnt, mit den Ohren viel Information über die räumliche Positionierung von Schallquellen aufzunehmen. Über Kopfhörer lässt sich das bislang nicht realistisch simulieren, auch wenn viele Hersteller das nicht immer zugeben. In bestimmten Situationen, wie etwa Telekonferenzen oder Augmented Reality Anwendungen, kann das zu befremdlichen Erfahrungen führen. Wenn wir eine Stimme oder eine andere Schallquelle nicht genau verorten können, hören wir sie nämlich zentral in unserem Kopf. Diese unnatürliche Erfahrung wird von vielen Menschen als Ablenkung empfunden.

Piotr Majdak vom Institut für Schallforschung der Österreichischen Akademie der Wissenschaften (ÖAW) arbeitet mit seinem Team daran, realistischen Raumklang über Kopfhörer zu replizieren. “Wir alle wissen aus dem Kino, dass Raumklang mit Lautsprechern schon gut funktioniert. Mit Kopfhörern ist das viel schwieriger, weil wir neben der Raumsimulation auch noch den individuellen Einfluss der Ohrmuschel berücksichtigen müssen, die das subjektive Hörempfinden stark prägt”, sagt Majdak. Jedes Gehirn hat eine bestimmte Erwartung an akustische Signale, die unter anderem von der Form der Ohrmuschel beeinflusst werden. Wenn Erwartung und Ergebnis nicht exakt zusammenpassen, führt das zu Phantomstimmen im Kopf.

Personalisiertes Hören

“Wahrnehmung ist eine komplexe Angelegenheit. Jedes Gehirn hört anders. Ein wichtiger Bestandteil des Forschungsprojekts SONICOM ist deshalb Grundlagenforschung. Andere beteiligte Teams befassen sich mit verschiedenen Aspekten der sozialen Interaktion in virtuellen Räumen und ihrem Einfluss auf unser Hören. Direkt arbeite ich mit meinen Kollegen an einem Werkzeugkasten, der es ermöglicht, personalisierte Schallwiedergabe über Kopfhörer für Anwendungen zu nutzen. Das wollen wir quelloffen zur Verfügung stellen”, erklärt Majdak.

Um eine realistische räumliche Anordnung von Schallquellen über Kopfhörer zu erreichen, braucht man zuerst ein Modell, das die Verteilung im Raum und die Eigenschaften des Raums selbst festlegt. Das kann etwa durch eine Vermessung eines realen Raums mit mehreren Mikrofonen erreicht werden. Das ist jedoch der einfachere Teil des Problems. Damit der Raumklang für einen Kopfhörernutzer realistisch klingt, muss auch die einzigartige Verzerrung der Töne durch die Ohrmuschel berücksichtigt werden. Um diese zu simulieren und dem Kopfhörersignal beizumischen, ist ein Modell der Ohrmuschel notwendig.

KI bastelt virtuelle Ohrmuscheln

“Wir nennen das ‘Head-Related Transfer Function’ (HRTF), eine mathematische Funktion, die wir nutzen können, um den Raumklang zu personalisieren”, sagt Majdak. Eine solche Funktion lässt sich über Umwege über ein Modell der Ohrmuschel kreieren. Weil Scans oder Abgüsse aufwändig sind, ist das für eine breite Anwendung allerdings wenig praktikabel. Deshalb wollen die Forscher/innen maschinelles Lernen nutzen, um einen einfacheren und kostengünstigeren Weg zu finden. Eine künstliche Intelligenz soll lernen, wie man aus Fotos einer Ohrmuschel ein digitales Modell kreiert. “Vielleicht kann uns die KI sogar direkt die mathematische HRTF liefern, ohne den Zwischenschritt über ein virtuelles Modell der Ohrmuschel. Das wollen wir auf jeden Fall ausprobieren”, sagt Majdak.

Wenn alles wie geplant läuft, könnte das Projekt dazu führen, dass Hörgeräte künftig bessere räumliche Trennung von Signalen erlauben, Teilnehmer/innen von virtuellen Konferenzen ihre Gesprächspartner/innen im Raum verorten können und Augmented Reality Anwendungen nicht nur visuell sondern auch akustisch realistische Erfahrungen ermöglichen. Zudem werden die Forscher/innen besser verstehen, wie akustische Wahrnehmung im Detail funktioniert.

 

Auf einen Blick

SONICOM ist ein Horizon 2020 Projekt der Europäischen Union und startete im Juni 2021.

Projektseite