Die Mundstellung von Menschen beeinflusst, wie sie Gesprochenes wahrnehmen. Das haben US-amerikanische Forscher entdeckt. Die Teilnehmer einer Studie hörten unterschiedliche Dinge, als ein Roboter ihre Gesichtshaut in verschiedene Richtungen verzog. Zwischen der Stellung der Gesichtsmuskeln und dem Verständnis von gesprochenen Wörtern stellten die Forscher einen direkten Zusammenhang fest.
An der Studie nahmen 75 Personen teil, die amerikanisches Englisch als Muttersprache hatten. Die Forscher versahen sie mit Klebestreifen und Fäden links und rechts des Mundes. Dann spielten sie ihnen Wörter vor und zogen dabei die Mundwinkel der Teilnehmer nach oben, nach unten oder nach hinten. Die Teilnehmer gaben dabei an, was sie hörten.
Vorgespielt wurden zehn künstlich erzeugte Variationen zwischen den ähnlich klingenden Wörtern “had” (hatte) und “head” (Kopf). Der Vokal in “had” klingt etwas tiefer und beim Aussprechen ist der Mund runder als bei “head”. Tatsächlich hörten die Versuchsteilnehmer öfter “had”, wenn ihre Mundwinkel nach unten zeigten und ihr Mund sich rundete. Zog der Roboter die Mundwinkel nach oben, wurde öfter “head” gehört. Der Effekt trat allerdings nur ein, wenn der Mund etwa solange verzogen wurde, wie es dauert, den entscheidenden Vokal auszusprechen.
Frühere Studien zur Sprachwahrnehmung legten bereits nahe, dass beim Verstehen von Gesprochenem Teilsysteme des Gehirns arbeiten, die die Bewegung des Sprechapparats steuern. Das neue Experiment untermauert diese Theorie: Die Nervensignale aus den Gesichtsmuskeln wirken demnach direkt auf die Verarbeitung von gehörten Wörtern.
Takayuki Ito (Haskins Laboratories) et al.: PNAS, Online-Vorabveröffentlichung, DOI: 10.1073/pnas.0810063106 ddp/wissenschaft.de ? Martin Rötzschke