Sie zeigten den insgesamt 276 Versuchsteilnehmern Gesichter, die am Computer aus der Vermischung von männlichen und weiblichen Gesichtern so erstellt worden waren, dass sie nur schwer eindeutig als männlich oder weiblich zu erkennen waren. Gleichzeitig wurde den Probanden ein hoher oder tiefer Ton vorgespielt. Hörten die Versuchsteilnehmer einen hohen Ton, deuteten sie das Gesicht als weiblich, bei einem tiefen Ton deuteten sie dasselbe Gesicht als männlich. War der Ton außerhalb des Bereiches, den Menschen zum Sprechen verwenden, also zu hoch oder zu tief, konnten die Probanden die Gesichter nicht mehr eindeutig zuordnen.
In einem Kontrollversuch wurden den Teilnehmer nur die Töne vorgespielt. Hierbei waren sie nicht in der Lage, diese eindeutig einem Geschlecht zuzuordnen. Das sei zu erwarten gewesen, so die Forscher, da nur die Grundtöne einer Stimme verwendet wurden. Stimmen bestehen jedoch aus einem Grundton und mehreren Obertönen, die im Gehirn in ihre Frequenz-Bestandteile zerlegt werden. Vereinfacht gesagt, entscheidet der Grundton über die Tonhöhe und die Obertöne über die Klangfarbe. Beides ist notwendig, um eindeutig zwischen der Stimme eines Mannes und einer Frau unterscheiden zu können.
Die Teilnehmer benötigten also sowohl die Informationen des Sehsinns als auch die des Gehörs, um die Aufgabe richtig lösen zu können. Das deute auf eine ungeahnt enge Verflechtung der Sinne hin, so die Forscher. Dass umgekehrt das Sehen das Hören beeinflussen kann, ist zwar schon bekannt, allerdings nicht in diesem Maße. Der Effekt zeigt sich beispielsweise im Kino, wo jeder glaubt, die Sprache komme vom Schauspieler auf der Leinwand, obwohl sich die Lautsprecher hinter oder neben den Zuschauern befinden. In weiteren Studien wollen die Wissenschaftler nun untersuchen, ob eine ähnliche Zusammenarbeit auch bei den anderen Sinnesorganen gezeigt werden kann.