Um diese Vermutung zu überprüfen, nahmen die Forscher Kopfbewegungen japanischer Testpersonen während des Sprechens auf und übertrugen das Bewegungsmuster auf ein animiertes Modell eines Kopfes. Anschließend zeigten sie zwölf jungen Japanern den animierten Film, in dem der Sprecher vor einem lauten Hintergrund Sätze vorsprach. In einem Teil der Tests ließen die Forscher den Kopf im natürlichen Rhythmus wackeln, in anderen Teilen veränderten sie jedoch das Bewegungsmuster oder entfernten die Bewegungen vollständig.
Das Ergebnis war eindeutig: Führte der Kopf während des Sprechens die natürlichen Kopfbewegungen aus, konnten die Probanden viel mehr Wörter und Silben verstehen als wenn falsche oder gar keine Bewegungen die Sprache begleiteten. Dies sei das erste Mal, dass eine solch grundlegende Funktion des visuellen Sprachrhythmus nachgewiesen werden konnte, berichten die Forscher. Sie vermuten, die Bewegungen könnten Signale vermitteln, die dem Zuhörer helfen, den Sprachfluss in übersichtliche Abschnitte zu unterteilen. Neben den Kopfbewegungen seien jedoch auch Gesten und Gesichtsausdrücke wichtig, um die Bedeutung gesprochener Sätze zu verstehen.