glaubhaft wirkende Animationen von Gesichtern zu erzeugen, ist eine der schwierigsten Aufgaben, die sich den Machern von Animationsfilmen stellen. Denn zum einen ist das Repertoire des Menschen an Mimik äußerst vielseitig, zum anderen erkennen die Zuschauer gerade am Gesichtsausdruck virtueller Schauspieler besonders leicht, wenn die Animation nicht das wiedergibt, was sie von realen Menschen kennen und erwarten. Das macht das Erstellen von animierten Gesichtern bislang sehr mühsam und zeitaufwendig.
Ein Team um Volker Helzle am Institut für Animation, Visual Effects und digitale Postproduktion der Filmakademie Baden-Württemberg hat in einem Forschungsprojekt nun eine Methode entwickelt, um Gesichtsanimationen deutlich einfacher und schneller generieren zu können.
Dazu verwendeten sie dreidimensionale Scans von Schauspielern, die eine Vielzahl unterschiedlicher Mimiken zeigten. Die so gewonnenen Daten unterzogen die Forscher diversen Nachbearbeitungsschritten und zerlegten sie in viele kleine Bausteine für die Bewegung der einzelnen Gesichtsbereiche. Aus diesen Bausteinen erstellten Helzle und seine Teamkollegen eine Bibliothek von Mimiken, mit denen Menschen Emotionen ausdrücken und mit anderen wortlos kommunizieren. Mithilfe dieser Bibliothek kann man am PC komplexere und natürlichere Gesichtsausdrücke nachbilden als bisher. Die Bewegungsbausteine lassen sich per Software an alle menschlichen Charaktere und sogar an stark stilisierte Gesichtsmodelle anpassen.
Die so animierten künstlichen Köpfe und Gesichter können nicht nur in Filmen und Computerspielen mitwirken. Sie lassen sich auch als „Avatare“ nutzen – virtuelle Wesen, die etwa auf einer Webpage, bei einer Online-Schulung oder in einer elektronischen Bedienungsanleitung mit einem menschlichen Gegenüber kommunizieren. Dazu haben Helzle und sein Team ihre virtuellen Wesen mit einer Gesichtserkennung ausgestattet. Damit können diese per Webcam die Position des Menschen am Monitor erkennen und ihm mit Blick und Kopfbewegung folgen.