Anzeige
1 Monat GRATIS testen, danach für nur 9,90€/Monat!
Startseite »

Hollywoods neue Helden

Technik|Digitales

Hollywoods neue Helden
Figuren aus dem Computer spielen in Filmen eine immer größere Rolle. Ihr Aussehen, ihre Gestik und Mimik lassen sich inzwischen so gut animieren, dass virtuelle Schauspieler kaum noch von echten zu unterscheiden sind.

Seit dem 14. Dezember ist King Kong wieder in den Kinos unterwegs. In einer neuen Version des Monsterfilmklassikers versetzt der riesige Gorilla – wie schon vor über 70 Jahren – ganz New York in Angst und Schrecken, klettert an den Fassaden von Wolkenkratzern empor, wirbelt Autos durch die Luft und demoliert ganze Straßenzüge. Anders als in dem Originalfilm aus dem Jahr 1933, bei dem das Schreckenswesen aus dem Urwald als Puppe durch eine Kulisse aus Pappmaschee tobte, besticht die moderne Variante durch aufwendige und echt wirkende Animationen. Der neuseeländische Filmemacher Peter Jackson, der auch die drei Herr-der-Ringe-Filme produziert hat, machte den King-Kong-Film von 2005 zum bislang teuersten Spielfilm aller Zeiten: Fast 210 Millionen US-Dollar hat der Dreh gekostet – ein großer Teil davon ging für Animationen und Spezialeffekte drauf.

Bereits eine Woche vor dem Start von „King Kong“ waren „Die Chroniken von Narnia“ in den deutschen Kinos zu sehen: ein Fantasyfilm, in dem etliche Kunstwesen, halb Mensch halb tierische Kreatur, in fantasievoll gestalteten Märchenlandschaften agieren. Im April 2006 soll „Ice-Age-2″ anlaufen – die Fortsetzung eines der bisher erfolgreichsten computeranimierten Filme aus dem Jahr 2002. Es gibt kaum noch Kinofilme, die nicht wenigstens zu großen Teilen von animierten Wesen und Szenen erfüllt sind.

Dabei steht die Filmbranche noch fast am Anfang des Siegeszugs der Animation, glaubt Thomas Haegele, Professor und Leiter des Instituts für Animation, Visual Effects und digitale Postproduktion der Filmakademie Baden-Württemberg in Ludwigsburg. „Die Grenze zwischen Animation und Realfilm wird sich auflösen“, prophezeit er. „Animationsfilme werden immer echter aussehen, Realfilme werden immer mehr animierte Teile enthalten.“

Schon heute gibt es Filme, bei denen der Zuschauer kaum noch zwischen Wirklichkeit und am Computer generierter Fiktion unterscheiden kann. So war in dem 2004 veröffentlichten Streifen „ Spiderman-2″ rund ein Drittel des gesamten Filmmaterials computeranimiert. Viele Szenen entstanden fast vollständig per Software am Rechner – und wurden teils mit realen Filmaufnahmen vermischt. Zum Beispiel Passagen, in denen Spiderman mit seinem Widerpart Doc Ock, der außer mit Armen und Beinen auch mit vier oktopusähnlichen Tentakeln bestückt ist, auf dem Dach oder an der Seitenwand eines Zuges kämpft. Damit das Resultat des Verschmelzens von echtem Dreh und Gestaltung am Computer beim Zuschauer den Eindruck von Authentizität erweckt und glaubhaft erscheint, müssen die Filmemacher beim Erstellen der Animationen viel Fleiß und Wissen investieren.

Anzeige

„So mussten wir für Doc Ock mit seinen Tentakeln eine spezielle Art der Fortbewegung entwickeln“, erklärt Anthony LaMolinara, Leiter des Bereichs Animation bei der Produktionsfirma Sony Picture Imageworks in Culver City, Kalifornien, „da es in der Natur nichts Vergleichbares gibt, das als Vorbild hätte dienen können.“ Oktopusse haben zwar ähnliche Fangarme, bewegen sich aber unter Wasser in einer Umgebung, wo sie kaum etwas von der Schwerkraft spüren. Monatelang experimentierten die Animations-Experten daher, um herauszufinden, wie sich der Einfluss der Gravitation auf Körper und Tentakeln realistisch wiedergeben lässt – etwa wenn sich Doc Ock an einem Zugwaggon entlanghangelt. Auch wie Bewegungen mit den Fangarmen andere Bereiche seines Körpers deformieren oder wie sie selbst etwa beim Schlagen gegen eine Hauswand verformt werden, mussten die Animatoren erst herausfinden. Und Aufnahmen von Szenen, die mit dem – echten – Schauspieler Alfred Molina gedreht worden waren, mussten so verändert werden, dass sich die nachträglich eingefügten Tentakel realistisch mit den Körperbewegungen ergänzten.

„Opulente oder spektakuläre Filmszenen lassen sich mit digitalen Techniken mittlerweile besser und billiger realisieren als mit lebenden Menschen und realen Requisiten“, sagt Animations-Spezialist Thomas Haegele. Wirtschaftliche Vorteile sind auch ein wichtiger Grund für den Wunsch vieler Filmemacher, lieber virtuelle Schauspieler aus dem Computer als menschliche Darsteller einzusetzen. „Die Gagen vieler Hollywood-Schauspieler sind so hoch, dass sie die Kosten für das Erstellen von Animationen deutlich übersteigen“, sagt Haegele.

Ein anderer Aspekt: Die Versicherungsprämien für Hollywoodfilme sind niedriger, wenn ihre Hauptdarsteller einwilligen, einen dreidimensionalen Körperscan von sich machen zu lassen – ihren Körper also in digitaler Form dem Filmstudio zu überlassen. Sollte dem Schauspieler während der Dreharbeiten etwas zustoßen, kann die Filmproduktion damit auch ohne ihn – und stattdessen mit seinem digitalen Double – weitergehen. Andererseits lassen sich mit virtuellen Figuren viele Dinge realisieren, die mit echten Darstellern nicht machbar wären – etwa halsbrecherische Stuntszenen, die für einen menschlichen Stunt zu gefährlich sind – oder außergewöhnliche Kameraeinstellungen: Digitale Filmhelden lassen sich mit einer virtuellen Kamera aus verwegenen Perspektiven filmen – etwa während sie auf einem fliegenden Hubschrauber herumturnen oder in Nahaufnahme, beim Sturz von einem hohen Gebäude.

Eine der größten Herausforderungen für die Animationskünstler ist die Nachbildung menschlicher Mimik. Der Grund dafür ist, dass Menschen bei virtuellen menschlichen Gestalten äußerst sensibel erkennen, ob der Gesichtsausdruck „passt“. Verzieht der animierte Filmheld beispielsweise in einem Kampf oder beim Stemmen eines schweren Gewichts nicht in der richtigen Weise schmerzverzerrt das Gesicht oder erscheint die Bewegung einzelner Muskeln im Gesicht bei einem Lachen oder Wutanfall unwirklich, sieht man das sofort. Doch Gesichtsausdrücke glaubhaft zu animieren erfordert einen enormen Aufwand, der sich erst durch neu entwickelte Verfahren reduzieren lässt (siehe Kasten „Die Mimik macht’s“). „ Hier gibt es derzeit rasante Fortschritte“, sagt Thomas Haegele.

Das gilt auch für das Bemühen der Animatoren, ihren Computerkreaturen mehr Selbstständigkeit zu verleihen – um das Erstellen kompletter Filmsequenzen möglichst weitgehend zu automatisieren. So haben Wissenschaftler an der University of Oxford in England eine Software entwickelt, die neueste Erkenntnisse über menschliche Bewegungsabläufe für die Simulation der Körperbewegungen von animierten Figuren nutzt. Die Software „ endorphin“, die die Forscher nun in einem Unternehmen namens NaturalMotion vermarkten, verleiht Computerwesen nicht nur künstliche Skelette, Muskeln und Gelenke,sondern auch ein eigenes Gehirn: ein neuronales Netz, das berechnet, welche Kräfte zum Beispiel bei einer animierten Stuntszene auf den digitalen Darsteller wirken und wie sich die unterschiedlichen Teile seines Körpers als Reaktion darauf zu bewegen und zu verformen haben.

Bis vor einigen Jahren mussten die Animatoren per Hand – durch Drehen an virtuellen Gelenken – „Schnappschüsse“ einer Körperbewegung einstellen, während die Software erst danach die Zwischenschritte des Bewegungsablaufs errechnete. „Mit den nun verfügbaren neuen Animationstechniken lassen sich ganze Massenszenen automatisch erstellen“, sagt Haegele – etwa in einer Belagerungsszene im Film „Kingdom of Heaven“ das Umstürzen eines Holzturms, der viele Menschen mit sich reißt. Eine Software berechnet, was mit jedem einzelnen Menschen geschieht, wenn der Turm umfällt. „Früher wären für eine solche Animation Dutzende von Computergrafikern notwendig gewesen“, betont Haegele.

Auch die immer leistungsfähigere Hardware trägt dazu bei, dass sich bessere und realistischere Animationen am Computer generieren lassen. Zum Beispiel Grafikkarten: Während das Rendern – das Berechnen der einzelnen Bilder einer Animationssequenz – vor einigen Jahren noch Minuten oder gar Stunden dauerte, gelingt es mit der neuesten Generation von Grafikkarten in wenigen Sekunden. „Das verringert den Zeitaufwand für Erstellen – und Optimieren – einer Animation erheblich“, freut sich Haegele.

So war es bis vor Kurzem immens zeitraubend, eine virtuelle Explosion so weit zu verfeinern, bis sie echt aussah: „Um eine Explosion, die nur eine Sekunde dauert, zu rendern, brauchte man bei einem Zeitaufwand von 15 Minuten pro Bild und der bei Filmen üblichen Zahl von 24 Bildern pro Sekunde mehrere Stunden, um die komplette Sequenz zu generieren“, rechnet Haegele vor. Da lohnte es sich für einen Animator nicht, das Auseinanderfliegen der vielen Bruchstücke, den Rauch und die Flammen mit immer wieder veränderten Parametern so lange zu wiederholen, bis ihn das Ergebnis zufrieden stellte. „Bei einer Rechenzeit von fünf Sekunden pro Bild sieht das natürlich anders aus“, sagt der Experte. „Auch solche besseren technischen Möglichkeiten tragen zur Qualitätssteigerung der Animationen bei.“

Für die nächsten Jahre erwartet Haegele weiter eine rasante Entwicklung. Ein Trend ist für ihn bereits jetzt erkennbar: Filme und Computerspiele wachsen zusammen. Und animierte Spiele werden immer häufiger auch auf tragbaren elektronischen Geräten wie dem Handy genutzt. Die Mobiltelefone allerdings kranken an einem notorisch geringen Speicherplatz. Daher rücken derzeit die Arbeiten einiger Entwickler in den Fokus, die sich darum bemühen, grafische Animationen zu erstellen, die möglichst wenig Speicher benötigen. Inzwischen ist es möglich, mehrere Minuten lange Filme zu generieren, die mit nur 64 Kilobyte Speicher auskommen – das entspricht etwa der Größe eines Textdokuments in Word. „Durch die rasch wachsende Nachfrage nach Mobile Entertainment bekommen diese Techniken, die zunächst nur ein esoterisches Randgebiet der Animation waren, eine große ökonomische Bedeutung“, erklärt Haegele.

„In den nächsten Jahren werden Regisseure und Filmkünstler auftauchen, die die Animationstechnik zu etwas benutzen, an das wir heute noch gar nicht denken“, ist er überzeugt. Vielleicht, wagt Haegele einen Blick in die Glaskugel, steht am Ende dieser Entwicklung der interaktive Film – basierend auf aufwendigen Computeranimationen und 3D-Technik.

„Dreidimensional aufgenommene, so genannte stereoskopische Filme sind derzeit ein heißes Thema in Hollywood“, verrät Haegele. Im Jahr 2007 will der Regisseur James Cameron – der Macher von „Terminator“ – mit einem Hollywoodfilm ins Kino kommen, der stereoskopisch produziert ist. Und George Lukas plant, seine Star-Wars-Filme stereoskopisch aufzubereiten. „In wenigen Jahren könnte die 3D-Technik auch zu Hause im Heimkino Einzug halten“, glaubt Haegele. Damit könnte man daheim auf dem Sofa richtig in die Filme eintauchen – die dann vielleicht dank komplexer Animationen eine Mischung aus Film und Spiel sein würden: In Form einer nicht linearen Erzählung könnte ein solcher Film diverse Handlungsstränge und Geschichten enthalten, in denen man sich bewegen und die man beeinflussen kann – etwa in einer interaktiven Version von „King Kong“. Je nachdem, wie man es mit seinem Controller steuert, könnte der Riesengorilla New York zerstören, im Zoo landen – oder gar nicht erst aus dem Dschungel nach Amerika verschleppt werden. ■

Ralf Butscher

COMMUNITY Internet

Die Filmakademie Baden-Württemberg in Ludwigsburg feiert dieses Jahr ihr 15-jähriges Bestehen. In einem je zweijährigen Grund- und Projektstudium bildet sie Studenten in allen Bereichen des Filmemachens aus. Bewerbungsschluss für das Wintersemester 2006/2007 ist der 15. Februar. Infos über Studium und Veranstaltungen:

www.filmakademie.de

Die fmx – eine Internationale Konferenz für Animation, Effekte, Echtzeit und Content – wird jährlich vom Institut für Animation, Visual Effects und digitale Postproduktion der Filmakademie Baden-Württemberg organisiert. Ihre Homepage, mit dem Programm der fmx 2006 vom 3. bis 6. Mai in Stuttgart:

www.fmx.de

Ohne Titel

glaubhaft wirkende Animationen von Gesichtern zu erzeugen, ist eine der schwierigsten Aufgaben, die sich den Machern von Animationsfilmen stellen. Denn zum einen ist das Repertoire des Menschen an Mimik äußerst vielseitig, zum anderen erkennen die Zuschauer gerade am Gesichtsausdruck virtueller Schauspieler besonders leicht, wenn die Animation nicht das wiedergibt, was sie von realen Menschen kennen und erwarten. Das macht das Erstellen von animierten Gesichtern bislang sehr mühsam und zeitaufwendig.

Ein Team um Volker Helzle am Institut für Animation, Visual Effects und digitale Postproduktion der Filmakademie Baden-Württemberg hat in einem Forschungsprojekt nun eine Methode entwickelt, um Gesichtsanimationen deutlich einfacher und schneller generieren zu können.

Dazu verwendeten sie dreidimensionale Scans von Schauspielern, die eine Vielzahl unterschiedlicher Mimiken zeigten. Die so gewonnenen Daten unterzogen die Forscher diversen Nachbearbeitungsschritten und zerlegten sie in viele kleine Bausteine für die Bewegung der einzelnen Gesichtsbereiche. Aus diesen Bausteinen erstellten Helzle und seine Teamkollegen eine Bibliothek von Mimiken, mit denen Menschen Emotionen ausdrücken und mit anderen wortlos kommunizieren. Mithilfe dieser Bibliothek kann man am PC komplexere und natürlichere Gesichtsausdrücke nachbilden als bisher. Die Bewegungsbausteine lassen sich per Software an alle menschlichen Charaktere und sogar an stark stilisierte Gesichtsmodelle anpassen.

Die so animierten künstlichen Köpfe und Gesichter können nicht nur in Filmen und Computerspielen mitwirken. Sie lassen sich auch als „Avatare“ nutzen – virtuelle Wesen, die etwa auf einer Webpage, bei einer Online-Schulung oder in einer elektronischen Bedienungsanleitung mit einem menschlichen Gegenüber kommunizieren. Dazu haben Helzle und sein Team ihre virtuellen Wesen mit einer Gesichtserkennung ausgestattet. Damit können diese per Webcam die Position des Menschen am Monitor erkennen und ihm mit Blick und Kopfbewegung folgen.

Ohne Titel

1: Geschichte

Der erste Schritt auf dem Weg zu einem Animationsfilm ist – wie bei jedem Film – eine Idee für Geschichte und Handlung.

2: Text-Exposé

Ein Exposé fasst die Idee zusammen. Es wird so lange verändert, bis eine gute Balance zwischen fester Handlung und noch offenen Möglichkeiten gefunden ist.

3: Storyboards

Als Storyboard bezeichnen Filmemacher handgezeichnete Skizzen, die wie in einem Comic die Handlung des Films wiedergeben. Darin festgehalten sind Dialogtexte und die grobe Gestalt der Figuren.

4: Sprachaufnahmen

Bevor der Film animiert wird, finden die Sprachaufnahmen statt. Professionelle Sprecher – oft bekannte Schauspieler – leihen den Charakteren ihre Stimme.

5: Animatic

Ein Animatic ist ein Video, in dem die zuvor gezeichneten Storyboards abgefilmt und aneinander gefügt sind – im Grund eine erste, rohe Version des Films. Es dient dazu, den Ablauf der einzelnen Szenen zu prüfen und ihre Dauer festzulegen.

6: Look and Feel

Das Look and Feel legt die optische Gestaltung des Films fest. Dazu zeichnen Grafiker am Computer detaillierte Entwürfe für das Aussehen der Figuren und der Welt, in der sie agieren. Auch Details wie die Struktur von Oberflächen, Farben und Lichtverhältnisse werden definiert.

7: formen der Figuren

Die exakte Gestaltung der Kreaturen erfolgt entweder in Form realer Modelle, die in einer Werkstatt gebaut und dreidimensional eingescannt werden, oder direkt am Computer. Um die Bewegung der Figuren animieren zu können, werden sie mit künstlichen Gelenken ausgestattet , ihre Oberfläche wird mit einem feinen Gitter überzogen.

8: Ausstattung der „Drehorte“

Die Umgebung, in der die Handlung der Filmszenen spielt, wird zunächst als 3D-Bild am PC kreiert und danach mit virtuellen Gegenständen – wie Möbeln, Gardinen oder Pflanzen – eingerichtet.

9: Layout der Szenen

Um die Filmszenen zu „drehen“, werden die Computerfiguren in die künstliche Umgebung eingefügt. Eine virtuelle Kamera nimmt ihre Körperhaltungen und ihren Gesichtsausdruck auf. Timing, Ablauf und Kameraposition werden festgelegt.

10: Animation

Die eigentliche Animation versetzt die künstlichen Akteure in Bewegung. Dazu legen die Animatoren mithilfe der Körper-Gitter und -Gelenke Schlüsselpositionen der Figuren fest. Eine Software berechnet die Änderung der Körperhaltung zwischen diesen Positionen. Lippenbewegungen werden so animiert, dass sie zu den gesprochenen Dialogen passen.

11: Colorierung

Nach der Animation erhalten die Oberflächen der virtuellen Schauspieler und der Gegenstände per Software Farbe und Struktur – zum Beispiel Haare, Beulen oder eine matte Rauigkeit.

12: Beleuchtung

Die Szenen werden so mit Schatten und Lichtreflexen versehen, dass sie die gewünschten Beleuchtungsverhältnisse realistisch wiedergeben.

13: Rendering

Beim Rendering werden alle Informationen über die animierten Szenen zusammengeführt und benutzt, um die einzelnen Bilder, die so genannten Frames, des Films zu berechnen. Da das Bild bei einem Kino- oder Fernsehfilm 24-mal in jeder Sekunde wechselt, muss man pro Sekunde Filmdauer 24 Frames erstellen.

14: Fertigstellung

Am Schluss der Produktion durchläuft das Material einen letzten Check. Musik oder Soundeffekte werden ergänzt, bis der Film schließlich ausbelichtet wird.

Ohne Titel

• In manchen Hollywoodstreifen wird zwischen einem echten Schauspieler und seinem digitalen Double ständig hin und her gewechselt – realer und animierter Film wachsen zusammen.

• Mit virtuellen Darstellern lassen sich halsbrecherische Stuntszenen drehen und ausgefallene Kameraeinstellungen simulieren, die in der Realität unmöglich wären.

• Künftig soll der Zuschauer selbst in einer Mischung aus animiertem Film und Computerspiel agieren und die Handlung beeinflussen können.

Anzeige

Wissenschaftsjournalist Tim Schröder im Gespräch mit Forscherinnen und Forschern zu Fragen, die uns bewegen:

  • Wie kann die Wissenschaft helfen, die Herausforderungen unserer Zeit zu meistern?
  • Was werden die nächsten großen Innovationen?
  • Was gibt es auf der Erde und im Universum noch zu entdecken?

Hören Sie hier die aktuelle Episode:

Aktueller Buchtipp

Sonderpublikation in Zusammenarbeit  mit der Baden-Württemberg Stiftung
Jetzt ist morgen
Wie Forscher aus dem Südwesten die digitale Zukunft gestalten

Wissenschaftslexikon

nos|tri|fi|zie|ren  auch:  nost|ri|fi|zie|ren  〈V. t.; hat; Rechtsw.〉 1 jmdn. ~ einbürgern … mehr

Me|so|tho|ri|um  〈n.; –s; unz.; Chem.〉 radioaktives Zerfallsprodukt des Thoriums ● ~ I Isotop des Radiums; … mehr

scan|nen  〈[skæn–] V. t.; hat〉 1 mithilfe eines Scanners einlesen, mit einem Scanner abtasten 2 〈Med.〉 mithilfe der Computertomografie beschreiben, erfassen … mehr

» im Lexikon stöbern
Anzeige
Anzeige
Anzeige