Multimedia im Überblick/ Gestaltung/ Grafik/ Erstellung eines Animationsfilms

Aus Wikibooks


Dieser Artikel befasst sich damit, wie man typischerweise einen Animationsfilm in Spielfilmlänge in der professionellen Filmindustrie produziert. Dieser Prozess ist sehr komplex geworden - aus diesem Grund kann dieser Artikel leider nicht auf jede Einzelheiten eingehen. Um dies am besten zu verstehen, sollte man zumindest in einer Community zu diesem Thema aktiv werden - eine kleine Auswahl ist am Ende dieses Artikels gelistet. "Bonusmaterial", "Making of" etc. auf DVD/BD geben nicht selten einen sehr interessanten Einblick in einen solchen Workflow.

Aktives Engagement führt zu dem Verständnis, was eine Animation oder gar eine hochqualitative Multimedia-Produktion charakterisiert - und jene Arbeitsprozesse, die zu ihrer Produktion unerlässlich sind. Je nach Zielgruppe und Projekt dauert eine übliche professionelle Produktion in der Multimedia-Industrie, v.a. aber in der Filmindustrie, i.d.R. 2 – 4 Jahre - je nach Aufwand und Budget.

Die Idee[Bearbeiten]

Am Anfang steht erst einmal die Idee, die Vision, ein Traum, ein Gedanke – etwas das Wert ist, es zu visualisieren. Die große Herausforderung: das Publikum muss am Ende an den Inhalt der Aussagen, der Geschichte oder etwas dergleichen glauben. Um hierbei erfolgreich sein zu können ist es entscheidend, zu Beginn genügend Freiheiten für die folgende Entwicklung über die nächsten Jahre zu geben, etwa den Künstlern – denn nicht selten trifft der Fall ein, dass am Ende ein Produkt entstanden ist, das am Anfang so noch nicht vorstellbar war, noch nicht einmal vom Regisseur selbst – zumindest in den meisten Fällen. Selbst in Avatar 2009, dessen Manuskript sehr viele Details enthält, mussten die Künstler und Designer zusammen mit dem Regisseur entscheiden, ob ein entworfenes Objekt sich in die Welt des Manuskript einfügt.

Text Treatments verfassen[Bearbeiten]

Die grobe Idee muss zuerst in einem Text Treatment zusammengefasst werden, bzw. in mehreren solcher Abhandlungen, um das richtige Gleichgewicht zu finden. Dieser Schritt darf keineswegs vernachlässigt werden, denn er sichert den Erfolg des Vorhabens – beim Publikum und beim Geldgeber!

Storyboards zeichnen[Bearbeiten]

Doch da ein einfacher Text nicht ausreicht, und hier eine Vision visualisiert werden soll, werden Comics handgezeichnet, die den Inhalt des Manuskript in Bildern erzählen. Sie sind der erste Entwurf für Handlung, Dialoge sowie Emotionen der Charaktere. Beim Ablauf erhält jeder Story Board Artist einen Auszug aus dem Manuskript und ggf. noch eine Liste (engl.: beat outline), die beschreibt, welche Charaktere welche emotionale Änderungen in bestimmten Handlungen erfahren – und das Publikum soll diese erkennen können. Ihre Resulte legen sie dem Regisseur vor.

Stimmen aufnehmen[Bearbeiten]

Um das Timing von Szenen in einem ersten Schritt besser zu verstehen, werden Stimmen entwurfsartig, meistens von der eigenen Artist Crew, aufgenommen (eng.: scratch voice) – diese werden im Laufe des Prozesses später durch professionelle Schauspieler-Stimmen ersetzt; vor allem dann, wenn entschieden ist, ob eine Szene im fertigen Produkt erscheint. Bei der professionellen Aufnahme werden mehrere Versionen einer gleichen Sequenz produziert – die beste wird ausgesucht und schließlich animiert.

Redaktion: Filmsequenzen und Standbilder[Bearbeiten]

In einem weiteren Schritt, um das Timing noch besser zu verstehen, fügt die Redaktion die einzelnen handgezeichneten Comics zu mehreren Sequenzen – je nach Szene – zusammen, wodurch Filmsequenzen in Standbild-Form entstehen: wie lange ein Bild erscheint, steht dann dafür, wie lange die entsprechende Szene selbst dauert. Bilder können leicht in ihrer Abfolge veränder werden; der Arbeitsaufwand wird so minimal gehalten. Szenen können geschnitten werden, oder selbst vor andere Szenen verschoben werden.

Aussehen und Wirkung[Bearbeiten]

Die bisherigen, entwurfsartigen Comics reichen selbstverständlich nicht aus, das Aussehen und die Wirkung zu bestimmen: kreatives Brainstorming bilden die Grundlage für die Künstler, nun inspirierende, farblich ansprechende Graphiken zu schaffen, die die Welt der Geschichte oder des Manuskript möglichst gut erzählen. Sie sind für sie Szenen (eng.: sets), für die Requisiten (engl.: props) [1] sowie für das Aussehen von Oberflächen und Farben verantwortlich (engl.: appearance). Nicht zu vergessen sind die wichtigen „color scripts“[2] für eine gelungene Belichtung – impressionistische Illustrationen, häufig auf Basis von Pastel-Farben, um die Farbwirkung, Farbharmonie und das Licht von Szenen und Objekten zu illustrieren. Denn eines ist sicher: Pastel-Zeichnungen anzufertigen ist weit weniger Arbeit und zeitaufwendig als sie mit Zeichenprogrammen am Computer zu zeichnen – außer es werden Tablets verwendet, sofern ihre Auflösung groß genug ist. In diesem Fall ermöglichen Tablets sogar wesentlich schnelleres Arbeiten in einer größeren Gruppe.

Modellierung[Bearbeiten]

Erst wenn diese Illustrationen von den Künstlern weitestgehend fertig vorliegen – zumindest für einige Szenen – beginnt eine spezielle Gruppe ihre Arbeit: auf geeignete Weise virtuelle Objekte, Modelle (eng.: models) zu erstellen. Hierzu steht mehrere Verfahren zur Auswahl und einige von ihnen sind Gegenstand wissenschaftlicher Forschung. Das klassische Verfahren, ein Model zu bauen, bedient sich den primitiven Modellen (engl.: primitives). Diese können in verschiedener mathematischer Form beschrieben werden: als ein einfacher, geschlossener Polygonenzug (ein Mesh), als NURBS-Oberflächen oder als Subdivision-Oberflächen. Letzte eignet sich besonders für organische Objekte, da sie angeglichene Rundungen selbst berechnet. Doch besteht auch die Möglichkeit, solche Objekte nicht etwa von Grund auf zu modellieren, sondern durch Verfahren der Angewandten Computerwissenschaften entweder von realen Fotografien direkt in 3-dimensionale virtuelle Modelle zu übersetzen – samt Farben und Texturen – oder sie zusätzlich mit Hilfe von physikalischen Messgeräten 3-dimensional einzuscannen, um sie anschließend für die Anwendung in Modelle in geeigneter Daten zu übersetzen und zu importieren. Bereits während der Modellierung werden solchen Objekten, die sich später in sich bewegen sollen können, gewisse Kontrollpunkte (engl.: control points, avars, hinges) hinzugefügt, die es erlauben, durch ihre eigene Bewegung im virtuellen Raum einen Teil eines Objekts, das sie referenzieren, gleichermaßen zu bewegen, ohne dabei letztere in irgendeiner Weise von selbst zu berühren. Schließlich kann man bei recht komplexen Objekten schnell etwas „kaputt“ machen oder zumindest die Übersicht verlieren, welche Punkte wann und wie genau bewegt werden sollen. Außerdem werden solche Kontrollpunkte überlicherweise beschriftet, das sie Zusammenarbeit in großen Gruppen deutlich fördert.

Szenenaufbau gestalten[Bearbeiten]

Nachdem also die einzelnen Objekte modelliert wurden, gestalten ein Team von „set dressers“ die Szenen so, wie sie zuvor von den Künstlern farblich gezeichnet wurden. Dazu verwenden sie jene Objekte, die ebenso bereits modelliert wurden, etwa die „props“. Auch ihr Ziel ist: eine möglichst glaubhafte Welt. Ihre eigene Kreativität beeinflusst dabei sicherlich den Aufbau einer Szene, und Unterhaltungen oder Diskussionen mit dem Regisseur sind durchaus nicht so unüblich, besonders dann, wenn Künstler der Meinung sind, man könne etwas aus dem Manuskript geeigneter durch eine andere Form oder Darstellung übermittlen.

Layout und Layout-Crew[Bearbeiten]

Bis zu diesem Zeitpunkt im gesamten Prozess liegen nun die Szenen fertig angeordnet vor – und dies mit vielen Objekten. Doch kann noch lange nicht von einer zeitlichen Dimension gesprochen werden. Bevor dies passiert, muss sichergestellt werden, welche Szenen wirklich in welcher Weise realisiert werden für das Endprodukt. Die „layout crew“ kümmert sich darum, dass besonders der Höhepunkt jeder Szene als ein einzelnes Standbild visualisiert, d.h. gerendert wird. Wichtig ist dabei, genau solche Momente auszuwählen, die in markanter Weise die Bewegung, Entwicklung und Details von Figuren zeigen – und nicht zu vergessen die Emotionen, damit das Publikum später begeistert wird, mitgerissen wird in die Geschichte. Lachende Gesichter, Menschen oder menschenähnliche Figuren, deren Gedanken möglichst von einem einzigen Bild abgelesen werden können und daher die gesamte Szene repräsentieren. Mit mehreren Aufnahmen einer gleichen Szene kann so weitaus leichter der Verlauf der Emotionen über den Film hinweg im Überblick gehalten werden. „Einer Szene wo sie sich streiten folgt einer Szene, wo sie weinen und am Ende lachen sie wieder.“ Einzelne Szenen werden auf diese Weise schließlich auf ihre endgültige Version geschnitten – wenn nötig – um daraufhin für die Animation freizugeben.

Animation der Aufnahmen[Bearbeiten]

Es handelt sich zwar um eine Produktion von einem Animationsfilm, aber erst an dieser Stelle im gesamten Prozess kommt es zur eigentlichen Animation. Bis zu diesem Schritt wurde eine Menge an Vorleistungen getroffen, die eigentlich gar nicht mehr eine Vorbereitung an sich sind, sondern gleichwertig mit dem Prozess der eigentlichen Animation sind – denn ohne sie wird in der Regel eine Animation weniger komfortabel; ein Trugschluss, den besonders eher unerfahrene Beginner, Einsteiger unterliegen. Zur Animation selbst stehen mehrere Verfahren zur Verfügung. Die Aufwendigste ist sicherlich die manuelle Animation von jeglichen sichtbaren Bewegungsabläufen – eine eher ineffiziente Herangehensweise. Mit zunehmender Automatisierung wurden Techniken entwickelt, die das Animieren deutlich vereinfachen sollen – dieser Prozess ist noch lange nicht abgeschlossen und befindet sich derzeit in wissenschaftlicher Forschung. Mit Motion Tracking liegen zwar die Bewegungsdaten von realen Objekten im Computer vor, doch hat der Animateur diese Daten mit einem bewusst gewählten Objekt so zu verbinden, dass sich dieses Objekt wie das Reale bewegt. Mehrerer solcher Bewegungsabläufe können aneinander gehängt werden, doch ist auch diese Methode den manuellen Aneinanderhängens zu groß – es werden spezielle Addons oder externe Software zur AI, Künstlichen Intelligenz, benutzt (z.B. Massive). Mit der Produktion von Avatar 2009 wurden Verfahren und Programme entwickelt, die direkt in Echtzeit die Bewegungsabläufe eines realen Schauspielers protokollieren und gleichzeitig in einer Animationssoftware durch Addons auf ein Objekt anwenden – selbstverständlich müssen diese Daten miteinander kalibriert werden, dass nicht unwesentlich Aufwand bedeutet, doch bei einer Fülle von virtuellen Aufnahmen macht dieser Ansatz durchaus Sinn und erleichtert das Arbeiten im Folgenden bedeutend.[3] Gesichter sind nach wie vor ein großen Problem; ein Problem, das daher kommt, dass direkt unter der Gesichtshaut unzählig viele Muskeln liegen und so für einen unverwechselbaren Ausdruck sorgen. Professionellen Animationsprogramme bieten Tools, die versuchen, Muskeln zu implementieren. Doch wer „bastelt“ eine große Menge von Muskeln um ein Gesicht, das viel Zeit kostet, die nicht immer vorhanden ist, und damit auch Geld für den Arbeitgeber, und zusätzlich das Datenvolumen und den Rechenaufwand steigen lassen. Eine einfachere Anwendung aus der Computergraphik ist schlicht, nur die Momente mit größter und deutlichster Emotion (eng.: key frames) zu animieren und jene Momente dazwischen (engl.: inbetween frames) von der Software berechnen zu lassen. Ohne zeitaufwendiges manuelles Justieren liefert diese Methode keine ansprechenden Ergebnisse. Allein aus diesen beiden obigen Beispielen folgt, dass Animation immer noch nicht trivial ist – Erfahrung bei der Arbeit ist hier am wichtigsten. Abgesehen davon bieten moderne Animationssoftware eine Reihe von Methoden für die Animation, wie etwa keyframing, drivers und driven keys, path animation, nicht-lineare Animation, inverse kinematics (IK), forward kinematics (FK), constraints, um nur die Wichtigsten zu nennen.

Shader erstellen und programmieren[Bearbeiten]

Auch wenn die Animationen, die Koordinierung von Bewegungsabläufen abgeschlossen ist, liegt damit noch lange nicht das Aussehen von den Objekten in der Szene fest. Um diesen Modellen leuchtende Farben zu geben wird ein weiteres Programm programmiert: ein Shader, der üblicherweise direkt auf der Graphikkarte läuft, und nicht auf dem RAM des Computers. Ein Shader wird von der GPU berechnet und ist dementsprechend für Fließkomma Arithmetik optimiert und läuft deshalb wesentlich schneller als auf dem CPU. Farben darzustellen ist eher trivial, aber Farbschattierungen ist alles andere als trivial. In der Praxis werden mehrere Shader gleichzeitig einer bestimmten Oberfläche zugeordnet: Ein Shader für Grundfarben, für Muster, für Schatten und Belichtung, für Texturen und Farbveränderungen (engl.: color shift). Dabei können, je nach Plattform, die Aufgaben verschiedener Shader zu einem Shader zusammengefügt werden, das die Leistungsfähigkeit erhöhen kann. Doch werden sie für noch weitaus komplexere Aufgaben verwendet: Im Animationsfilm Wall-E von Pixar Animation Studio wurde beispielsweise die Mülldeponie nicht „von Hand“ komplett modelliert, sondern die Künstler haben die Oberfläche mit einer Farbe eingefärbt oder bemalt, etwa in Grau- oder Grünstufen. Die Art und Intensität der Farbe an einem Ort auf dieser Oberfläche hat ein spezieller für diese Anwendung programmierten Displacement Shader verwendet, um die Form, das Aussehen und Dicke der Müllablagerungen von Texturen und Objekten dynamisch während des Renderings zu generieren. (Pixar, 2010) Effizienter Weise werden, oder sollten, von Shadern auch Dynamics realisiert werden; dynamische Verfahren, die Haare, Felle, Stoffe, Partikel (etwa Nebel, Wolken, Wassertropfen, Explosionen und Feuerwerke) und elementare physikalische Gesetze wie Gravitation, Reflexion, Refraktion sowie eine bestimmte Materialstruktur realisieren sollen. Zwar kann der CPU diese Aufgaben ebenso bewältigen, doch erledigt ein Shader auf der GPU diese Aufgaben weitaus schneller und bei großen Datenvolumen, wie sie bei großen Animationsfilmen zustande kommen, ist jede Zeitersparnis entscheidend.

Belichtung[Bearbeiten]

Inspiriert vom color script, dem Farbenskript von der Kunstabteilung, wird die virtuelle Beleuchtung analog zur realen Bühnenbeleuchtung organisiert: das Führungslicht (engl.: key light) hebt das eigentlich Objekt hervor, es ist das Haupt-Licht; wegen der vielen Formen des menschlichen Gesichts wirft das Führungslicht je nach Oberfläche störende Schatten, die ein schwächeres Aufhelllicht seitlich neben dem Führungslicht verhindern (engl.: fill light). Konturen und Umrisse den Objekts gegenüber der Umgebung betont ein entgegen gerichtetes Effekt- oder Haar-Licht (engl.: bounce light). Doch um die Umgebung korrekt auszuleuchten benötigt es ein oder mehrere Umgebungslichter (engl.: ambient light). Diese verschiedenen Lichtquellen mit ihrer entsprechenden Lichttemperatur, Lichtintensität und Lichtfarbe werden in der virtuellen Szene der Animationssoftware dazu verwendet, die Stimmung sowie die Gefühle von jeder Szene hervorzuheben – ohne gut abgestimmtes Licht verfehlt die Szene ihre gewünschte Wirkung beim Publikum.

Rendering[Bearbeiten]

Sobald die Daten von mindestens einer Szene fertig vorliegen, wird der Renderer gestartet. Einfach gesehen kann ein Renderer als ein Trichter mit Zahnrädern (oder ein Fleischwolf) angesehen werden. Oben werden die enormen Datenmengen in einem bestimmten Format, das der Renderer erkennt und lesen kann, eingefüllt. Über mehrere Minuten und/oder Stunden bewegen sich diese Datenmengen durch die Zahnräder unterhalb des Trichters, werden bearbeitet, um schließlich ein Ergebnis zurückzugeben: ein Bild einer Sequenz, d.h. ein Frame und dies ist 1/24 einer Sekunde vom fertigen Film. Bei einem 120minütigen Spielfilm ergeben sich 172800 Frames. Bei Animationen in Spielfilm- und Kinoqualität, etwa von Pixar oder Disney, ergeben sich laut Pixar üblicherweise 6 Stunden Berechnungszeit für ein einzelnes Frame. Unter dieser Voraussetzung dauert das Rendern von 120min langen Animationsfilms ca. 118 Jahre (1 036 800 h). Da dies nicht möglich ist, folgt daraus, dass entweder die Angabe von Pixar falsch ist, aber selbst bei einer Berechnungszeit von 30min je Frame ergibt sich durchgehende, gesamte Berechnungszeit von fast 10 Jahren. Dies bedeutet, dass notwendigerweise weitergehende Technologien und Methoden verwendet werden, z.B. Layers, um sich wiederholendes nicht noch einmal rendern zu müssen, oder Stochastische Vereinfachung. Prinzipiell lässt sich abschätzen, dass die gesamte Berechnung für ein solches Projekt ca. 2 Jahre dauert – geeignete Rechenleistung vorausgesetzt. Für Avatar 2009 wurden zum Beispiel 4000 HP Server eingesetzt. Genauer bedeutet das Rendern die Daten zu übersetzen, die Shader anzuwenden, und 3-dimensionale Punkte im virtuellen Raum durch die 3D Projektion, im wesentlichen einer Matrixoperation, auf 2-dimensionale Farbpunkte umzurechnen.

Letzte Feinarbeiten[Bearbeiten]

Abschließend betreut die Redaktion die Abteilung für Musik, die die Sound Effekte sowie die Filmmusik mit den gerenderten Filmmaterial abstimmt. Die Effekt Animation fügt dem Ganzen bei Bedarf noch Special Effekts hinzu und die Fotowissenschaftliche Abteilung nimmt die digitalen Einzelbilder auf Film oder auf ein anderes Format für die digitale oder auch noch analoge Filmprojektion auf.


  1. „props“ sind mobile Gegenstände, wie Tische, Stühle, Schrank, Lampe, Bett, Bücher, Vasen usw.
  2. Für „color scripts“ gibt es derzeit keine geeignete Übersetzung im Deutschen, vgl. Farbtafeln.
  3. Mehr Informationen ist der Fachliteratur über Motion Tracking, AI, Blending, Visualization zu entnehmen, vorzüglich aus Universitäten der USA und West-Kanada.

Zum Weiterlesen[Bearbeiten]

  • WetaDigital [1]
  • Pixar Animation Studios [2]
  • Massive [3]
  • GNOMON School: Community von High-End Computer Graphics Interessierten [4]
  • Autodesk 3D Animation Online Community [5]
  • ZBrush Community - Modelle und Texturen von Objekten erstellen [6]
  • Blender Community - 3D Animations- und Rendersoftware [7]