Multimedia im Überblick/ 3D-Computeranimation

Aus Wikibooks

Allgemeines[Bearbeiten]

3D ist die verbreitete Abkürzung für dreidimensional und ein Synonym für Körper in räumlichen Ebenen. Computeranimation bezeichnet die computergestützte Erzeugung von Animation. Sie verwendet die Mittel der Computergrafik und wird ergänzt durch zusätzliche Techniken.



Anwendungsgebiete[Bearbeiten]

3D Computeranimation werden längst nicht mehr nur in der Filmindustrie eingesetzt, obwohl diese auch treibende Faktoren in der wissenschaftlichen Entwicklung darstellen: um die Ideen und Visionen Scriptwritern und Regisseuren zu realisieren benötigt es nicht selten neue Methoden oder gar neue Technologien bzw. eher deren Weiterentwicklung. So arbeitet Disney etwa mit zahlreichen Universitäten, hauptsächlich in den USA zusammen: CMU Pittsburgh, ETH Zürich, Pixar Research Group California, Walt Disney Animation Studio Research, Disney Interactive Studio Research).


[[Datei:3dsmax.png|AudiR8]]

Abb.1


Special-Effects, wie künstliche Explosionen, Regen oder Umgebung werden neben CGIs (für Figuren, Monster) sehr oft in Filmen verwendet; entweder sind diese nicht in der Realität möglich oder sie wären zu gefährlich für den Stuntman. Die Videospiele-Industrie verwendet Computeranimationen, die auf eine Echtzeitdarstellung ausgelegt sind, d.h. mind. 30 Bilder pro Sekunde sollten dargestellt werden. Folglich müssen andere Techniken eingesetzt werden und auf eine enorme Menge von Details muss allzu oft verzichtet werden.

Schnell und einfach können Multimedia-Geräte einem großen Publikum vorgestellt werden in einer Art und Weise, die das Produkt schöner wirken lassen können bzw. sollen.

Ingenieure und Architekten präsentieren ihre Bauvorhaben, wie etwa Maschinen und Hoch- und Tiefbauten. Wissenschaftler visualisieren ihre gewonnen Daten am Computer mit der Hilfe von 3D Animationen – diese benötigen jedoch eine äußerst exakte Berechnung und legen eher weniger Wert auf ästhetisches Aussehen.

Weitere Anwendungsgebiete sind Architektur, Archäologie (Rekonstruktion), Design, Druck- und Screendesign, Ingenieurswesen, Broadcasting & TV sowie unter Hobbyisten.

Grundlegendes zur Erstellung[Bearbeiten]

3D ist die verbreitete Abkürzung für dreidimensional und ein Synonym für räumliche Körper. Computeranimation bezeichnet die computergestützte Erzeugung von Animation. Wichtig ist dabei zu bedenken, dass die Wissenschaftsdisziplin der 3D Computeranimation weit mehr als nur Computergrafik bedeutet, als sie vielleicht auf den ersten Blick erscheinen mag. Trotz der gestiegenen Rechenkapazitäten in den letzten Jahrzehnten erreichen bei Grafikanwendungen moderne Computer schnell ihre Grenzen – es reicht daher nicht aus, eine bestimmte Idee realisieren zu wollen: Effizienz was die Grafikberechnungen angeht, aber ebenso die möglichst leistungsfähige Verwaltung von großen Datenmengen. Eine gute Technik in der Computergrafik gibt lediglich den Anschein, ein bestimmtes Problem exakt zu berechnen, doch stützt sie sich dabei auf gewisse „Tricks“. Nicht zu vergessen die noch heute problematische Gleitkomma-Arithmetik von Computern, die sich sehr deutlich bei einer längeren Kette von Rechenoperationen bemerkbar macht und nicht selten unerwartete Ergebnisse liefert: Computer haben nach wie vor endliche Kapazitäten. Und dies bedeutet, dass Gleitkomma-Ziffern, z.B. 1/3, nicht exakt numerisch dargestellt werden können, vielleicht auf 10 Stellen nach dem Komma. Mit jeder Operation wird die Ungenauigkeit größer, wodurch irgendwann ein total falsches Ergebnis entstehen kann.

Animation kann auf zwei Arten erstellt werden: zum einen computergestützt und zum anderen computergeneriert. Computergestützte Animation stützt sich auf digitalisierte Zeichnungen, die durch eine Animationssoftware interpoliert wird, um dadurch flüssige Bewegungsabläufe zu erhalten. Computergenerierte Animation hingegen arbeitet mit einer dreidimensionalen Szene, aus der mit den Mitteln der 3D Bildsynthese Bilder erzeugt werden. In der Filmindustrie zeigen üblicherweise 24 solche Bilder genau eine Sekunde eines Films, d.h. 1 Bild repräsentiert 1/24 einer Sekunde.

Anfänge[Bearbeiten]

1906 gilt bereits als Geburtsjahr des Zeichentrickfilms, als der US-Amerikaner J. Stuart Blackton mit „Humorous Phases of Funny Faces“ seinen ersten vollständigen animierten Film präsentierte. Um die gleiche Zeit etwa entstanden weitere animierte Kurzfilme, wie das „Spukhotel“ oder der „Magische Füllfederhalter“. Blackton stoppte nach jeder Aufnahme und veränderte das Filmobjekt. So entstand der Eindruck der bewegten Bilder. Im Film das „Spukthotel“ konnten sich durch diese Technik Messer und Gläser wie von Geisterhand be-wegen. Der erste Zeichentrickfilm in Spielfilmlänge war der argentinische Film „El Apóstol“ aus dem Jahre 1917, von dem leider sämtliche Kopien bei einem Brand 1926 zerstört wurden.

Meilensteine:

  • Erste computeranimierte Fernsehserie: Reboot (1994 – 2001, CA)
  • 3D Computeranimation in Spielfilmlänge: Toy Story (1995, Pixar Disney, USA)
  • Shrek 2: Reflexion von Licht an Materialoberflächen (2004)


Studios[Bearbeiten]

Pixar Animation Studios[Bearbeiten]

Pixar Animation Studios ist ein Unternehmen, das sich auf Computeranimation und CGI spe-zialisiert hat. Das Unternehmen befindet sich in Emeryville, Kalifornien. Der Firmenname Pixar setzt sich aus den zwei Wörtern „Pixel“ und „Art“ zusammen.

Die Ursprünge des Studios gehen auf einen 1979 gegründeten Teil des Lucasfilm Graphic Group zurück. 1984 stieß Animator John Lasseter zum Team, das bis dahin nur aus Compu-terspezialisten bestand. Bereits im selben Jahr wurde der erste Kurzfilm an der SIGGRAPH, einer Computermesse, „André and Walley B“ vorgestellt. Diese Abteilung wurde 1986 von Apple-Mitgründer Steve Jobs gekauft und in Pixar umbe-nannt. Ebenfalls 1986 wurde der erste animierte Kurzfilm „Luxo Jr.“ an der Siggraph präsen-tiert. Die animierte Schreibtischlampe ziert seither das Logo der Studios und agiert zusätzlich im Vorspann der Pixarfilme.

Das ursprüngliche Kerngeschäft von Pixar war der „Pixar Image Computer“, ein High-End-Rechner für Computerdesigns. Genutzt wurde dieser Rechner vor allem von staatlichen Insti-tutionen und in der Medizinbranche. Deswegen hatte die Abteilung rund um John Lasseter eher eine Außenseiterrolle innerhalb des Unternehmens. Durch den mäßigen Erfolg der Hardware und wegen guter Zukunftsaussichten der Computeranimation wurde das Kernge-schäft aufgelöst und aus der Animationsabteilung die Pixar Animation Studios gegründet.

  • 1989 wurde von Pixar die Rendering-Software „RenderMan“, entwickelt, die heute als Standard in der 3D Computergrafik gilt. „RenderMan“ ist für die visuellen Effekte vieler Hollywoodfilme verantwortlich, wie zum Beispiel „Star Wars“ oder „Der Herr der Ringe“.
  • 1991 schlossen Pixar und Walt Disney einen Vertrag über 26 Millionen US-Dollar ab, in dem vereinbart wurde, dass sie drei animierte Spielfilme gemeinsam produzieren.
  • 1995 kam „Toy Story“ als erster komplett im Computer entstandene Film in die Kinos. Daran arbeiteten 110 Menschen gut viereinhalb Jahre.
  • Der Vertrag wurde aber 1997 auf fünf Filme erweitert. 2001 ist es Pixar gelungen im Film „Monster AG“ das Fell der Monster überzeugend darzustellen, dass auch einer der größten Erfolge von Pixar ist.
  • Durch viele Uneinigkeiten seitens der CEO’s von Pixar und Disney sah es 2004 so aus als würden die Verträge gekündigt werden. Der Wechsel der Führungsebene bei Dis-ney veränderte die Situation aber.

Bis heute hat es Pixar geschafft, dass alle Filme an den Kinokassen sehr erfolgreich waren. Der erfolgreichste Pixarfilm bisher ist Findet Nemo. Dieser Erfolg wird gekrönt durch 12 Os-cars die sie für ihre Spiel- und Kurzfilme erhalten haben.


Was sie noch wissen sollten …[Bearbeiten]

Bei Pixar hat sich die Tradition entwickelt, dass sie in ihren Filmen Running Gags einbauen. Zum Beispiel taucht in jedem Animationsfilm von Pixar ein „Pizza Planet Truck“ auf, der ursprünglich aus Toy Story stammt. Oder Pixars „Glücksbringer“ John Ratzenberger, ein US-amerikanischer Schauspieler und Synchronsprecher, hat bisher noch immer eine kleine Ne-benrolle bekommen. Ebenfalls ein wiederkehrendes Motiv ist ein Spielball mit einem roten Stern auf gelben Untergrund.


Crytek[Bearbeiten]

Durch den herausragenden Erfolg in der Spiele-Industrie durchaus erwähnenswert. Cryteks erste game engine, die CryEngine, war zur Zeit der Publikation dessen Zeit einige Jahre voraus. Erstmals konnten mit erstaunlicher Echtheit Palmen umgeschossen werden, Reflexionen von der Meersoberfläche haben sich am Bodengrund wiedergespiegelt. Nur die neusten Com-puter konnten dieses Spiel auf sehr hoher Qualitätseinstellung flüssig spielen, wenn auch nur mit einer Auflösung von nicht mehr als 1024x768 (in der Regel). Im Q4 2010 publiziert Cry-tek dessen Nachfolger, Crysis2 mit der CryEngine3. Wenig vergleichbar mit den Vorgängerversionen, wird Regen, Wasser, Wasserfälle und Bäche, sich bewegende Bäume und vieles mehr in einer graphischen Qualität gezeigt, wie sie nur selten in Videospielen zu finden sind.

Weta Digital[Bearbeiten]

Weta Digital ist ein neuseeländisches Unternehmen, das im Bereich Computergrafik weltweit tätig ist – es wurde zur Realisierung von „The Lord of the Rings“, das selbst zum großen Teil in Neuseeland gedreht wurde, gegründet. Seitdem hilft es bei der Produktion von Holly-woods Filmen mit, zumindest was Special Effects, Animation und Computergrafik angeht. Die Resultate dieser Firma sind ausgesprochen hochqualitativ – diese Firma besteht auch heu-te noch. Dessen langjähriges Knowhow wird gerne geschätzt – es gibt durchaus ein Grund, warum gerade Weta Digital zu einem nicht unerdenklichen Teil einen Beitrag zur Realisierung von „Avatar“ (2009) geleistet hat bzw. dafür mitverwendet wurde. Im Rahmen dieser Firma ist auch die Software „MASSIVE“ entstanden, um Tausende von Individuen elegant und mit weit weniger Aufwand zu animieren.


3D Animationssoftware[Bearbeiten]

Zwar ist es wie im Fall zur Gründung des Pixar Animation Studios möglich, Bewegungsab-läufe von Objekten im dreidimensionalen Raum durch einen expliziten Programmcode zu animieren, doch um wiederkehrende Aufgaben nicht permanent neu implementieren zu müs-sen, wurde eine gewisse Abstraktion in Form von Animationsprogrammen geschaffen, die diese Aufgaben von selbst möglichst zuverlässig und genau bearbeiten. Mit zunehmender Komplexität von Animationen wird es eher schwierig, den Überblick über den Programmcode zu behalten – die Lösung dieses Problem ist, die bisherigen Arbeitsschritte graphisch zu visu-alisieren mit dem Nebeneffekt, dass auch Laien nun einfache Animationen produzieren können.

Moderne Animationsprogramme sind ein Werkzeug, ein Tool, um schließlich Animationen zu produzieren. Doch reicht es lange nicht mehr aus, lediglich zu wissen, welche Methoden und Techniken eine solche Software dem Benutzer zur Verfügung stellt – die Frage ist vielmehr wie sich ein bestimmtes Ziel möglichst einfach, effizient und komfortabel erreichen lässt. welche Software soll eingesetzt werden, um die Bewegungsabläufe eines Menschen zu ani-mieren, d.h. welche hat ihre Stärken und Schwächen, welche Techniken bietet die Software. Solche Bewegungsabläufe können per Hand definiert werden (i.d.R. sehr aufwendig und nicht mehr wirklich praktiziert), oder aus realen Bewegungen von Personen durch Motion Tra-cking für virtuelle Objekte übersetzen, um so gezielt signifikante Bewegungsabläufe zu definieren, die eine spezielle Software oder Erweiterung (Addon) organisiert. Es gibt Programme, wie etwa Massive, die für den Zweck solche Abläufe in einer höheren Ebene von Ort A zu B über Treppen, Wiesen, Brücken, Kreuzungen usw. festzulegen programmiert wurden und diese Software animiert selbstständig nach vorheriger Definition von genauen Bewegungen von Objekten (z.B. einem Fußgänger), wie sie sich auf der höheren Ebene bewegen. Im virtuellen Straßenverkehr werden längst nicht mehr alle Autos von Hand animiert; sonders es wird „lediglich“ beschrieben, wie sich ein Auto im „Straßenverkehr“ zu verhalten hat oder auch nicht, sodass es einige gibt, die einen Unfall verursachen, einige die aggressiver Fahren als andere – eine gute Animationssoftware berechnet den aktuellen Zustand der virtuellen Welt und entscheidet auf Basis dieser vom Benutzer definierten Abläufe und Eigenschaften, wie sich Objekte verhalten – eine wesentliche Arbeitserleichterung.

Nicht zu vergessen sind moderne Methoden, die dazu fähig sind, Stoffe verblüffend echt aus-sehen zu lassen; Haare und Felle beschreiben können, physikalische Gesetze in einfacher Form implementieren, Wolken und Partikel darstellen können. Schließlich lehrt die Erfahrung dem Animateur, welche Kombination aus einer Fülle von Parametern die geeignete Wahl ist.


Blender[Bearbeiten]

Das Programm Blender ist eine freie 3D Grafik-Software, mit der man modellieren, texturie-ren, animieren, beleuchten und rendern kann. Blender besitzt einen Videoschnitteditor und eine Spiel-Engine. Es kann Flüssigkeiten simulieren und ist fähig zum Composting. Trotz des hohen Funktionsumfanges ist das Programm vergleichsweise klein (etwa 22 MB) und läuft auf den meisten gebräuchlichen Rechnersystemen. Blender ist im Quellcode verfügbar und daher sehr gut individuell anpassbar. Darüber hinaus verfügt Blender über eine Portabilität, da es auch ohne vorherige Installation mithilfe eines portablen Mediums (zum Beispiel USB-Stick) funktionsfähig ist. Blender hat einen internen Renderer, ist aber auch mit externen Renderen kompatibel (zum Beispiel LuxRender, Indigo). Kritik wurde vor allem an der Be-nutzeroberfläche (GUI) geübt, da diese graphische Oberfläche vergleichsweise langsam ist, und Parameter nicht übersichtlich dargestellt werden.

Ursprünglich war Blender das firmeninterne Programm des niederländischen Animationsstu-dios NeoGeo, doch als dieses Konkurs anmelden musste, stimmten die Gläubiger zu Blender für 100.000 € unter die freie Softwarlizenz GNU General Public License zu stellen. Die erste freie Version wurde im Februar 2003 veröffentlicht. In den folgenden Jahren wurden ver-schiedene Open Movie Projekte durchgeführt. Im September 2009 startete das dritte Projekt mit dem vorläufigen Filmtitel „Sintel“.


Cinema 4D[Bearbeiten]

Die Ursprünge von Cinema 4D reichen bis ins Jahr 1989 zurück. Das Programm wurde 1993 von der Entwicklerfirma Maxxon erstmals für den Amiga produziert, bevor es 1995 auf Win-dows und Mac portiert wurde. Cinema 4D wurde in Deutschland entwickelt und seither welt-weit vermarktet. Seine Anwendung findet das Programm vor allem im Architekturbereich. Die größten Stärken von Cinema 4D liegen in der leichten Handhabung und der übersichtlichen Menüstruktur. Anpassungen an neue Technologien können stets sehr rasch durchgeführt werden, da das Programm zu 90 Prozent plattformunabhängig ist. Mit einem speziellen Zusatz kann auch der Anwender in C++ Erweiterungen für Cinema 4D hinzufügen. Cinema 4D besteht aus einem Hauptprogramm und vielen Zusatzmodulen, die den Umfang erweitern. Das Hauptmodul selbst beinhaltet modellieren, texturieren, beleuchten, Freihandzeichnen, Rauch und Feuereffekte und Rendern.


3ds Max[Bearbeiten]

3ds Max ist die Weiterentwicklung des 3D Studio Max und wird derzeit von Autodesk entwickelt. Die aktuellste Version wurde im April 2009 herausgebracht. Das Programm ist besonders beliebt bei Filmstudios sowie Computer- und Videospiel-Entwicklern, da es besonders einfach durch eigene Plugins erweiterbar ist. 3ds Max wurde unter anderem bei den Hollywoodproduktionen „The Matrix“, „Mr. & Mrs. Smith“ und „SinCity“ sowie bei den Computerspielen „Need for Speed” und „WarCraft III“ eingesetzt. Darüber hinaus wird sie auch oft von Designern verwendet, z.B. für Autos oder andere Objekte.


Maya[Bearbeiten]

Maya ist eine professionelle Software, die vor allem in der Film und Fernsehindustrie ver-wendet wird, jedoch auch in der Spiele-Industrie sehr oft eingesetzt wird. Die Entwicklerfir-ma Alias wurde mittlerweile von Autodesk übernommen. Die erste Version des Programms kam im Februar 1998 auf den Markt, die aktuellste Version erschien im April 2010 unter dem Titel „Maya 2011“. Maya überzeugt durch eine hohe visuelle Qualität und ist sehr gut indivi-duell anpassbar. Das Programm besitzt eine eigene Programmiersprache (MEL), verwendet aber mittlerweile auch das klassische Python-Script, so wurde die Interoperabilität sicherge-stellt. Erweiterungen werden in C++ geschrieben. Maya bietet intern bereits vier Render-Möglichkeiten, wird aber von allen wichtigen Renderern (RenderMan For Maya 3, Maxwell Renderer) unterstützt. Zu den bekanntesten Ergebnissen, die unter anderem mit Maya entstan-den sind, zählen: Findet Nemo, Shrek, Final Fantasy, die Schlachten von Herr der Ringe, Star Wars, und Ice Age 2. Die Serie „South Park“ wird ausschließlich mit Maya produziert.


Techniken[Bearbeiten]

Computergrafik[Bearbeiten]

Unter Computergrafik versteht man jenes Teilgebiet der Informatik, das sich mit der Erzeu-gung und Bearbeitung von Bildern am Computer beschäftigt. Die Ausgangsbasis eines digita-len Bildes ist eine Beschreibung, welche in einer beliebigen Datenstruktur (Text, Tabellen, i.d.R. Binärdaten) vorhanden sein kann. Durch die Visualisierung wird diese Beschreibung in die Grafik- und Merkmalsprimitive überführt. Anschließend erfolgt das Berechnen (Rende-ring), in diesem Schritt wird aus den Grafik- und Merkmalsprimitiven ein digitales Bild.

Kritisch beim Erlernen der Computergrafik ist nach wie vor, dass in wissenschaftlichen Pub-likationen und Lehrbücher zu diesem Thema nicht notwendigerweise eine einheitliche Se-mantik, mathematische Symbole und Definitionen verbreitet ist.


Grundlagen[Bearbeiten]

Modellierung[Bearbeiten]

Wie bereits erwähnt gibt es die primitiven Modelle: Würfel, Quader, Kugel, Kegel, Ebene und Torus. Diese sind Objekte, die je nach Anwendung und Ziel in verschiedener mathematischer Form beschrieben werden können – jede Form hat ihre Vor- und Nachteile. Die einfachste und zugleich älteste Methode ist in Form von einem mathematisch geschlossenen, einfachen Polygonenzug, wobei ein Polygon ein nicht-trianguliertes Vieleck ist und dieser Polygonenzug fertigbar zu sein hat – dies bedeutet, dass dieses virtuelle Modell in der Realität durch geeig-nete handwerkliche Methoden und Geräte eben fertigbar, formbar, erstellbar sein muss. Andernfalls wurden bei der Modellierung große Fehler gemacht; Fehler, die im späteren Ver-lauf der Arbeit leicht zu fatalen Ergebnissen führen können – Ungenauigkeiten und unerwar-tete Ergebnisse von Berechnungen, z.B. Flächeninhalt und Orientierung von Polyeder. Ge-nauer: ein Polygon ist eine planare, geschlossene polygonale Kurve (Sequenz von endlich vielen Knoten), bei der jeder Knoten zu genau 2 Segmenten bzw. Kanten gehört. Ein Polyeder ist dann ein geschlossenes Objekt in 3D, das durch planare Seitenflächen als Polygone abge-schlossen wird. Ein solches Objekt ist fertigbar. Ein Würfel wäre zum Beispiel nicht fertigbar, wenn eines der Seitenflächen fehlen würde. Klar, eine solche Beschreibung gilt ebenso für komplexe Objekte, d.h. man kann komplexe Objekte wie Gesichte prinzipiell aus Polyeder konstruieren.

Eine weitere Möglichkeit sind die weitaus komplizierteren NURBS-Oberflächen (NonUni-form Rational B-Spline). Aus NURBS-Kurven werden Freiraumflächen definiert. Diese Flä-che kann durch Kontrollpunkte weiter bearbeitet werden.

Außerdem gibt es noch Subdivision-Oberflächen – praktisch eine Kombination aus NURBS- und Polygoneigenschaften. Das Prinzip darin ist eigentlich recht einfach: ein Polyeder besitzt Knotenpunkte. Diese dienen gleichzeitig als Kontrollpunkte für eine zweite „Unteroberfläche“ zum eigentlichen Polyeder. Diese Eigenschaften macht sich der „Modelleur“ zunutze, um gut gerundete Oberflächen, etwa von organischen Objekten, zu konstruieren. Zuerst wird eine Grobstruktur erstellt, und mit anschließender Konvertierung zu einer Subdiv-Surface entsteht eine zweite Oberfläche, die das Polyeder ungefähr annähert, dafür jedoch keine Kanten besitzt. Weitere Arbeit an diesem Objekt gewährleistet wesentlich größere Details. So können üblicherweise weitere Kontrollpunkte auf einer niedrigeren, lokaleren Ebene erstellt werden, um so für mehr Details auf der Subdiv-Surface zu sorgen. Bekannter Fehler von Laien ist es, zu schnell zu stark ins Detail zu gehen.


Texturen[Bearbeiten]

Wenn man ein Objekt modelliert hat, kann man ihm anschließend eine bestimmte Textur und ein ausgewähltes Material zuweisen. Dies erfolgt mithilfe der Mapping-Techniken. Je nach Software werden unterschiedlich viele Techniken angeboten. Die Techniken können unterein-ander kombiniert und durch zusätzliche Shader und Plugins erweitert werden. Grundsätzlich existieren fünf Möglichkeiten eine Map zu erstellen:

  • analoge Bildquelle wird digitalisiert
  • Map wird in einem 2D Programm erstellt
  • Map wird in einem 3D Programm berechnet
  • Map wird direkt auf das Objekt gemalt
  • Map wird prozedural erstellt


Animation[Bearbeiten]

Das menschliche Gehirn fasst schnell hintereinander abgespielte, verwandte, unbewegte Bilder als eine kontinuierliche Bewegung auf. Animationen basieren auf diesem Prinzip des Sehvermögens. 3D Computerprogramme stellen unterschiedliche Animationstechniken zur Verfügung, diese Techniken werden üblicherweise miteinander kombiniert. In den Walt Disney Studios wurden in den 30er Jahren zwölf Animationsprinzipien entwickelt. Es handelt sich dabei um allgemeingültige, gestalterische Normen, welche die Grundlage für handgezeichnete Animationen darstellen. Diese Normen sind mit Ausnahme der Pose-to-Pose Action und des Solid Drawings auch für die Computeranimation gültig.


Lichter und Schatten – Beleuchtung und Schattierung[Bearbeiten]

Zu den wichtigsten Abschnitten in der 3D Computergrafik zählt die Beleuchtung. Ähnlich wie in den Bereichen Foto, Film und Video definiert Licht wie Objekte wahrgenommen werden. Wenn eine Fläche beleuchtet wird, hängen die Farbwerte an einzelnen Stellen maßgeblich von der Beleuchtungsintensität ab. Zusätzlich müssen die zahlreichen Eigenschaften der Oberfläche, wie Polygonfarbe, Glanzeigenschaften und Umgebungseffekte berücksichtigt werden. Konkret versteht man unter Lighting die Berechnung der Helligkeit und Farbe von einzelnen Pixeln und unter Shading die visuelle Glättung von Geometrien. Heute übernehmen Shader oft Teilaufgaben des Renderns. Bei der Beleuchtung und Schattierung von 3D Objekten wird sowohl in technischer als auch in gestalterischer Hinsicht eine Einteilung in folgende Kategorien getroffen:

  • Fotorealistische Computergrafik: berücksichtigt direkte und indirekte Beleuchtung und zeichnet sich durch eine möglichst genaue Einhaltung physikalischer Gesetze und die realistische Nachbildung verschiedenster Effekte aus.
  • Echtzeitfähige Computergrafik: ist interaktionsfähig, hat aber dadurch eine niedrigere Qualität.
  • Nicht-fotorealistische Computergrafik: durch Techniken mit Spezialeffekten (Cartoon-Shading) oder nicht fotorealistischen Shadern können Bilder berechnet werden, die ei-ner Handzeichnung oder Skizze ähneln.

Die Kategorien können nicht exakt voneinander getrennt werden.

Das Rendern – Rendering[Bearbeiten]

Beim Rendern werden u.a. die Oberflächenstruktur, die Schattenbildung, die Materialbeschaf-fenheit, Farbverläufe, Transparenzen, Spiegelungen, Lichtquellen, der Hintergrund und die verschiedenen Bewegungsabläufe berücksichtigt. Je mehr Details das Objekt enthält und je nach Art des Renderns erhöht sich die Rechenzeit. Es gibt zahlreiche Verfahren zum Rende-ring (Gouraud, Raytracing, Radiosity, Scanline), die sich hinsichtlich ihrer Qualität und Einsatzmöglichkeiten unterscheiden.

Raytracing (Strahlenverfolgung) steht dabei für eine besonders hohe Qualität der Licht und Schattensimulation. Es wird die Berechnung des Reflektionsverhaltens von ideal reflektieren-den Oberflächen ermöglicht. Komplexe Varianten berücksichtigen auch das Auftreffen von indirektem Licht auf ein Objekt. Allerdings ist es dabei – im Gegensatz zu Radiosity – vom Blickpunkt des Betrachters abhängig. Hinzu kommt, dass der Rechenaufwand von Raytracing im Vergleich zu anderen Renderern, wie etwa Maya Software oder gar RanderMan, exorbi-tant hoch ist. Zudem liefert Raytracing gegenüber RenderMan eine wesentlich schlechtere Qualität.


Erweiterte Methoden[Bearbeiten]

CGIs[Bearbeiten]

Mittels 3D Bildsynthese beziehungsweise 3D Computergrafik werden vor allem Bilder für Filmproduktionen als Spezialeffekte erzeugt, dies nennt man Computer-Generated Imagery kurz CGI. Dieses CGI wird nur in der Filmkunst eingesetzt und hat nichts mit Computerani-mationen zu tun, zum Beispiel in Computerspielen.

1977 war CGI vor allem eine Sache der Universitäten und Forschungslabore - diese Compu-teranimationsfilme sind nur selten zu Festivals gelangt. Jedoch sind im selben Jahr bereits CGI-Effekte im Film „Star Wars“ aufgetaucht, im Film ist bereits eine 40 Sekunden lange computererzeugte Animation zu sehen.

1982 wurde für den Film „Tron“ ein Teil der Szenerie computergeneriert. Sämtliche Fahrzeu-ge, sowie einige Charaktere entstanden bereits als 3D Vektorgrafik im Rechner. Ebenfalls haben die Schauspieler fast ausschließlich vor schwarzen und grauen Hintergründen agiert. Das Filmmaterial wurde hinterher per Hand eingefärbt. 1993 wurden für „Jurassic Park“ zum ersten Mal anatomisch beinahe korrekt und lebendig wirkende Dinosaurier erschaffen und realistisch animiert.

1995 kam mit „Toy Story“ von Pixar Animation Studios der erste, komplett innerhalb eines Computers entstandene Film in die Kinos.

Große Filmproduktionen, wie zum Beispiel die „Herr der Ringe – Trilogie“ schaffen es bereits, dass realistische Massenaufnahmen mittels CGI erzeugt werden können. Für diesen Film wurde sogar ein eigenes Computerprogramm, „Massive“, entwickelt. Dieses Programm hauchte den Orks, Elben und Menschen künstliche Intelligenz ein. Damit wollte man errei-chen, dass die Figuren selbstständig auf Hindernisse, Geräusche beziehungsweise auf ihre Umwelt reagieren. Auch eine sehr gelungene Computeranimation in diesem Film ist Gollum, der digitale, dreidimensionale Charakter fügt sich nahezu perfekt in das Realbild ein und „schauspielert“ bereits so überzeugend, dass die Grenzen zwischen Trick- und Spielfilm bei-nahe nicht mehr wahrzunehmen sind.

Der Großteil der digitalen Nachbearbeitung bleibt jedoch fast unsichtbar für den Zuschauer. Veränderungen von Farbbestimmungen oder Wolken, die sich bewegen, können nicht erkannt werden. Die digitale Nachbearbeitung von Filmen ist bereits zum Standard geworden. Bei „Herr der Ringe“ sind beispielsweise 99 Prozent des Films digital nachbearbeitet worden.


Stochastische Vereinfachung (stochastic simplification)[Bearbeiten]

Da Computerleistung endlich ist, stehen komplexe Vorhaben schnell vor Grenzen. Um die Zeit für das Rendering zu minimieren, müssen neben besseren Methoden und Algorithmen unweigerlich Daten reduziert werden. Nun macht es einen großen Unterschied, wie diese Da-tenmengen verkleinert werden, d.h. ob am Ende sichtbar ist, dass Daten reduziert wurden.

Ein solches Verfahren ist die stochastische Vereinfachung, die sich der Wahrscheinlichkeitsrechnung bedient. Entscheidend dabei ist, dass fernere Objekte von der Kamera stärker vereinfacht werden als nähere Objekte. Wie genau diese Vereinfachung funktioniert, hängt erstens von der jeweiligen Implementierung und der Anwendung ab.

Stochastic Simplification kann auch dazu verwendet werden, Objekte entsprechend deren Bewegungsablauf mit weniger Details zu rendern, wie dies zum Beispiel bei sich schnell be-wegenden Objekten implementiert werden sollte. Zwar ist diese Methode der Vereinfachung recht zuverlässig, doch können in diesem Zusammenhang auch nahe, sich schnell bewegende Objekte stark vereinfacht werden, da auf sie das Motion Blur relativ stark angewendet wird und eventuell entstandene „Unschönheiten“ so ziemlich „weggewischt“ werden. Dies zeigt die nebenstehende Grafik von Pixar Research Library – jene Ratten, die besonders Rot dargestellt wurden, werden sehr stark vereinfacht gerendert, z.B. in Auflösung von Texturen, Haare, Schatten usw. Im Ausschnitt links daneben ist zu erkennen, das eben jene Raten stark verschwommen sind – durch das Motion Blur. Im endgültigen Film ist es wegen des menschlichen Gehirns nicht sichtbar, dass diese Ratten verschwommen sind – vielmehr würde das Publikum ein fehlendes Motion Blur als unangenehm oder störend empfinden.


Motion Tracking[Bearbeiten]

Motion Capture, oder eben Motion Tracking, ist ein Verfahren in der Angewandten Compu-terwissenschaft, die es möglich macht, farblich markante Punkte in einem Stream von Bildern (im Folgenden input stream, oder istream genannt) linear zu verfolgen. Ein Gartenzaun hat beispielsweise deutliche Ecken und Kanten. In Frame 1 werden spezielle „Punkte“ gesetzt – und sobald sich das Referenzmuster um diesen Punkt im 1. Frame weiterbewegt, wird ein solcher „Punkt“ gleichermaßen verschoben, sodass dieser stets auf das gleiche Referenzmuster zeigt. Ein solcher Punkt ist in der Praxis gar kein Punkt, sondern ein kleines Rechteck, um das wiederum ein kleines Rechteck gelegt ist. Die Anforderung ist, dass das Referenzmuster im inneren Rechteck zum Frame 1 zu einem beliebigen Zeitpunkt mindestens im äußeren Rechteck zu liegen hat, um den Erfolg des Tracking sicherzustellen.

Zusätzlich wird bewertet, wie gut dieses Referenzmuster verfolgt werden konnte, indem dessen Position und Ähnlichkeit zu einem beliebigen anderen Frame berechnet wird. Wichtig ist dabei der lineare Charakter dieses Verfahrens, dass bei der Berechnung von Frame 35 beispielsweise nicht die Berechnungen von den vorhergehenden 33 Frames (Frame 1 wurde bereits berechnet) ausgelassen werden kann – jedes Frame wird der Reihe nach in aufsteigender Sortierung bearbeitet. Doch um tatsächlich eine reale Szene in eine virtuelle Welt umzuwandeln, benötigt es mehr Aufwand: so muss definiert werden, um welche Art von Kamera es sich handelt (statisch, motiviert oder lebendig), außerdem die Brennweite der Kamera, da diese die Größenrelationen beeinflusst. Da dies häufig genauso wenig ausreicht, wird in der Praxis oft ein fixer Punkt bzgl. der virtuellen Welt im istream definiert und anschließend verfolgt. Wenn Punkte in der realen Welt einen konstanten Abstand haben, so ist es hilfreich, dies ebenso für die Tracking Points zu tun: Punkte auf einem Zaun werden sich wohl kaum voneinander wegbewegen, außer es handelt sich um ein Tor handelt. Eine gute Tracking Software summiert die Qualität jedes einzelnen Trackings über einen gegebenen Zeitraum auf und visualisiert diese in einem Qualitäts-Zeit-Diagramm: je höher die Balken, desto besser wurde gearbeitet. Der Einfachheit wegen werden diese Balken grün, orange oder rot dargestellt – bereits bei orangen Balken sollten die Tracking Points manuell überprüft werden. Der Grund, warum an manchen Stellen plötzlich die Balken rot sind, liegt daran, dass andere reale Objekte einen Teil des Bereichs im istream nun neu verdecken, und der Tracker kein Referenzmuster im äußeren Rechteck finden kann und deshalb das Tracking für diesen Punkt abbricht. Zum Beispiel kann ein Lieferwagen an einem Zaun vorbeifahren, wodurch der Tracker seine Arbeit beenden muss – selbst nachdem dieser Lieferwagen vorbei gefahren ist, kann der Tracker nicht wieder seine ursprüngliche Arbeit aufnehmen, wodurch erneute Tracking Points ab einem anderen Frame erstellt werden müssen.

Synchron zum Ablauf des istreams werden die entsprechendes Tracking Points in einer Szene visualisiert, um den Erfolg der bisherigen Arbeiten durchgehend überprüfen zu können. Schließlich unterstützen gute Tracking Software, die erfolgreichen Tracking Points für gängige Animationssoftware zu exportieren, um sie mit anderen Objekten zu verbinden.

Layers[Bearbeiten]

Dieses Prinzip des Motion Tracking kommt unweigerlich bei der Verwendung von Layers zum Einsatz – sofern virtuelle Objekte in Real Footage integriert werden sollen. Layers sind Schichten von Ansichten auf eine gegebene Szene – so kann bestimmt werden, welche Objek-te sich in welcher Szene befinden, ob die Objekte in einem Layer Schatten werfen und/oder bekommen dürfen, ob sie für den Renderer sichtbar sind usw. Sie sind aus der Notwendigkeit heraus entstanden, komplexe Szenen weiter zu organisieren, um den Überblick zu behandel-ten. Ein weiterer Grund liegt darin, dass in großen Produktionen sich nicht selten Objekte von ihrem Aussehen her schnell noch verändern können, obwohl sie bereits gerendert wurden. In einem solchen Fall muss nicht die gesamte komplexe Szene, die womöglich 6 oder mehr Stunden zum Rendern benötigen würde, gerendert werden, sondern eben nur jene Layer, in denen sich dieses veränderte Objekt befindet. In einem Postprozess werden die verschiedenen Layer übereinander gesetzt.

Wenn sich ein virtuell erstelltes, gerendertes und schließlich auf ein Real Footage gesetztes Objekt bewegt, bedeutet dies, dass sich dieses Objekt auf einem eigenen Layer bewegt. Das Real Footage kann hierbei ebenso als ein Layer aufgefasst werden. Gekonnte Umsetzung die-ser Techniken macht es für das Publikum nach Möglichkeit fast unmöglich, die verschiedenen Layers nachvollziehen zu können.

Außer in der 3D Animation werden Layers auch in der Postproduktion von echtem Filmmaterial eingesetzt.

Anforderungen an eine Rendering Software

  • Arbeitsspeicher-Effizienz und sparsamer Umgang mit dieser
  • Hohe Leistungsfähigkeit: fähig, auch Datenmengen in mehreren GiB effizient bearbei-ten zu können. Die setzt spezielle Algorithmen zur Datenverwaltung voraus. Einfache Methoden reichen hier nicht aus.
  • Mehrere Ausgänge: Gut für gleichzeitige Kontrolle. Es beschleunigt zudem sehr den Arbeitsprozess. Hilfreich beim Rendern von mehreren Layern.
  • extensive Kamera Kontrollmöglichkeiten: nicht nur Brennweite und Focus, sondern auch Aufnahmegeschwindigkeit, Bokeh, Tiefenschärfe.
  • Stereoskopisches Rendering: Anaglyphen oder lediglich das Rendern von zwei glei-chen Kameras mit einem konstanten Abstand voneinander. Dies erhöht die Datenmen-gen erheblich und stellt eine große Belastung an System (also Computer oder Render-Farm) und Render-Software dar, diese noch größeren Datenmengen ohne Verlust und Absturz zuverlässig zu bearbeiten – und dies für einen sehr langen Zeitraum ohne sig-nifikanter Unterbrechung (Wochen, Monate).


Bibliografie[Bearbeiten]

Carsten, W. (2007). Das Blender-Buch: 3D-Grafik und Animation mit freier Software. 3. überarbeitete und erweiterte Auflage. Heidelberg: dPunkt.

Keywan, M. (2008). Maya 2008. 3D-Graphik und 3D-animation. 1. Auflage. Heidelberg: Redline.

Nischwitz, A., & et, a. (2007). Computergrafik und Bildverarbeitung. 2. verbesserte und erweiterte Auflage. Wiesbaden: Vieweg und Sohn Verlag.


Weblinks[Bearbeiten]

http://computergrafik.informatiker-wissen.de/index.html (20.05.2010)

http://computergrafik.informatiker-wissen.de/raytracing.html (20.05.2010)

http://fmsg.bildung-rp.de/infoschul/infoschul/html/computergrafik_im_film.html (17.05.2010)

https://renderman.pixar.com/products/whats_renderman/5.html (06. 06 2010)

http://graphics.pixar.com/research/ (06. 06 2010)

http://www.blender.org (08.05.2010)

http://www.dma.ufg.ac.at/app/link/Grundlagen:3D-Grafik (08.05.2010)

http://www.grundstudium.info/animation/animation.php (17.05.2010)

http://www.itwissen.info/definition/lexikon/3D-Grafik-3D-graphics.html (08.05.2010)

http://www.maxon.net/de/customer-stories.html (14.05.2010)

http://www.pixar.com/companyinfo/history/index.html (17.05.2010)

http://www.rdkleinxtra.de/3D_Animations/3d_animations.html (20.05.2010)

http://www.uni-protokolle.de/Lexikon/Computeranimation.html (17.05.2010)

Abb.1

http://sommergemuese.klee.in/wp-content/uploads/2009/10/aaudii.png


--ChristinaSt

a.p

b.s