3D-Rendering

3D-Rendering der 3D-Computergrafik Prozess der automatischen Umwandlung 3D-Drahtmodelle in 2D-Bilder mit fotorealistischen 3D-Effekte oder nicht-fotorealistisches Rendering auf einem Computer.

Rendering Methoden
Rendering ist der letzte Prozess der Erstellung der aktuellen 2D-Bild oder eine Animation aus dem vorbereiteten Szene. Dies kann zu der Aufnahme eines Fotos oder Filmen der Szene, nachdem das Setup in der Realität fertig zu vergleichen. Mehrere verschiedene, oft spezialisierte Rendering Verfahren entwickelt worden. Diese reichen von der eindeutig nichtrealistische Rendering-Drahtmodell durch Polygon-basierte Rendering, zu fortgeschrittenen Techniken wie zum Beispiel: Scanline Rendering, Raytracing oder Radiosity. Rendering können von Bruchteilen einer Sekunde zu Tage für ein einzelnes Bild / Bild aufzunehmen. Generell sind verschiedene Verfahren für beide fotorealistische Darstellung oder Echtzeit-Rendering besser geeignet.

Real-time
Rendern für interaktive Medien, wie Spiele und Simulationen wird berechnet und in Echtzeit angezeigt werden, mit Geschwindigkeiten von etwa 20 bis 120 Bildern pro Sekunde. In Echtzeit-Rendering, das Ziel ist, so viele Informationen wie möglich zu zeigen, das Auge in einem Bruchteil einer Sekunde (auch bekannt als in einem Bild zu verarbeiten. Im Fall von 30 Bildern pro Sekunde Animation ein Gestell umfasst einen 30. eine zweite). Das primäre Ziel ist es, einen möglichst hohen Grad an Fotorealismus auf ein akzeptables Minimum Rendering-Geschwindigkeit zu erreichen (in der Regel 24 Bildern pro Sekunde, denn das ist das Minimum das menschliche Auge braucht, um zu sehen, um die Illusion von Bewegung erfolgreich zu erstellen). In der Tat kann Ausbeutung in den Weg des Auges wahrnimmt ‚die Welt angewendet werden, und als Ergebnis das fertige Bild präsentiert wird, ist nicht unbedingt, dass der realen Welt, aber man nahe genug, für das menschliche Auge zu tolerieren. Rendering-Software können solche visuelle Effekte wie Lens Flares, Schärfentiefe oder Bewegungsunschärfe zu simulieren. Dies sind Versuche, visuelle Phänomene aus den optischen Eigenschaften der Kameras und des menschlichen Auges resultierenden simulieren. Diese Effekte können ein Element der Realismus zu einer Szene zu verleihen, auch wenn der Effekt ist nur eine simulierte Artefakt einer Kamera. Dies ist die in Spiele, interaktive Welten und VRML beschäftigt grundlegende Methode. Die rasche Zunahme der Rechenleistung hat einen immer höheren Grad an Realismus erlaubt auch für Echtzeit-Rendering, einschließlich Techniken wie HDR-Rendering. Echtzeit-Rendering ist oft polygonal und GPU des Computers unterstützt.

Nicht-Echtzeit
Animationen für nicht-interaktive Medien, wie Kinospielfilme und Video, sind viel langsamer gemacht. Nicht-Echtzeit-Rendering ermöglicht die Bündelung der begrenzten Rechenleistung, um eine höhere Bildqualität zu erzielen. Aufbauzeiten für die einzelnen Rahmen können von einigen Sekunden bis zu mehreren Tagen bei komplexen Szenen. Gerenderten Bilder werden auf einer Festplatte kann dann auf andere Medien wie Laufbildfilm oder eine optische Disk übertragen werden, gespeichert. Diese Rahmen werden dann sequentiell angezeigt mit hoher Bildrate, die typischerweise 24, 25 oder 30 Bildern pro Sekunde, um die Illusion einer Bewegung zu erreichen.

Wenn das Ziel ist es, Fotorealismus, Verfahren wie Raytracing oder Radiosity beschäftigt. Dies ist die in den digitalen Medien und Kunst beschäftigt grundlegende Methode. Techniken zum Zweck der Simulation andere natürlich vorkommende Effekte wie der Wechselwirkung von Licht mit verschiedenen Formen von Materie entwickelt. Beispiele für solche Techniken umfassen Partikel-Systeme (die regen, Rauch oder Feuer simulieren kann), volumetrische Abtastung (Nebel, Staub und andere räumliche atmosphärische Effekte zu simulieren), Laugen (auf Licht zu simulieren, die sich durch ungleichmäßige lichtbrechenden Oberflächen, wie die Licht Wellen auf dem Boden eines Schwimmbeckens gesehen) und Subsurface Scattering (auf Licht reflektierenden in den Bänden von festen Objekten wie menschliche Haut) zu simulieren.

Die Rendering-Prozess ist rechenintensiv, da die komplexe Vielfalt physikalischer Prozesse simuliert. Rechenleistung hat sich in den letzten Jahren zugenommen, was eine schrittweise höhere realistische Darstellung. Filmstudios, die computergenerierten Animationen erzeugen typischerweise nutzen eine Renderfarm, Bilder in einer fristgerechten Weise zu generieren. , Fallen Hardware-Kosten bedeuten jedoch, dass es durchaus möglich ist, kleine Mengen an 3D-Animation auf einem Heim-Computer-System zu erstellen. Der Ausgang der Wiedergabevorrichtung wird oft als nur ein kleiner Teil einer fertigen Laufbildszene verwendet. Viele Materialschichten können separat gemacht und in den letzten Schuss mit Compositing-Software integriert werden.

Reflexion und Schatten Modelle
Modelle der Reflexions / Streuungs und Schattierungen verwendet werden, um das Erscheinungsbild einer Oberfläche zu beschreiben. Obwohl diese Probleme können wie Probleme alle auf ihre eigene scheinen, werden sie fast ausschließlich im Rahmen der Erbringung untersucht. Moderne 3D-Computergrafik verlassen sich stark auf eine vereinfachte Reflexionsmodell genannt Phong-Beleuchtungsmodell (nicht mit Phong-Shading zu verwechseln). In der Lichtbrechung, ist ein wichtiges Konzept der Brechungsindex. In den meisten 3D-Programmierung Implementierungen der Begriff für diesen Wert ist „Brechungsindex“, meist abgekürzt „IOR“. Shading kann in zwei orthogonalen Fragen, die oft unabhängig voneinander studiert werden zusammen:

Reflection / Streuung – Wie Licht in Wechselwirkung mit der Oberfläche zu einem bestimmten Zeitpunkt
Shading – wie Materialeigenschaften unterscheiden sich von der Oberfläche

Reflection
Reflexion oder Streuung ist die Beziehung zwischen dem eingehenden und ausgehenden Beleuchtung an einem gegebenen Punkt. Beschreibungen von Streuung in der Regel in Bezug auf eine bidirektionale Streuverteilungsfunktion oder BSDF gegeben. Beliebte reflexion Techniken in 3D-Computergrafik sind:

Flach Shading: Eine Technik, die jedes Polygon von einem Objekt auf der Grundlage des Polygons „normal“ und der Position und der Intensität einer Lichtquelle abschattet.
Gouraud-Schattierung: H. Gouraud 1971 erfunden, ein schneller und ressourcenschon Vertex Shading-Technik verwendet werden, um sanft schattierten Oberflächen simulieren.
Texture-Mapping: Eine Technik zur Simulation einer großen Menge von Oberflächendetails durch Kartierung Bilder (Texturen) an Polygonen.
Phong-Shading: von Bui Tuong Phong erfunden, verwendet werden, um Glanzlichter simulieren und glatt schattigen Flächen.
Bump Mapping: Jim Blinn, eine normale Störung-Technik verwendet, um faltige Oberflächen simulieren erfunden.
Cel Shading: Eine Technik, die verwendet werden, um das Aussehen der handgezeichneten Animationen zu imitieren.

Shading
Shading-Adressen, wie verschiedene Arten von Streuung über die Oberfläche verteilt (dh, die Streufunktion gilt, wenn). Beschreibungen dieser Art werden in der Regel mit einem Programm namens ein Shader ausgedrückt. (Beachten Sie, dass es einige Verwirrung, da das Wort „Shader“ ist manchmal für die Programme, die lokale geometrische Variation zu beschreiben.) Ein einfaches Beispiel ist Shading Textur-Mapping, die ein Bild verwendet, um die diffuse Farbe an jedem Punkt auf der Oberfläche festzulegen, die ihm deutlicher Detail.

Transport
Transport beschreibt Ausleuchtung in einer Szene wird von einem Ort zu einem anderen. Die Sicht ist ein wesentlicher Bestandteil der Lichttransport.

Projection
Die schattierten dreidimensionalen Objekten müssen abgeflacht, so dass die Anzeigeeinrichtung werden – nämlich ein Monitor – kann es nur in zwei Dimensionen angezeigt werden, wird dieser Prozess namens 3D-Projektion. Dies wird unter Verwendung von Projektions getan und für die meisten Anwendungen, perspektivische Projektion. Der Grundgedanke der perspektivischen Projektion ist, dass Objekte, die weiter weg sind, kleiner im Verhältnis zu denen, die näher an das Auge gemacht. Programme erzeugen perspektivische durch Multiplizieren einer Dilatation konstant die Kraft des Negativen der Abstand von dem Betrachter erhöht. Dilatationsvorrichtung Konstante von eins bedeutet, dass es keine Perspektive. Hoch Dilatation Konstanten können ein „Fischauge“ Effekt, bei dem die Bildverzerrung aufzutreten beginnt verursachen. Orthographische Projektion wird hauptsächlich in CAD oder CAM-Anwendungen, bei denen wissenschaftliche Modellierung erfordert präzise Messungen und die Erhaltung der dritten Dimension verwendet.