Digitale bildgebende Verfahren: Wiedergabe

Aus Wikibooks


Dieses Kapitel beschäftigt sich mit verschiedenen Möglichkeiten, zweidimensionale Bildinformation aufzubereiten und wiederzugeben.

Da digitale Rasterbilder in Form von Datenworten vorliegen, sind diese – anders als reelle Bilder – nicht unmittelbar der Betrachtung zugänglich. Daher ist es auch nicht eindeutig möglich, digitalen Bildern eine Bildgröße oder subjektiv empfundene Eigenschaften wie Farbe zuzuordnen. Vielmehr werden diese Bildeigenschaften erst bei der Wiedergabe erzeugt. Somit haben die Verfahren und Geräte, die zur Bildwiedergabe eingesetzt werden, einen entscheidenden Einfluss auf die Darstellung der Bilder und vor allem auf die subjektiv empfundene beziehungsweise auch auf die objektiv ermittelbare Bildqualität.

Eine Wiedergabe kann prinzipiell mit leuchtenden, reflektierenden oder durchscheinenden optischen Bauelemente realisiert werden.

Punktdichte[Bearbeiten]

Der Abbildungsmaßstab ist zwar in Bezug auf das registrierende optoelektronische Bauelement real, da ja die betrachte Abbildung eine reale Abbildung ist, jedoch ist dieser Abbildungsmaßstab in der abstrakten digitalen Darstellung der Daten nicht mehr relevant, solange den einzelnen Bildpunkten nicht eine absolute Größe zugeordnet werden kann. Diese Bildpunkte – auch als Pixel bezeichnet (englisches Kunstwort aus den beiden Begriffen picture element zusammengesetzt) – haben im Wiedergabemedium oder auf einem Bildsensor einen bestimmten horizontalen oder vertikalen Abstand, der auch als Pixelpitch (vom englischen Begriff "pitch" in der Bedeutung von "Teilung") bezeichnet wird und oftin Mikrometern (µm) angegeben wird. Abgesehen von der Tatsache, dass die Oberfläche eines Bildsensors nicht notwendiger Weise vollständig zur Lichtdetektion zur Verfügung steht, da zwischen den Bildpunkten meist optisch inaktive Zonen vorhanden sind, oder dass ein wiedergegebenes Bild mit einem dunklen Gitter zwischen den leuchtenden Bildpunkten überzogen ist ("Fliegengittereffekt"), kann der Abstand der Pixel für Betrachtungen, die das gesamte digitale Bild betreffen auch als Punktgröße betrachtet werden.

Wenn der Bildpunktabstand den digitalen Bildern eindeutig zugeordnet werden kann, zum Beispiel in den Metadaten einer Bilddatei, kann die Größe des realen Bildes rückwirkend eindeutig ermittelt werden. Wenn ferner der Abbildungsmaßstab der optischen Abbildung bekannt ist, kann damit sogar auf die tatsächliche Größe der im Bild dargestellten Objekte zurückgeschlossen werden. Ansonsten muss je nach Anforderung eine bestimmte Punktdichte festgelegt oder bestimmt werden, mit der die digitalen Bildpunkte wiedergegeben werden sollen.

Diese Punktdichte hat die Basismaßeinheit 1/m wird jedoch häufig in der Maßeinheit dpi (englisch für dots per inch = Punkte pro Zoll) angegeben. Je nach Anwendung kann es aber auch sinnvoll sein, die Maßeinheiten ppi (englisch für pixels per inch = Bildpunkte pro Zoll) oder lpi (englisch für lines per inch = Linien pro Zoll) zu verwenden. Hierbei sind zwei Unterscheidungen wichtig:

  • Bei einem Bildpunkt (Pixel) handelt es sich oft um einen farbigen Bildpunkt, der aus mehreren einfarbigen Punkten (dots) zusammengesetzt ist, die nicht notwendigerweise örtlich übereinanderliegen müssen, sondern auch nebeneinander liegen können.
  • Ein Linienpaar setzt sich aus zwei Linien zusammen, so dass zum Beispiel sorgfältig zwischen den Maßeinheiten "Linien pro Millimeter" und "Linienpaare pro Millimeter" unterschieden werden muss.

Die Punktdichte ergibt sich rechnerisch als Kehrwert der angegebenen Punktgröße :

Für den Fall der Verwendung von Zoll als Bezugslängenmaß für die Punktdichte und Millimetern als Bezugslängenmaß für die Punktgröße gilt:

mit der Konstante .
Punktgrößen und Punktabstände in horizontaler und vertikaler Richtung

Punktabstand[Bearbeiten]

Bei vorgegebener Punktdichte ergibt sich die Punktgröße respektive der Punktabstand zu:

Die Länge der Strecke von unmittelbar nebeneinanderliegenden Punkten ergibt sich dann mit Hilfe der Punktgröße aus der Anzahl der Bildpunkte :

Oft wird beim Desktop-Publishing (DTP) als Längenangabe die Maßeinheit "Punkte" oder genauer "DTP-Punkte" verwendet, die sich auf eine Punktgröße bei einer Punktdichte von beziehungsweise metrisch ausgedrückt bezieht:

Bei der gedruckten Wiedergabe von digitalen Bildern mit einer typischen Punktdichte beziehungsweise metrisch ausgedrückt ergeben sich zum Beispiel die folgenden Zusammenhänge:

Beziehungen zwischen
Desktop-Publishing-Punkten, Längen und Pixeln
bei einer Punktdichte von
Anzahl Pixel
Länge in mm
DTP-Punkte in pt
1 0,085
2 0,17
3 0,25
4 0,34
8 0,68 1,9
15 1,3 3,6
31 2,6 7,4
63 5,3 15
125 10,6 30
250 21,2 60
500 42,3 120
1000 84,7 240

Da die Punktgröße oder der Abstand der Punkte bei rechteckigen Bildpunkten in vertikaler und horizontaler Richtung verschieden sein kann, muss diese Betrachtung gegebenenfalls für diese beiden Richtungen getrennt durchgeführt werden. Die Bildgröße in den senkrecht stehenden Längen (Bildbreite) und (Bildhöhe) ergibt sich mit Hilfe dieser Umrechnung aus der Anzahl der Bildpunkte in der Bildbreite und in der Bildhöhe und der entsprechenden Punktgröße in horizontaler Richtung beziehungsweise in vertikaler Richtung :

Bilddiagonale[Bearbeiten]

Die Überlegung über die Punkthöhe und die Punktbreite kann ohne weiteres auch auf die Bilddiagonale übertragen werden:

Bei quadratischen Bildpunkten () vereinfacht sich diese Beziehung mit der virtuellen Anzahl der Bildpunkte auf der Diagonalen zu:

Die Diagonale eines Bildes hängt also nur von der Punktdichte der Reproduktion und der Anzahl der Bildpunkte ab. Bei einem bestimmten Betrachtungsabstand gilt dies dann auch für den Bildwinkel respektive den Betrachtungswinkel. Der Bildwinkel ergibt sich beim Betrachtungsabstand dann zu:

Betrachtungsabstand[Bearbeiten]

Gleicher Betrachtungswinkel α bei verschiedenen Betrachtungsabständen b und Bilddiagonalen d

Wird der Betrachtungswinkel festgelegt, ergibt sich der entsprechende Betrachtungsabstand aus der entsprechenden Bilddiagonale zu:

Beim Betrachtungswinkel bei Normalbrennweite von ergibt sich der normale Betrachtungsabstand aus den übrigen Konstanten zu:

mit

Siehe hierzu auch Normalbrennweite.

Die beiden menschlichen Augen haben im Gesichtsfeld in horizontaler Richtung mehr als einen gestreckten Winkel, in vertikaler Richtung ist es etwas weniger. Das Sehzentrum wird durch die Größe der Fovea centralis in der Mitte der Netzhaut bestimmt und deckt einen Bildwinkel von nur zirka 5° ab. Je größer der Bildwinkel wird, desto mehr bezieht ein Mensch sein peripheres Gesichtsfeld ein, wobei das Auflösungsvermögen mit zunehmenden Bildwinkel am Bildrand immer mehr abnimmt. Diese Bildbereiche dienen dem Menschen nicht zur Analyse von statischen Bilddetails, sondern lediglich dazu, dynamische Vorgänge zu erkennen. Der Bildbereich, bei dem der Mensch statische Bildinformation gut erfassen kann, entspricht in etwa dem normalen Bildwinkel.

Betrachtet man ein Bild mit der Diagonale aus dem Abstand , der etwas (16 Prozent) mehr als die Bilddiagonale beträgt, sieht man die Bildecken unter dem normalen Bildwinkel von 46,8°. Diese Bildweite entspricht der Normalbrennweite , die erforderlich ist, um ein Bild mit normalen Bildwinkel aus dem Unendlichen zu projizieren, da für den Grenzwert der Objektweite (synonym für "Gegenstandsweite") gegen unendlich für die normale Bildweite gilt:

Die folgende Tabelle zeigt die sich entsprechenden Bilddiagonalen und Betrachtungsabstände unter Normalwinkel in beliebigen Längeneinheiten:

Bilddiagonale Betrachtungsabstand
bei Normalwinkel
0,2 0,25
0,4 0,5
0,9 1
1,7 2
3,5 4
6,9 8
14 16
28 32

Optimale Anzahl der Bildpunkte[Bearbeiten]

Zum konstanten Verhältnis zwischen den Punktabständen und den Betrachtungsabständen bei gleichem Betrachtungswinkel :

Der Betrachtungsabstand sollte so gewählt werden, dass das gesamte zu betrachtende Bild maximal unter dem normalen Bildwinkel erscheint und alle einzelnen Punkte der Reproduktion vom menschlichen Auge noch aufgelöst werden können.

Für sehr kleine Winkel kann der Tangens des Winkels im Bogenmaß mit dem Winkel gleichgesetzt werden, und die Beziehung zwischen Bildwinkel und Betrachtungsabstand vereinfacht sich bei einem einzelnen Bildpunkt zu:

Das menschliche Auge hat unter guten Voraussetzungen eine Winkelauflösung von einer Bogenminute, was einem Winkel von entspricht. Daraus ergbt sich:

Für Reproduktionen von digitalen Bildern bei normalem Bildwinkel mit verschiedenen Punktdichten ergeben sich damit die folgenden (maximalen) Betrachtungsabstände und die dazugehörigen (minimalen) Bilddiagonalen. Wird der Betrachtungsabstand größer gewählt, können die einzelnen Bildpunkte nicht mehr unterschieden werden, wird der Betrachtungsabstand kleiner gewählt, kann das Bild nicht mehr unter dem Normalwinkel gesehen werden, und es ist nicht mehr möglich, das gesamte Bild vollständig auf einen Blick zu erfassen:

Punktdichte
in dpi
Punktdichte
in 1/mm
Punktabstand
in mm
Maximaler
Betrachtungsabstand
in m
Minimale
Bilddiagonale
in m
9 0,35 2,8 9,7 8,4
18 0,7 1,4 4,9 4,2
36 1,4 0,71 2,4 2,1
75 3 0,34 1,2 1,0
150 6 0,17 0,58 0,5
300 12 0,085 0,29 0,25
600 24 0,042 0,15 0,13
1200 47 0,021 0,07 0,06

Setzt man den sich aufgrund der höchsten Winkelauflösung ergebenden maximalen Betrachtungsabstand mit dem Betrachtungsabstand beim Normalwinkel gleich, folgt:

Aufgelöst nach der effektiven Zahl der Punkte auf der Bilddiagonalen:

Setzt man den Grenzwinkel hierbei auf den kleinsten auflösbaren Bildwinkel, ergibt sich die maximale Zahl von unterscheidbaren Bildpunkten entlang der Bilddiagonalen:

Wird ein Bild mit ungefähr dreitausend Punkten auf der Bilddiagonalen unter normalem Winkel betrachtet, kann das menschliche Auge alle Punkte in der Helligkeit unterscheiden und kann somit also noch Kontrastunterschiede mit einer maximalen Ortsfrequenz von 1500 Linienpaaren auf der Bilddiagonalen wahrnehmen (vergleiche auch Zerstreuungskreisdurchmesser im Abschnitt Schärfentiefe). Dieser Wert ist weder von der Punktdichte noch vom Betrachtungsabstand abhängig und führt je nach Bildseitenverhältnis zu einer Gesamtzahl von rund vier Millionen Bildpunkten:

Bildseiten-
verhältnis
q
Optimale
Bildbreite
in Pixel
Optimale
Bildhöhe
in Pixel
Optimale
Anzahl Bildpunkte
in Megapixel
1/1 2121 2121 4,5
4/3 2386 1790 4,3
3/2 2482 1655 4,2
16/9 2600 1462 3,8
Testtafel mit verschiedenen Zeilenauflösungen, die durch entsprechend dicke schwarzweiße Linienpaare dargestellt werden.

Untersucht man den Zusammenhang zwischen der Kontrastempfindlichkeitsfunktion und den vorhandenen Bildpunkten in Abhängigkeit von der Ortsfrequenz am Beispiel eines Breitbildes mit dem Bildseitenverhältnis 16 zu 9 (der normale vertikale Bildwinkel beträgt hierbei 24°), ergibt sich, dass das im Bildmaterial vorhandene Informationspotenzial ab einer Ortsfrequenz von 540 Linienpaaren pro Bildhöhe (dies entspricht einer Bildauflösung von 1080 Zeilen) von einem Menschen in normalem Betrachtungsabstand zunehmend weniger ausgeschöpft werden kann.

Der Deckungsgrad der Leistungsfähigkeit des menschliches Auges wird mit zunehmender Bildauflösung zunächst deutlich besser. Bei 540 Linienpaaren pro Bildhöhe wird dieser allerdings schon zu fast 80% erreicht und wächst mit weiter zunehmender Ortsfrequenz kaum noch an. Dies bedeutet, dass nur noch sehr wenige zusätzliche Details in noch höher aufgelösten Bildern erkannt werden können. Insgesamt ist das Missverhältnis sogar noch sehr viel stärker, wenn man nämlich berücksichtigt, wie viel der vorhandenen Bildinformation tatsächlich überhaupt ausgeschöpft werden kann. Bei einer Ortsfrequenz von 1080 Linienpaaren pro Bildhöhe (dies entspricht einer Bildauflösung von 2160 Zeilen beiziehungsweise gut 8 Megapixel) können nicht einmal mehr die Hälfte der vorhandenen Punkte unterschieden werden, weil der wahrgenommene Kontrast zu klein ist. Bei einer Ortsfrequenz von 2160 Linienpaaren pro Bildhöhe ist es dann noch nicht einmal mehr ein Viertel der Punkte.

Bezeichnung Zeilenzahl Anzahl der Bildpunkte in Millionen Linenpaare pro Bildhöhe Deckungsgrad Ausschöpfung
SD (1k) 576 0,6 288 45% 77%
HD ready (1,3K) 720 0,9 360 57% 78%
Full HD (2K) 1080 2,1 540 78% 71%
(2,5K) 1440 3,7 720 88% 60%
UHD (4K) 2160 8,3 1080 96% 44%
8K 4320 33,2 2160 100% 23%

Siehe hierzu auch: Kontrastempfindlichkeitsfunktion (CSF)

Optimaler Betrachtungsabstand[Bearbeiten]

Verschiedene diagonale Betrachtungswinkel α bei vorgegebenem Punktabstand s und bei gleichem Betrachtungsabstand in Abhängigkeit von der Bildauflösung (Anzahl der Bildpunkte)
Verschiedene optimale Bildbreiten und horizontale Betrachtungswinkel bei gleichem Punktabstand und gleichem Betrachtungsabstand b in Abhängigkeit von der Bildauflösung (Anzahl der Bildpunkte). Das Format Full HD (16:9 mit 1920 x 1080 Bildpunkten) ist nur geringfügig kleiner als der Normalwinkel, das Format 4K (16:9 mit 3840 x 2160 Bildpunkten) ist deutlich zu groß.

Ebenso können bei vorgegebener Anzahl der Bildpunkte die Bilddiagonale oder der Betrachtungsabstand ausgerechnet werden, bei dem die einzelnen Bildpunkte gerade noch unterschieden werden können:

Mit der Winkelauflösung eines menschlichen Betrachters (siehe oben) ergibt sich dann, dass die Bilddiagonale höchstens 13,5 Prozent kleiner als das Betrachtungsabstand sein darf, damit alle Bildpunkte unterschieden werden können:

Für gängige Bildauflösungen ergeben sich für einen gleichbleibenden Betrachtungsabstand und bei einer vorgegebenen Punktdichte von rund anderthalb Punkten pro Millimeter beziehungsweise damit die folgenden Verhältnisse:

Bezeichnung Bildpunkte in
horizontaler Richtung
Bildpunkte in
vertikaler Richtung
Bildpunkte in
diagonaler Richtung
Pixelzahl
in Megapixel
Bildbreite
in m
Bildhöhe
in m
Bilddiagonale
in m
Betrachtungsabstand
in m
Betrachtungsabstand
im Verhältnis zur Bildhöhe
Diagonaler Betrachtungswinkel
SDTV (4:3) 768 576 960 0,44 0,52 0,39 0,653 2,27 5,8 16°
HD ready (16:9) 1280 720 1469 0,92 0,87 0,49 1,0 2,27 4,6 25°
Full HD (16:9) 1920 1080 2203 2,1 1,31 0,74 1,5 2,27 3,1 37°
Normalwinkel (16:9) 2600 1462 2983 3,8 1,77 0,99 2,0 2,27 2,3 48°
4K (16:9) 3840 2160 4406 8,3 2,61 1,47 3,0 2,27 1,5 67°
8K (16:9) 7680 4320 8812 33 5,23 2,94 6,0 2,27 0,8 106°

Bei einer Bildauflösung von zwei Megapixel ist der normale Bildwinkel noch nicht ausgeschöpft und das gesamte Bild ist gut und vollständig erfassbar. Die optimalen vier Megapixel Bildauflösung (siehe oben) werden hier zwar noch nicht ganz erreicht, jedoch gelten diese Überlegungen nur für monochrome Bilder. Bei mehrfarbigen Bildern ist die vom Menschen erfassbare Farbauflösung deutlich darunter (zirka eine Million verschiedenfarbige Punkte können unterschieden werden), und dies wird bei einer Bildauflösung von zwei Megepixel längst übertroffen.

Bei höheren Bildauflösungen, wie zum Beispiel 4K oder gar 8K ist der Betrachtungswinkel deutlich über dem normalen Bildwinkel, wenn alle Punkte beim Betrachter noch einzeln aufgelöst werden können - das Bild kann bei weitem nicht mehr mit einem Blick betrachtet werden, sondern die Augen müssen über die verschiedenen Bildbereiche streifen, um alle Details sehen zu können.

Änderung der Sehfähigkeit mit dem Lebensalter[Bearbeiten]

Die Akkomodationsbreite des menschliche Auges nimmt mit dem Lebensalter deutlich ab. Dadurch kommt es bei Verzicht auf Sehhilfen zu einer Vergrößerung der minimalen Sehweite und trotz gleichbleibender Winkelauflösung von zirka einer Bogenminute somit auch zu einer Reduktion der maximal wahrnehmbaren Punktdichte. Diese Verhältnisse mit dem daraus resultierenden zunehmendem minimalen Betrachtungsabstand werden in der folgenden Tabelle anhand der Eigenschaften eines normalsichtigen Menschen verdeutlicht:


Lebensalter
in a
Minimaler akkomodierbarer
Betrachtungsabstand
in m
Punktabstand bei
minimaler Winkelauflösung
in mm
Punktdichte bei
minimaler Winkelauflösung
in dpi
Punktdichte bei
minimaler Winkelauflösung
in mm-1
10 0,09 0,026 970 38
20 0,11 0,032 790 31
30 0,13 0,038 670 26
40 0,18 0,052 490 19
50 0,50 0,145 170 6,9
60 0,65 0,189 130 5,3
70 0,71 0,207 120 4,8

Digital-Analog-Wandlung[Bearbeiten]

Farbige Testtafel mit 32 gestuften Helligkeiten in grau sowie in den Primärfarben rot, grün und blau.

Um digitale Bilder zu betrachten, müssen die Daten in einer geeigneten Form in sichtbares Licht umgewandelt werden. Umgekehrt wie bei der Aufnahme von Bildern dienen Digital-Analog-Wandler dazu, diskrete Zahlenwerte in elektrische Spannungen oder direkt in Leuchtdichten umzuwandeln. Die Spannungen müssen mit geeigneten Geräten anschließend in entsprechende Leuchtdichten umgesetzt werden (siehe auch Kapitel Leuchtdichte).

In der Regel bedeutet eine Spannung von null Volt, dass kein Licht erzeugt wird, und die maximal darstellbare Zahl im Wertebereich der digitalen Daten wird in die maximale Spannung umgesetzt und entspricht somit der maximal zu erzeugenden Helligkeit. Allerdings haben viele bilderzeugenden Verfahren keine linearen Eigenschaften; eine doppelt so hohe Spannung erzeugt nicht notwendiger Weise auch eine doppelt so große Helligkeit. In vielen Fällen müssen die digitalen Daten daher durch entsprechende analoge oder digitale Transformationen in entsprechende Spannungen beziehungsweise Leuchtdichten umgewandelt werden.

Digitale Transformationen haben hierbei der Vorteil, dass sie softwareseitig eingestellt werden können, was zum Beispiel die Gamma-Korrektur, die Kalibrierung oder die Profilierung von Wiedergabegeräten sehr erleichtern kann. Die Profilierung unterscheidet sich von der Kalibrierung dadurch, dass zusätzlich zur individuellen Einstellung der stetigen Leuchtdichteverläufe in allen getrennten Farbkanälen die Bildergebnisse nachgemessen und anschließend die Ergebnisse zur optimalen Korrektur oder Kontrolle der Einstellungen verwendet werden.

Eine einfache Kalibrierung ist mit geeigneten Testtafeln möglich, die auf dem Wiedergabegerät angezeigt werden. Die Helligkeit und der Kontrastverlauf können damit so eingestellt werden, dass eine gewisse Anzahl von Bildfeldern mit unterschiedlicher Helligkeit beim Betrachten gut unterschieden werden kann.

Bildschirme[Bearbeiten]

Kathodenstrahlröhren[Bearbeiten]

Kathodenstrahlröhrenbildschirm

Kathodenstrahlröhren benötigen einen aufgeheizten Elektronenemitter, eine Beschleunigungsspannung für die Elektronen (zwischen Kathode und Anode) und eine analoge Ansteuerung mit großen elektrischen Strömen für die Ablenkspulen oder mit großen elektrischen Spannungen für die Ablenkplatten beziehungsweise für die Fokussierung des Elektronenstrahls, so dass sie für den Einsatz in digitalen Systemen nicht prädestiniert sind. Zudem benötigen größere Kathodenstrahlröhrenbildschirme eine sehr große Bautiefe, weil die in einer Vakuumröhre befindliche Elektronenquelle entsprechend weit hinter dem Leuchtschirm und den Ablenkeinheiten positioniert werden muss. Diese großen Glasröhren und Ablenkeinheiten haben auch ein vergleichsweise hohes Gewicht.

Zu einem Zeitpunkt kann immer nur ein Bildpunkt auf dem Leuchtschirm angesteuert werden, der dann allerdings eine recht hohe Leuchtdichte aufweisen kann. Bei örtlich und zeitlich hochaufgelösten Bildern werden die Ablenkfrequenzen aber teilweise so hoch, dass eine präzise elektronische Steuerung sehr aufwendig wird. Eine Wiedergabe mit einer Bildwiederholrate von 50 Vollbildern pro Sekunde mit jeweils zwei Millionen Bildpunkten (Full-HD-Standard) erfordert zum Beispiel eine Taktfrequenz von 100 Megahertz für die Bildpunkte:

Bei dieser Taktfrequenz müssen unter Umständen mehrere farbige Punkte mit einer Bit-Tiefe von acht oder höher ausgesteuert werden, was sehr hohe Anforderungen an die Geschwindigkeit und Genauigkeit der Wiedergabegeräte stellt.

Kathodenstrahlröhren werden aus diesen Gründen insgesamt nur noch selten für die Bildwiedergabe eingesetzt, insbesondere wenn es um die Wiedergabe digitaler Bildquellen geht.

Flüssigkristallanzeigen[Bearbeiten]

Farbige Flüssigkristall-Anzeige (LCD) mit einem Zeilenabstand von 0,18 Millimetern und einen Spaltenabstand von 0,52 Millimetern

Die monochrome Flüssigkristalanzeige wurde in Form der sogenannten Schadt-Helfrich-Zelle um 1970 von Martin Schadt und Wolfgang Helfrich erfunden.

Kleine hochauflösende Flüssigkristallanzeigen mit Farbfiltern und konstanter Hintergrundbeleuchtung oder mit schneller sequentieller Hintergrundbeleuchtung mit verschiedenen monochromatischen Farben (zum Beispiel mit dern Primärfarben in der Reihenfolge rot - grün - blau mit einer Wechselfrequenz von 180 Hertz) können nicht nur für große selbstleuchtende Bildschirme mit mehreren Metern Bilddiagonale, sondern auch für elektronische Sucher mit wenigen Millimetern Bilddiagonale hergestellt werden.

Siehe hierzu auch Systemkameras

Bei einer sequentiellen Hintergrundbeleuchtung mit verschiedenen Farben kann es an kontrastreichen Kanten oder bei bewegten Motiven zum sogenannten Regenbogeneffekt kommen, da die verschiedenen Farbinformationen nicht gleichzeitig sondern zeitlich und somit unter Umständen auch auf der Netzhaut örtlich versetzt gesehen werden.

Leuchtdiodenanzeigen[Bearbeiten]

Farbige Anzeige mit organischen Leuchtdioden (OLED) mit einem horizontalen und vertikalen Punktabstand von 0,3 Millimetern im Grünen und von 0,6 Millimetern im Roten und Blauen

Organische Leuchtdioden (OLEDs) haben eine geringere Stromaufnahme, aber auch eine geringere Leuchtdichte und eine geringere Lebensdauer als anorganische, einkristalline Leuchtdioden (LED). Sie können jedoch kostengünstig hergestellt werden und können daher spalten- und reihenförmig zu hochauflösenden Matrix-Anzeigen kombiniert werden, die so dünn gestaltet werden können, dass sie sogar gebogen werden können.

Wenn der Strom ausgeschaltet wird, wird auch kein Licht erzeugt, so dass der Schwarzwert bei den OLEDs praktisch null ist und deswegen eine hohe Modulation (Michelson-Kontrast) möglich ist. OLED-Anzeigen werden sowohl großflächig als direkt betrachteter Bildschirm (Monitor, Fernseher) oder kleinflächig mit einem Okular betrachtet (elektronischer Sucher) eingesetzt.

Projektoren[Bearbeiten]

Projektoren werden in der Regel eingesetzt, um das Bild von relativ kleinen, zweidimensionalen Bildgebern mit einem Objektiv auf eine verhältnismäßig große Projektionsfläche abzubilden. Durch die Wahl der Größe der Bildgeber, der Brennweite des Objektivs und des Abstandes des Projektors zur Projektionswand ergibt sich geometrisch die Größe des projizierten Bildes.

Die Qualität der Projektion bemisst sich unter anderem in der Bildschärfe, die meist durch die physikalische Auflösung der Bildgeber bestimmt ist, in der größten erreichbaren Helligkeit und mittelbar durch die geringste erreichbare Helligkeit im Kontrastumfang. Darüberhinaus sind der Farbumfang und die Farbtreue der Projektionen ein wichtiges Qualitätsmerkmal.

Verketteter Strahlengang mit dem Beleuchtungsstrahlengang B (links, orange) und dem Abbildungsstrahlengang A (rechts, blau)

Zur Projektion wird oft ein verketteter (beziehungsweise verflochtener) Strahlengang verwendet, der aus zwei miteinander verflochtenen Strahlengängen besteht:

  • Abbildungsstrahlengang (A): ein Abbildungssystem bestehend aus dem abzubildenden Objekt (G, synonym für "Gegenstand"), einem Objektiv (O) und dem auf dem Kopf stehenden, auf eine Projektionsebene (P) projizierten reellen Bild
  • Beleuchtungsstrahlengang (B): ein Beleuchtungssystem bestehend aus einer Lichtquelle (L) bei thermischen Strahlern (Abstrahlung in den Raumwinkel ) mit einem konkaven Reflektor (R), dem abzubildenden Objekt (G), einem Kondensor (K)

Siehe hierzu auch: Beleuchtung

Dimensionierung[Bearbeiten]

Beim Abbildungsstrahlengang befindet sich das abzubildende Objekt meist zwischen der einfachen und doppelten Brennweite des Objektivs. Der Betrag des Abbildungsmaßstabs ist in diesem Fall immer größer als eins, und das projizierte Bild ist somit größer als das abzubildende Objekt.

Wenn im Abbildungsstrahlengang A bei vorgegebener Objektgröße eine bestimmte projizierte Bildgröße erreicht werden soll, ergibt sich für den Abbildungsmaßstab :

Typischerweise gibt hierbei:

Die Längen entlang der optischen Achse und die Größe des Kondensors ergeben sich dann über die folgenden Beziehungen aus der Objektgröße und der Bildgröße:

Die Objektweiten und Bildweiten der beiden Strahlengänge können mit der jeweiligen Abbildungsgleichung mit der Brennweite des Objektivs

beziehungsweise mit der Brennweite des Kondensors

in Beziehung gebracht werden. Typischerweise wählt man hier , und die erforderliche Lichtstärke des Kondensors ergibt sich mit der Blendenzahl aus der Beziehung:

Siehe hierzu auch: Blendenzahl

Digital Light Processing[Bearbeiten]

Liquid Crystal on Silicon[Bearbeiten]

Liquid Crystal on Silicon (abgekürzt LCoS, auch unter der Bezeichnung Silicon X-tal Reflective Display, abgekürzt SXRD verbreitet) beruht auf der Idee, die segmentierten Flüssigkristallelemente nicht im reinen Durchlichtmodus zu betreiben, sondern das Licht unmittelbar hinter der Flüssigkristallschicht zu reflektieren, so dass es erneut in umgekehrter Richtung durch die Flüssigkristallschicht tritt. Dies erfordert einen erhöhten Aufwand beim Entwurf eines geeigneten Strahlenganges, insbesondere wenn die Projektion mehrfarbig gestaltet werden soll. Da hierbei mehrere Farbschichten mit eigenen Bildgebern eingesetzt werden müssen, ergeben sich sehr hohe Anforderungen für die Justierung und die mechanische und thermische Stabilität der Konstruktion.

Weißes Licht wird beleuchtungsstrahlenseitig mit einem Hohlspiegel und einem Kondensor auf ein komplexes Glasprisma mit teilreflektierenden, 45 Grad geneigten Spiegelschichten gerichtet. Das weiße Licht wird auf (meist drei) verschiedene Endflächen des Prismas gelenkt, die mit unterschiedlichen Farbfiltern und jeweils einem Flüssigkristallelement und einem direkt dahinterliegenden Spiegel ausgestattet sind. Das Licht durchtritt also jeweils zweimal die Farbschicht und die Flüssigkristallschicht.

Wiedergabe mit drei Bildgebern[Bearbeiten]

Prinzipieller Aufbau der Wiedergabe mit drei Einzelbildern am Beispiel eines Projektors mit Flüssigkristallbildschirmen im Reflexionsmodus

Bei vielen Bildgebern, wie zum Beispiel Flüssigkristallbildschirme im Durchlichtmodus oder Mikrospiegelarrays beziehungsweise Flüssigkristallbildschirme im Reflexionsmodus können mit Hilfe von Strahlteilern Einzelbilder mit begrenzten Lichtwellenlängenbereichen erzeugt werden. Dazu können Lichtquellen mit unterschiedlichen Lichtwellenlängenbereichen verwendet werden, oder es werden weiße Lichtquellen verwendet, deren Licht mit Interferenzfiltern oder durch andere Farbfilter in verschiedene Lichtwellenbereiche aufgeteilt wird.

Die verschiedenen Einzelbilder werden durch den Strahlenteiler wieder zu einer gemeinsamen virtuellen, bildgebenden Fläche vereinigt und müssen untereinander exakt dieselben Abstände einhalten, sowohl was die Objektweite für die sich anschließende optische Abbildung mit dem Objektiv, als auch was die seitlichen Abstände der horizontalen und vertikalen Bildkanten betrifft. Das Objektiv bildet schließlich die Flüssigkristallbildschirme auf eine Projektionswand ab.

Drucke[Bearbeiten]

Laserdruck[Bearbeiten]

Laserdruck mit einer Punktdichte von 1200 dpi und einer Linienhöhe von 85 (links und 42 (rechts) Mikrometern

Beim Laserdruck wird Toner verwendet, deren Partikel auf dem Papier typischerweise Farbflecke mit einem Durchmesser von einigen Mikrometern erzeugen. Ein hochwertiges Druckwerk ist beispielsweise für eine Punktdichte von 1200 dpi ausgelegt (dies entspricht einer metrischen Punktdichte von 47 mm-1 und einem Punktabstand respektive einem Punktdurchmesser von 21 Mikrometern). Daraus ergibt sich, dass ein mit minimalem Durchmesser gedruckter Punkt aus rund 100 nebeneinanderliegenden Tonerpartikeln zusammengesetzt werden muss.

Je näher der Linienabstand sich dem Punktabstand nähert, desto weniger scharf und genau können die Kanten der Linien abgebildet und gedruckt werden:

Durch die seitliche Streuung der Tonerpartikel ergibt sich bei zunehmend kleinen Linienbreiten, dass sich in den eigentlich weißen Lücken zwischen den schwarzen Linien zunehmend viele Tonerpartikel wiederfinden. Dadurch wird die mittlere Helligkeit der Drucke dunkler als 50%, die bei gleicher Breite von schwarzen und weißen Linien zu erwarten wären.

Farbiger Laserdruck mit einer Punktdichte von 600 dpi (Punktdurchmesser = 42 µm) in einer Bildhöhe und Bildbreite von 0,4 Millimetern

Werden schwarze und farbige Tonerpartikel auf das Druckerpapier aufgebracht, können mit einem Laserdrucker auch farbige Bilder erstellt werden. Für die Erzeugung von Farbtönen müssen die Druckerfarben (häufig cyan, magenta, yellow, black (CMYK), also türkis, violett, gelb und schwarz) nacheinander und im entsprechenden Verhältnis nebeneinander gedruckt werden.

Tintenstrahldruck[Bearbeiten]

Tintenstrahldruck mit einer Punktdichte von 1200 dpi (Punktdurchmesser = 21 µm) in einer Bildhöhe und Bildbreite von 0,4 Millimetern

Beim Tintenstrahldruck werden kleinste Farbtröpfchen auf das zu bedruckende Papier gebracht. Der Durchmesser der entsprechenden Farbflecke auf dem Papier beträgt typischerweise einige Mikrometer. Ebenso wie beim Laserdruck (siehe oben) werden verschiedene Farbtöne durch die Überlagerung der Grundfarben erzeugt. Hierzu werden in der Regel mindestens drei Grundfarben verwendet (häufig cyan, magenta, yellow, black (CMYK)), für einen größeren darstellbaren Farbraum können jedoch auch noch zusätzliche Grundfarben eingesetzt werden.