Einführung in die Fotografie/ Druckversion

Aus Wikibooks
Zur Navigation springen Zur Suche springen
Einführung in die Fotografie



Wikibooks

Einführung[Bearbeiten]

Auftakt[Bearbeiten]

Die Geschichte der modernen Photographie (eingedeutsch auch oft: 'Fotografie') ist nunmehr fast 200 Jahre alt, und seit ebenso langer Zeit begeistert sie die Menschen weltweit. Sie ist, physikalisch gesehen, ein recht einfaches Verfahren, dessen Grundzüge bereits im ausgehenden Mittelalter bekannt waren; und dennoch lässt sich ihre Bedeutung heute nicht mehr verleugnen. Wie keine andere Methode ermöglicht sie es jedem, einzelne Augenblicke dauerhaft festzuhalten und einen Blick in die Vergangenheit zu offenbaren. Sie kann beeindrucken, Interesse wecken und empören. Sie hat mal stark künstlerischen und mal nüchternen dokumentarischen Charakter. Sie ist für manche Menschen von hohem persönlichen Wert und für andere völlig uninteressant. Nach ihrer Entstehung hat sie es in kurzer Zeit geschafft, fast alle Bereiche des menschlichen Lebens zu erobern und erlebt insbesondere seit der Jahrtausendwende mit der Digitalphotographie eine bemerkenswerte Renaissance.

Photographie - Festhalten von Momenten.

Kaum eine Kunst hat heute einen solch hohen Einfluss wie die Photographie und der mit ihr verwandte Film. In unserer Gesellschaft werden wir kaum jemanden finden, der keine Kamera besitzt, sei es als Digitalkamera, ein Mobiltelephon oder ein tragbarer Rechner (englisch: notebook) mit eingebauter Kamera oder ähnliches. Es wird in unserem technisch ausgerichteten Kulturkreis auch kaum jemanden geben, der noch nie in seinem Leben Photos aufgenommen hat, kaum jemanden, der nicht hin und wieder einmal Photos aufnimmt, und auch kaum jemandem, der selbst keine Photos besitzt. Gerade mit der Digitalkamera entstand ein Aufschwung in der Photographie, der sich noch wenige Jahre zuvor kaum erahnen ließ. Waren die Aufnahmen von Laien im letzten Jahrtausend praktisch nur eingeschränkt und privat zugänglich, hat sich nach dem Aufkommen des digitalen internationalen Netzwerkes (kurz Netz; englisch: internet) zusammen mit den Digitalkameras die Szene komplett gewandelt - jeder kann problemlos Aufnahmen machen und sie im Bedarfsfalle ohne nennenswerte Verzögerung im Netz veröffentlichen.

Auf den privaten Rechnern lagern heute oft tausende Urlaubs-, Familien- und Alltagsbilder, Photo-Gemeinschaften im Netz bieten gar Vorräte mit mehreren Milliarden Photos. Netz-Tagebücher (englisch: blogs), Projekte im Netz, Nachrichtenseiten, Prospekte, Werbung, Produktkataloge und Werbeblätter – sie alle werden meist durch reichhaltiges Bildmaterial ergänzt, von dem wiederum ein großer Teil Photographien sind.

Trotz der offensichtlich weitreichenden Bedeutung und Verbreitung der Photographie, die bewusst oder unbewusst Bestandteil unseres alltäglichen Lebens geworden ist, entsteht gelegentlich insbesondere in der heutigen Zeit der Eindruck, dass erstaunlich wenig Menschen grundlegende Kenntnisse über die technischen und gestalterischen Grundlagen der Photographie besitzen. Der erste Aspekt ist im Grunde nicht ungewöhnlich – man kann ein Auto fahren, ohne zu wissen, wie der Motor funktioniert oder welche internen Prozesse dabei stattfinden. Man kann ein Computerprogramm bedienen, ohne sonstige Computerkenntnisse zu haben, und viele Menschen lesen Belletristik, ohne über größere Literaturkenntnisse zu verfügen. All das klappt indessen nur, weil all diese Bereiche stark automatisiert sind: Die für unkundige Laien geeigneten Kameras erledigen fast alles automatisch. Es gibt sogar welche, die bereits das Motiv aussuchen oder auf Vorrat Bilder machen, aus denen der Nutzer dann nur noch auswählen muss. Auch Automobile sind mittlerweile hochautomatisiert, Pannen, bei denen man selbst reparieren könnte, sind kaum noch zu erwarten, auch Computer baut heute der normale Anwender nicht mehr selbst (zusammen), sondern kauft sie komplett funktionsfähig, meist gar gleich mit einem Betriebssystem. In den Anfängen dieser Technologien war das anders - da gab es keine Automatisierung, keine Computer und Programme, die einem alle Arbeit und Intelligenzleistung abgenommen hätten.

In der Tat kann man heute in vielen Situationen zu Photos gelangen, ohne die technischen Grundlagen der Kamera zu beherrschen – die Kameraautomatik kann erstaunlich Vieles. Insbesondere kann eine vollautomatische Kamera spielend in kürzester Zeit viele Parameter gleichzeitig überwachen und einstellen, was dem Menschen zumeist schwerfällt. Möchte man aber mit Photographie mehr anfangen als der Alltagsnutzer, so wird man bald feststellen, dass man an manchen Stellen ohne die Grundlagen nicht mehr auskommt, insbesondere in speziellen Situationen wie beim Photographieren bestimmter Motive, zum Beispiel Makroaufnahmen, Photographieren während der Dämmerung, Darstellen von Bewegung etc. Der Automatikmodus der Kamera wird hier schnell an seine Grenzen stoßen und ein manuelles Einschreiten ist unvermeidlich – spätestens dann sollte man die Grundlagen über Belichtung, Fokussierung und Weißabgleich verstehen. Dies liegt unter anderem auch daran, dass Computerprogramme bislang allenfalls rudimentär das Motiv selbst erkennen können und der Nutzer seine Intentionen auch nur über recht einfache Programmvariationen der Kamera zu vermitteln versuchen kann - diese grobe Motivvorwahl verbessert zwar das 'normale' automatische Resultat in vielen Fällen, kann aber natürlich nicht individuell auf das jeweilige Motiv und Problem eingehen.

Was besagt eigentlich der ISO-Wert? Wie hängen Blende und Belichtungszeit zusammen? Warum verwackeln Photos manchmal oder werden unscharf? Was ist eigentlich die Brennweite und welchen Einfluss hat sie auf das Photo? Wie hängen die Größen der Strukturen des Bildsensors, die Abbildungsqualität des Objektivs, Beugung und die Auflösung des Bildresulates zusammen? Das sind Standardfragen, die jeder ambitionierte Hobby-Photograph beantworten können sollte, und sie werden in diesem Buch in ausführlicher Weise beantwortet.

Der zweite Aspekt, die Bildgestaltung, ist von noch größerer Bedeutung als der erste; wie gut die Kamerautomatik auch sein mag, die Gestaltung eines Photos muss der Photograph stets selbst vornehmen. Hier wird ihm niemand die Arbeit abnehmen, und erst hier entscheidet sich, ob das Photo ein einfacher Schnappschuss oder ein interessantes Kunstwerk wird. Wo sollte das Motiv platziert werden (und was ist eigentlich das Motiv)? Aus welcher Perspektive sollte es photographiert werden? Welche Perspektiven gibt es überhaupt? Welche Arten von Licht gibt es, wie wirkt sich das Licht auf das Bild aus? Welche Rollen spielen Farben in einem Bild? Bei der Gestaltung gilt es eine Handvoll bewährter Regeln anzuwenden, die aus einem Schnappschuss ein anspruchsvolles Photo machen können, und diese Regeln werden in diesem Buch ebenfalls ausführlich vorgestellt. Dabei wird sich zeigen, dass man bei der Bildgestaltung ebenfalls nicht ganz ohne technisches Hintergrundwissen auskommt.

In dem vorliegenden Buch werden daher, neben den Grundlagen, vor allem die Aspekte Technik und Gestaltung betrachtet. Das Buch wird mit einem Kapitel zur digitalen Nachbearbeitung abgerundet und sollte damit jedes Thema behandeln, in dem ein Hobby-Photograph Grundkenntnisse besitzen sollte.

Zielgruppe[Bearbeiten]

Zur Zielgruppe dieses Buches gehören in erster Linie Einsteiger, die kein oder nur wenig photographisches Hintergrundwissen besitzen, jedoch mehr über die Photographie an sich sowie die technischen oder gestalterischen Grundlagen erfahren möchten. Auch Fortgeschrittene werden womöglich den ein oder anderen guten Hinweis finden, auf Spezialwissen wird jedoch weitgehend verzichtet, da dieses für Hobby-Photographen kaum notwendig scheint. Einige relativ spezielle Aspekte sind als Exkurs ausgezeichnet und bieten Hintergrundwissen für besonders interessierte Leser.

Anliegen des Buches ist es, alle Bereiche der Photographie und der eng mit ihr zusammenhängenden Gebiete zu vermitteln. Es wird also sowohl auf analoge als auch digitale Photographie eingegangen, wobei der Schwerpunkt eher auf der weiter verbreiteten digitalen Photographie liegt. Es werden auch Themen wie Farbgestaltung, Bildformate, Nachbearbeitung etc. behandelt und es werden wichtige Fachbegriffe erläutert. Das Buch ist nicht direkt als Nachschlagewerk konzipiert, kann aber natürlich trotzdem zum Nachschlagen bestimmter Themen verwendet werden. Auch für Leser, die sich nur in einem bestimmten Teilgebiet informieren wollen (etwa Bildgestaltung, Belichtung etc.) ist das Buch geeignet – es ist stark thematisch gegliedert.

Ziel des Buches ist ein ausführlicher, verständlicher Einstieg in das recht umfangreiche Sachgebiet – es ist keine Anleitung oder “How-to”. Der Schwerpunkt liegt eher auf dem Verständnis, was manchmal umfangreichere Ausführungen notwendig macht.

Gliederung[Bearbeiten]

Nach dem Vorwort werden die Grundlagen der Photographie vermittelt. Was ist Photographie? Wo wird Photographie angewendet, wie wird sie klassifiziert? Welche Vorteile bringt uns die Photographie, welche Probleme verursacht sie? Was darf man alles photographieren, was darf man veröffentlichen und wer behält am Ende die Bildrechte? Gerade dieses Kapitel wird Fragen klären, die die meisten konventionellen Bücher ignorieren.

Im Anschluss soll auf die Bildgestaltung näher eingegangen werden. Hierbei werden Dinge betrachtet, die gewissermaßen über der Photographie stehen, das heißt allgemeiner als diese sind: Bildformate, Farbgestaltung, Auflösung, Dateiformate, Entstehung und Wirkung von Farben etc. stehen hier im Mittelpunkt. Das Kapitel ist vor allem für die später behandelte Bildgestaltung wichtig und kann auch für Personen aus anderen Fachgebieten (zum Beispiel Malerei) interessant sein.

Nach diesen beiden einführenden Kapiteln werden dann technische Bereiche abgedeckt. Im Kapitel “Aufbau und Funktionsweise der Kamera“ soll erläutert werden, welche Arten von Kameras es gibt, wie sie aufgebaut sind und wie das Aufnehmen von Photos technisch funktioniert. Das daran anschließende Kapitel “Das Photographieren” wird technische Hintergründe zum Aufnehmen von Photos zum Hauptgegenstand haben. Was sind Brennweite, Objektiv und Zoom? Wann nimmt man kleine Brennweiten, wann große? Was bedeuten Belichtung, Blende, ISO-Wert und Belichtungskorrektur? Wie hängen sie zusammen und welche Wirkungen lassen sich erzielen? Für den technisch interessierten Leser werden diese beiden Kapitel den Höhepunkt bilden.

Der nächste Teil des Buches betrachtet weniger technische, als viel mehr gestalterische Aspekte und geht damit auf den künstlerischen Charakter der Photographie ein. Es stellt Regeln vor, nach denen Photos aufgenommen werden, um ästhetisch besonders ansprechend zu wirken. Dies ist natürlich immer stark vom photographischen Genre abhängig; daher sollen hier neben fundiertem Grundlagenwissen auch spezielle Tipps zu den einzelnen Genres wie Landschaftsphotographie, Architekturphotographie, Porträts etc. gegeben werden.

Die Nachbearbeitung von digitalen Photos ist heute fast nicht mehr wegzudenken und kann die kaum vermeidbaren Laienfehler und Artefakte oft beheben oder zumindest mildern. In dem letzten Kapitel des Buchs soll daher erläutert werden, welche typischen Möglichkeiten der Nachbearbeitung bestehen und wie diese mit Bildbearbeitungsprogrammen (zum Beispiel Gimp) etwa durchgeführt werden.

Grundlagen der Fotografie[Bearbeiten]

Der Begriff Photographie[Bearbeiten]

Der Begriff Photographie, eingedeutscht auch oft Fotografie (von griech. photos = licht und graphein = malen, zeichnen; etwa "mit Licht malen") hat zwei Bedeutungen. Er bezeichnet einerseits ein physikalisch-künstlerisches Verfahren zur Erstellung von Abbildern der Umgebung und zum anderen das Resultat desselbigen Verfahrens. Das Resultat (die Photographie im zweiten Sinne) bezeichnet damit das dauerhaft gespeicherte Abbild der Realität und wird oft auch einfach als Photo (oft auch Foto), Aufnahme, Bild oder seltener Lichtbild bezeichnet. Der Begriff Bild ist jedoch deutlich allgemeiner als "Photo". Unter einem Abzug versteht man ein Photo der Analogphotographie nach seiner Entwicklung aus dem photographischen Film.

Bei der Photographie entstehen Photos, indem Licht durch das Objektiv einer Kamera auf einen lichtempfindlichen Film (Analogphotographie) oder einen lichtempfindlichen Bildsensor (Digitalphotographie) fällt. Ein Photo zeigt somit eine Abbildung der Wirklichkeit gemittelt über einen ganz bestimmten, meist kurzen Zeitabschnitt. Photos ähneln im Ergebnis in gewisser Weise bestimmten Techniken mit Hilfsgerüsten in der Malerei, wo versucht wurde, einen Ausschnitt der Wirklichkeit auf der flächigen Leinwand möglichst realistisch darzustellen. In beiden Fällen werden Projektionsverfahren, Abbildungen verwendet, um eine Projektion vom Raum auf die Fläche der Leinwand oder beim Photo auf die ebene Fläche des Sensors oder Films zu realisieren. Dabei hat der Maler natürlich mehr subjektive Freiheiten als es der Photograph hat. Die Eigenschaften von Kamera, Objektiv, Sensor oder Film können starken Einfluß darauf haben, wie das konkrete Ergebnis der Abbildung dann aussieht. Es gibt auch eine Vielzahl an Techniken, um Photos unnatürlich wirken zu lassen, so dass Begriffe wie Ausschnitt der Wirklichkeit oder Realität im Zusammenhang mit der Photografie stets relativ zu sehen sind. Die Art der Abbildung und das dazu verwendete Werkzeug ist immer auch Bestandteil des Bildergebnisses.

Photos sind eine Abbildung aus dem dreidimensionalen Raum in den zweidimensionalen Raum. Dabei wird über die meist kurze Belichtungszeit gemittelt - kurz in Bezug auf das Wahrnehmungsvermögen eines Menschen, nicht zwangsläufig in Bezug zur Schnelligkeit manch bewegter Motive, die man gerne aufnehmen möchte. Da das Photo erst betrachtet werden kann, wenn es aufgenommen wurde, folgt daraus, dass jedes Photo bereits einen Moment der Vergangenheit darstellt, wie im übrigen jede Abbildung, denn auch das Licht braucht ja Zeit, um vom Abgebildeten dahin zu gelangen, wo es abgebildet wird.

Photos als reale Abbilder[Bearbeiten]

Um den Dynamikumfang des Bildes zu erhöhen, wurde eine Belichtungsreihe zu einem Bild verrechnet mit dem Eindruck einer beinahe surrealistischen Farbexplosion. (HDR, englisch: High Dynamic Range Image)

Man bezeichnet Photos gern als reale Abbilder der Wirklichkeit. In Wahrheit kann jedoch kein Photo ein tatsächliches Abbild liefern. Wie man spätestens im letzten Jahrhundert in der Physik gelernt hat, sind Begriffe wie Wirklichkeit und Wahrheit philosophische Begriffe. Kameras sind also nur technische Werkzeuge, deren Ergebnisse interpretiert werden müsssen, um etwas über die abgebildeten Objekte zu lernen. Je nachdem, wie das Werkzeug eingesetzt wird, treten andere Aspekte des abgebildeten Objektes hervor oder auch zurück. Auch durch die Auswahl, welche Art von Licht von wo auf das Motiv fällt und dann in die Kamera kann entscheidend beeinflusst werden, in welcher Weise das Motiv auf der Abbildung dargestellt wird. Bei sich zeitlich schnell ändernden Motiven hängt der spätere Eindruck oder die Interpretation des Bildes teils entscheidend davon ab, in welchem Zustand das Motiv aufgenommen wird. Der Zustand zur Aufnahmezeit muss für das Motiv ja nicht charakteristisch sein. Ist die Belichtungszeit nicht mehr kurz im Vergleich zur Geschwindigkeit eines Motivs, so verwischt dieses über Teile der Abbildung. Das kann erwünscht sein oder eben nicht.

Linsenlichtreflexe (englisch: lens flares) als Beispiel für Artefakte
Bokeh, Aussehen von unscharfen Flecken als Beispiel für ein Artefakt der Blendenform
Körnigkeit als Artefakt von Filmmaterial

Aus künstlerischer Sicht steht die realistische Wirkung eines Bildes oft auch nicht im Vordergrund. Mit geringer Schärfentiefe und ungewöhnlichem Blickwinkel (Weitwinkel oder Telewinkel) werden beispielsweise ganz bewusst Bilder geschaffen, die zum Teil wenig mit dem ursprünglichen Motiv zu tun haben, wie man es etwa mit den eigenen Augen wahrnehmen würde. Zudem bietet die Bildgestaltung eine Vielzahl an Mitteln, um Photos nachzubearbeiten. Erhöhung von Kontrast und Sättigung, das Hinzufügen von Lichteffekten, das Verändern der Perspektive etc. sind beliebte Mittel. Es wird demnach bewusst ein von der Natur verschiedenes Bild geschaffen. Bereits die Abbildung des Motivs mit dem Objektiv auf die ebene Sensorfläche kann auf recht verschiedene Weise erfolgen. Besonders bei Weitwinkelobjektiven sind charakteristische Verzerrungen erkennbar, die zwangsläufig in irgendeiner Weise auftreten müssen, wenn ein sehr großer Bildwinkel auf einen Sensor bestimmter Größe abgebildet werden soll, der in einem technisch bedingten festen Abstand zum Objektiv angeordnet ist.

Auch wenn man es sich zum Ziel setzt, ein möglichst realistisches Abbild der Natur zu schaffen, das heißt ein Bild, das beim Betrachten der Szene in der Natur zum Aufnahmezeitpunkt entspricht, wird man dies nicht zu 100 % bewältigen können. Kameras sind heute sehr leistungsfähig, es werden beim Aufnehmen von Photos jedoch stets Artefakte entstehen, auch wenn sie oft nicht auffallen oder kaum erkennbar sind. Unter einem Artefakt versteht man in der Photographie sichtbare Abweichungen von der realen Szene (dazu später noch mehr).

Typische Artefakte sind Stiche (zum Beispiel Blaustich, die Farben der Aufnahme sind also deutlich ins Blaue verschoben) und Farbveränderungen, Körnigkeit und Bildrauschen, Blooming und Smear-Effekte (weiße Streifen im Bild, meist bei Lichtquellen), trotz vorhandener Entspiegelung auftretende Spiegelungen besonders der Sonne im Objektiv, Abbildungen der Form der Blende bei unscharfen Lichtpunkten (Bokeh) etc. Nichtsdestoweniger kann man mit geeigneten Kameras und Objektiven bei entsprechend ordnungsgemäßer Aufnahme Abbilder erzeugen, die einen sehr realistischen Eindruck machen.

Einordnung der Photographie[Bearbeiten]

Allgemeine Einordnung[Bearbeiten]

Die Photographie steht zwischen den Naturwissenschaften und den Kunstwissenschaften, das heißt, man kann aus zwei Seiten auf das Fachgebiet schauen. Aus naturwissenschaftlicher Sicht gehört die Photographie am ehesten in den Bereich der Physik, mit dem zentralen Element der Optik. Die analoge Photographie hat auch einen gewissen Bezug zur Chemie (das Aufnehmen eines Photos auf einen Film sowie die Entwicklung desselbigen ist ein chemischer Vorgang), während die digitale Photographie einen recht großen Bezug zur Oberflächenphysik, Mikroelektronik und Informatik besitzt (hinter vielen Kamerafunktionen und Hilfsprogrammen verbergen sich ausgereifte Programme).

Aus künstlerischer Sicht gehört die Photographie im Grunde der Bildenden Kunst an und steht dort dann unter anderem neben Malerei, Graphik, Plastik und Kunstgewerbe. Insbesondere der Bezug zur Malerei ist durchaus eng. Die Photographie wird manchmal auch zur Kommunikations- und Medientechnik gezählt - eine klare Zuordnung zu einem ganz bestimmten Gebiet ist daher, vor allem wegen ihrer Vielfältigkeit, kaum möglich. Die Zuordnung kann sich auch oder vor allem durch die Zielsetzungen des Photographen ergeben.


Abgrenzung zu anderen Kunstformen[Bearbeiten]

Die Photographie hat unter anderem einen engen Bezug zur Malerei und zum Film, obgleich sie ein in sich geschlossenes Gebiet der Bildenden Kunst darstellt.

Im Gegensatz zur Malerei sind mit der Photographie realistische Abbilder möglich und die Photographie kann somit als eine Erweiterung der klassischen Malerei gesehen werden. Mittels photographischer Techniken und digitaler Bildbearbeitung kann die Photographie aber im Grunde alles, was auch die Malerei kann. Ein wesentlicher Unterschied ist jedoch, dass ein Maler aus der Instanz heraus ein beliebiges Bild schaffen kann, ganz nach eigenen Wünschen und Vorstellungen. Ein Photograph muss hingegen nach einem geeigneten Motiv suchen; er muss mit dem Vorlieb nehmen, was sich ihm gerade in der Umwelt anbietet. Insofern unterscheiden sich Malerei und Photographie erheblich. Das Auffinden geeigneter Motive und deren Anordnung in einem Bild ist damit ein ganz entscheidender Punkt in der (künstlerischen) Photographie.

Vektorisierte Photographie eines Vogelkopfes

Die Malerei bedient sich manchmal der Photographie. So können Photographien als Vorlagen oder Inspiration für Gemälde verwendet werden. Manche Künstler lassen Photos auch großformatig drucken und übermalen sie dann. Es können auf diese Weise Gemälde geschaffen werden, bei denen Perspektive und Anordnung der Elemente sehr realistisch sind. Bevor die Photographie allgemein gebräuchlich war, gab es besonders für Landschaftsmaler bereits perspektivische Hilfskonstruktionen, die ebenfalls eine realistische Abbildung ermöglicht haben. Diese Methoden sind auch für Einsteiger in die Malerei hilfreiche Mittel. Die älteren Hilfskonstruktionen zur perspektivischen Malerei haben sich auch bei Programmen etabliert, mit welchen versucht wird, allein mit dem Rechner realistische Szenen zu berechnen und darzustellen. So ergibt sich in dieser pseudorealistischen 'Computermalerei' auch ein interessanter Kontrapunkt zur intensiven Nachbearbeitung von Photographien, die dann oft zur Folge hat, dass nachbearbeitete Photographien weniger realistisch abbilden, aber neue, freiere Bildkompositionen bieten, die sich wiederum in einigen Ausprägungen der Malerei nach Bildvorlage annähern. Durch die Vektorisierung von Photos ist es ferner auch möglich, mehr oder weniger stark abstrahierte, comic-artige Darstellungen zu erreichen. Diese können dann zum Beispiel den abstrahierten Drucken von Andy Warhol ähneln, welcher oft ebenfalls von Photographien ausgegangen ist. Die einzige 'Digitalisierung' bei ihm bestand allerdings wohl im Siebdruck, dessen Effekte wiederum von Roy Lichtenstein aufgenommen wurden, um gezielt verfremdete Bilder zu erschaffen. So gibt es also eine kontinuierliche gegenseitige Beeinflussung zwischen Malerei und Graphik auf der einen Seite und Photographie auf der anderen, wobei die Übergänge an einigen Stellen fließend werden.

Der Film, der nicht mehr zur Bildenden Kunst, sondern zur Darstellenden Kunst gehört, wird auch gern mit der Photographie verglichen, vermutlich weil er sich gewissermaßen aus der Photographie heraus entwickelt hat ("bewegte Bilder"). In der Tat gibt es durchaus Gemeinsamkeiten.

Die Optik der Kameras, auch die Sensoren sind ähnlich oder sogar gleich, technisch sind die Ähnlichkeiten so groß, dass es heute oft bereits möglich ist, mit digitalen Photokameras kürzere Filme in HDTV-Auflösung zu drehen, umgedreht können mit Filmkameras oft Photos mit allerdings geringer Pixelzahl aufgenommen werden. Aufgrund der hervorragenden Bildqualität digitaler Sensoren von Spiegelreflexkameras im Kleinbildformat und der großen Auswahl an Objektiven werden sogar zunehmend professionelle Filme mit diesen Kameras aufgenommen.

Filme werden wie Photos über eine Kamera aufgenommen, sie zeigen Abbildungen aus unserer Lebenswelt, sie können aus künstlerischer und angewandter Sicht betrachtet werden und die Trickkiste zur künstlerischen Gestaltung ist ebenso groß wie bei der Photographie (wahrscheinlich ist sie sogar noch um einiges größer).

Tatsächlich gibt es aber auch große Unterschiede zwischen Photographie und Film. Ein Photo soll ganz bewusst einen Moment, einen kurzen Augenblick, festhalten, während ein Film genau das Gegenteil bewirken soll, nämlich eine Handlung beziehungsweise zeitliche oder räumliche Bewegung darzustellen. Im Film verschmelzen meist viele Künste, zum Beispiel Musik/Ton, Bild und Handlung (Literatur), während Photos reine Elemente der Bildenden Kunst sind.

Aus technischer Sicht sind sich Film und Photographie hingegen sehr ähnlich; Brennweite, Blende, Empfindlichkeit, Filmformat, Bildauflösung etc. sind nicht nur Kernbestandteile der Photographie, sondern auch des Films. Da bei einem Film allerdings viele Bilder, etwa 24 pro Sekunde, dargestellt werden, ist es nicht unbedingt notwendig, dass bei jedem Bild etwa bei Bewegungen Bewegungsunschärfen vermieden werden muß. Das menschliche Gehirn kann nicht nur aus den 24 Bildern pro Sekunde eine kontinuierliche Bewegung interpolieren, sondern auch solche Bewegungsunschärfen kompensieren...

Kunstformübergreifende Photographie[Bearbeiten]

Die Photographie ist eine in sich geschlossene Form der Kunst. Die Kombination der Photographie mit anderen Kunstrichtungen erscheint möglicherweise untypisch, ist aber grundsätzlich möglich und in der Praxis auch häufig anzutreffen. Die Bildergeschichte oder der Bilderroman ist ein Paradebeispiel, wo Photographie (Bildende Kunst) und Epik (Literarische Kunst) verschmelzen. Auf einigen Video-Plattformen wie YouTube kann man beobachten, dass zu einem Lied ein Video eingeblendet ist, das verschiedene Photos zeigt (Diaschau). In diesem Fall verschmelzen Musik und Photographie. In der vierten großen Kunstrichtung, der Darstellenden Künste, kann Photographie ebenfalls vorkommen, zum Beispiel als Kulisse beim Theater oder Film.


Unterteilung der Photographie[Bearbeiten]

Arten der Unterteilung[Bearbeiten]

Photographie kann aus verschiedenen Gesichtspunkten klassifiziert werden. Man unterscheidet in der Theorie gern zwischen angewandter und künstlerischer Photographie, in der Praxis eher zwischen Analog- und Digitalphotographie, und besonders oft unterscheidet man zwischen den einzelnen Genres der Photographie.


Angewandte und Künstlerische Photographie[Bearbeiten]

Die angewandte Photographie betrachtet die Photographie aus ökonomischen und kommerziellen Gesichtspunkten. Der Begriff angewandt wird hier auch in dem Sinne verwendet, dass das Photo letztlich Mittel zum Zweck ist und nicht primäres Ziel des Photographierens.

Bekannte Beispiele sind hierbei Werbeaufnahmen, Modeaufnahmen, Porträtaufnahmen beim Photographen, dokumentarische Aufnahmen (zum Beispiel Vorher-Nachher-Aufnahmen, Aufnahmen bei Verkehrsunfällen, Aufnahme von Bauland/Grundstücken etc.) und Sachphotos. Photographie wird hierbei seltener aus künstlerischer oder kreativer Sicht betrachtet, sondern es geht darum, ein Bild für einen ganz bestimmten Zweck aufzunehmen. Berufsphotographen gehören immer auch der angewandten Photographie an, aber auch viele Hobby-Photographen werden bisweilen im Bereich der angewandten Photographie tätig sein (bereits das Photographieren eines Produkts, das im Internet versteigert werden soll, gehört in diesen Bereich). In der angewandten Photographie ist der Photograph in hohem Maß von seinem Auftraggeber abhängig, oder, falls er freiberuflich arbeitet, von seiner Zielgruppe.

Die künstlerische Photographie (auch Photokunst) betrachtet die Photographie als Kunst und hat keine oder maximal nur geringe kommerzielle Absichten. Um die Abgrenzung noch zu verkomplizieren, ist auch zu bedenken, dass mit Kunst von wenigen Künstlern recht viel Geld verdient werden kann, die Motivation zu künstlerischen Schaffen also auch eine kommerzielle sein kann. Bei Kunstwerken ist es jedenfalls primäres Ziel des Handelns, das Werk selbst zu erschaffen und damit gegebenenfalls direkte Wirkung beim Betrachter zu erreichen. Das Werk ist also vorrangig Selbstzweck und ist nicht Mittel zum Zweck.

Viele Menschen, die photographieren, werden den Bereich der Künstlerischen Photographie anstreben. Typische Aufnahmen sind hierbei beispielweise Reiseaufnahmen, Alltagsaufnahmen (Familie, Kinder, Festivals, Ausflüge, Schnappschüsse, Feuerwerk, Sonnenuntergang etc.), aber zum Beispiel auch professionelle Landschafts-, Tier-, Architektur- oder Porträtaufnahmen, sofern kein wirtschaftlicher Nutzen im Vordergrund steht. Photographen der Künstlerischen Photographie sind weder von Auftraggebern und Zielpublikum abhängig, sie haben also unbegrenzte Möglichkeiten. Gerade im Bereich der Photokunst gibt es auch Strömungen hin zum Einfachen, Suboptimalen, etwa zu Lochkameras oder Einzellinsen-Objektiven oder mit einem sogenannten 'Lensbaby', mit dem sich kaum reproduzierbare Bildergebnisse erzielen lassen.


Die meisten Menschen, die heute mit Kompaktkamera oder Mobiltelephon Aufnahmen machen, werden damit weder einen besonderen kommerziellen noch künstlerischen Anspruch verfolgen. Sie tun das einfach zum Spaß oder um etwas zur Erinnerung zu dokumentieren oder auch einfach, um das Bild direkt nach der Aufnahme herumzuzeigen, um sich über irgendetwas mit den Mitmenschen unterhalten zu können. Von daher können die Bilder nur Mittel zum Zweck sein, also angewandt sein, ohne allerdings kommerziell zu sein. Mit der nächsten Aufnahme kann aber bereits wieder das Werk selbst im Mittelpunkt stehen.

All dies schließt also nicht aus, dass man mit den gleichen Geräten auch Bilder aufnehmen kann, die für die beiden anderen Kategorien reichen. Allein die Motivation der Akteure läßt sich weder unter kommerzieller Nutzung noch unter Kunst einordnen. Diese Alltagsaufnahmen sind gleichwohl im rechtlichen Sinne Werke, was auch einen weiteren Beitrag zum ewigen Thema liefert, was Kunst eigentlich ist.


Selbst wenn sich angewandte und künstlerische Photographie als solches klar abgrenzen ließen, können ihnen keine Genres eineindeutig zugeordnet werden. Fast jedes photographische Genre kann also in der angewandten und in der künstlerischen Photographie Gegenstand sein.

Analoge und Digitale Photographie[Bearbeiten]

Die analoge Photographie ist die klassische Photographie, bei der das Photo entsteht, indem Licht auf ein lichtempfindliches Material (Film) trifft und sich dieses derart verändert, dass man mittels chemischer Verfahren daraus ein Bild erzeugen kann. Die analoge Photographie hatte ihren Höhepunkt von etwa 1840 bis 2000, danach nahm ihre Bedeutung durch die sich rasant entwickelnde Digitalphotographie stetig ab. Einige Photographen sind aber noch immer im Bereich der Analogphotographie tätig und Filme unterschiedlichster Art und Preisklasse werden noch immer in verschiedenen Geschäften angeboten.

Bei der digitalen Photographie wird das Bild von einem Bildsensor aufgenommen und direkt in elektronischer Form (Bilddatei) gespeichert. Es liegt also unmittelbar nach der Aufnahme als digitales Bild vor. Dieses Verfahren macht es möglich, dass man sich das Photo sofort auf dem Kamerabildschirm anschauen kann, da es nicht erst noch entwickelt werden muss. Man kann das Photo auch sofort bewerten und gegebenenfalls erneut aufnehmen, falls man mit dem Resultat nicht zufrieden ist. Ein weiterer Vorteil ist, dass man das Bild schnell in andere elektronische Medien (zum Beispiel Computer) übertragen kann. Zudem zeichnet sich die Digitalphotographie meist durch eine recht einfache Bedienung und sehr geringe laufende Kosten aus (Film- und Entwicklungskosten fallen nicht mehr an, sofern man keine Abzüge macht).

Dieses Buch wird sich auf die digitale Photographie konzentrieren, wobei jedoch an gegebener Stelle auch auf die analoge Photographie eingegangen wird.

Schwarzweiß- und Farbphotographie[Bearbeiten]

Mit den Anfängen der Farbphotographie in den 40er Jahren hat man oft zwischen Schwarzweißphotographie und Farbphotographie (beziehungsweise Schwarzweißfilm und Farbfilm) unterschieden. Jedenfalls ging es schon immer bei der Schwarzweißphotographie darum, die einfallende Lichtmenge zumeist in Grauwerten darzustellen, der Begriff ist also eigentlich irreführend. Der Unterschied zwische Farbe oder nur Lichtmenge wird heute kaum mehr vorgenommen, da aktuelle Kameras automatisch Farbphotos aufnehmen. Es gibt allerdings auch digitale Spezialkameras mit hoher Empfindlichkeit, welche dafür auf Farbinformationen verzichten. Mehr als beim klassischen Filmaterial hat die Fähigkeit in Farbe aufzunehmen deutlichen Einfluß auf Empfindlichkeit und Auflösung der Kamera, weil bei den meisten Sensoren die verschiedenen Farbpixel nebeneinander angeordnet sind und jeweils mit Farbfiltern ausgestattet sind. Ein Großteil des auf dem Sensor ankommenden Lichtes wird also für die Aufnahme gar nicht verwendet. Trotz der eigentlich höheren Empfindlichkeit der digitalen Sensoren gegenüber den Filmen reduziert dies die Empfindlichkeit auf ein ähnliches Niveau, was in den besten Fällen auch auf die Auflösung zutrifft.

Lediglich beim Resultat wird noch immer zwischen Farb- und 'Schwarzweißphoto' unterschieden. Ein 'Schwarzweißphoto' welches mit einem Farbsensor aufgenommen wird, verschenkt allerdings gegen einen Sensor, der nur die Lichtmenge aufnimmt, sehr viel Empfindlichkeit. Eine dritte, recht neumodische Art, ist Sepia, ein Photo in gelblich-braunen Tönen, das den Eindruck eines alten Photos macht - dies ist aber eigentlich das gleiche wie ein 'Schwarzweißphoto', es ist danach nur wieder eingefärbt worden.


Photographische Genres[Bearbeiten]

Grundlagen[Bearbeiten]

Eine Vielzahl von Genres orientiert sich daran, was abgebildet wird, das heißt was das Motiv des Bildes ist (zum Beispiel Landschaftsphotographie, Porträtphotographie, Sachphotographie, Industriephotographie). Einige Gebiete hingegen orientieren sich eher am wie, zum Beispiel wie ein Motiv aufgenommen wird beziehungsweise unter welchen Bedingungen und Umständen die Aufnahme stattfindet (zum Beispiel Makrophotographie, Reportagephotographie, Abstrakte Photographie). Es scheint leider keine genaue Bezeichnung für diese Unterscheidung zu geben, daher sollen an dieser Stelle die Begriffe motivbezogene Genres und übergeordnete Genres verwendet werden. Dabei muss bedacht werden, dass manche Genres Merkmale beider Gruppen aufweisen (zum Beispiel Nachtphotographie und Unterwasserphotographie, wo man "Nacht" und "Unterwasser" sowohl als Motiv als auch als Umstand/Aufnahmeweise/Phototechnik sehen kann). Die übergeordneten Genres haben allesamt einen engen Bezug zu einigen (manchmal auch fast allen) motivbezogenen Genres.


Überblick[Bearbeiten]

Überblick und Klassifikation der verschiedenen Genres

Die Wikipedia-Kategorie "Genre der Fotografie", welche diesem Abschnitt zu Grunde gelegt wurde, listet mehr als 40 Genres auf, wobei einige bekannte Genres jedoch fehlen. Man kommt damit schnell auf 50 oder noch mehr Genres. Einige Genres sind sehr bekannt und relativ klar definiert (zum Beispiel Landschaftsphotographie, Architekturphotographie, Sportphotographie), andere sind nur wenig bekannt und weniger klar definiert (zum Beispiel Konkrete Photographie, Experimentelle Photographie). Für den Einstieg in die Photographie ist damit nur eine kleine Anzahl an Genres relevant, es soll aber trotzdem ein umfassender Überblick über die einzelnen Genres gegeben werden.

Es scheint, dass bisher nur wenig Material zur Klassifikation von Photogenres existiert. Die nebenstehende Skizze wurde im Rahmen dieses Buchprojekts angefertigt und ist eine Möglichkeit der Anordnung ausgewählter Genres. Sie kann nur als Orientierung beziehungsweise grobe Übersicht gesehen werden, eben weil die Genres oft unscharf definiert sind beziehungsweise sich schwer abgrenzen lassen.

Das Besondere an dem Schema ist, dass es die Beziehung der Genres untereinander hervorhebt, während in anderen Quellen die Genres sonst oft einfach nach Bedeutung oder Alphabet aufgelistet werden. Für den Einsteiger sollte es damit leichter sein, einen schnellen Überblick der Genres zu gewinnen. Sie werden aber im nächsten Abschnitt auch noch einmal textuell kurz erläutert.

Die dunkelblauen Ellipsen stellen die wichtigsten motivbezogenen Genres dar, die hellblauen Ellipsen weniger bekannte Genres (Spezialgenres). Die gelben Ellipsen stellen analog wichtige übergeordnete (technik-bezogene) Genres dar. Die links im Bild angeordneten orangen Ellipsen stellen übergeordnete Genres dar, die fast alle anderen Genres enthalten können (universelle Genres). Bei diesen Genres wurde darauf verzichtet, die Beziehungen zu anderen Genres einzutragen, da dies das Schema sehr unübersichtlich gemacht hätte.

Kanten (Pfeile) stellen Beziehungen zwischen Genres dar. Ein durchgezogener Pfeil zeigt ein Subgenre an (Teilmenge, Untergattung), was jedoch nicht heißt, dass dieses nicht gleichzeitig auch Subgenre eines anderen Genres sein könnte (Polyhierarchie). Eine gestrichelte Linie besagt, dass es zwar eine deutliche Beziehung zwischen beiden Genres gibt, jedoch nicht unbedingt von einer Untermengen-Beziehung gesprochen werden kann. So gibt es eine enge Beziehung zwischen Architektur- und Industriephotographie, die Industriephotographie ist aber keine echte Untergattung der Architekturphotographie, da sie andere Zielstellungen und Methodiken verfolgt. Am Beispiel von Straßenphotographie und Porträtphotographie wird die Beziehung ebenfalls deutlich. Es gibt gewisse Gemeinsamkeiten (Abbildung von Personen), aber auch deutliche Unterschiede (ungestellte, alltägliche Aufnahmen in Städten bei der Straßenphotographie). Punktierte Linien zeigen eine Beziehung zwischen übergeordneten Genres und motivbezogenen Genres an. Eine punktierte Linie, die sich auf ein gewisses Genre bezieht, bezieht sich dann auch automatisch auf dessen Subgenres, um die Zahl der Kanten in dem Bild gering zu halten. Die Kante zwischen Reisephotographie und Landschaftsphotographie besagt damit, dass Landschaftsphotographie ein typisches Genre der Reisephotographie ist, ebenso aber auch die Subgenres Natur- und Tierphotographie.

Durchgezogene und gestrichelte Kanten treten somit zwischen den motivbezogenen Genres auf sowie zwischen den übergeordneten Genres. Punktierte Linien treten hingegen nur zwischen den beiden Grundarten von Genres auf, schlagen also gewissermaßen die Brücke zwischen motivbezogenen und übergeordneten Genres.


Motivbezogene Genres[Bearbeiten]

Typische Landschaftsphotographie.

Die Landschaftsphotographie ist ein weitreichendes Genre, das die Umwelt des Menschen zum Hauptgegenstand hat. Sie kann noch einmal in die einzelnen Jahreszeiten (Frühling, Sommer, Herbst, Winter) und einzelnen Landschaftstypen (Wald, Feld, Sand, Meer, Gebirge etc.) unterteilt werden, wobei diese Gebiete jedoch meist nicht als Genres betrachtet werden.

Tierphotographie (Rotkehlchen)

Die Naturphotographie kann als Untergenre der Landschaftsphotographie gesehen werden. Während letztere eher große Ausschnitte zeigt (sogenannte Übersichtsphotos), wird in der Naturphotographie eher ein kleiner Ausschnitt ausgewählt, zum Beispiel ein Baum, Blumen, Tiere etc. Bei der Abbildung von Tieren spricht man dann von der Tierphotographie (auch Wildlife-Photographie).

Unterwasserphotographie (Koralle vom Great Barrier Reef)

Werden Aufnahmen unter Wasser gemacht, so spricht man von der Unterwasserphotographie.

Astrophotographie (Mond)

Die Astrophotographie ist ein recht spezielles, unter manchen Hobby-Photographen aber sehr beliebtes Genre. Zudem hat es für wissenschaftliche Zwecke eine hohe Bedeutung. Unter dem Begriff versteht man nicht nur, wie der Name es andeutet, die Photographie von Sternen, sondern allgemein die von Objekten im Weltraum außerhalb der Erde. Das Genre lässt sich nur schwer in die Klassifikation einordnen. Einerseits scheint es zumindest im weitesten Sinne einen Bezug zur Landschafts- oder Naturphotographie zu besitzen, sofern jedenfalls die Auflösung der Bilder reicht, um Landschaften auf dem Mond, Planeten oder der Sonne darzustellen. Betrachtet man hingegen einige Himmelskörper als Gegenstände oder Sachen, so lässt sich ein gewisser (wenn auch ebenso vager) Bezug zur Sachphotographie feststellen. Am größten scheint noch der Bezug zur Nachtphotographie zu sein, da die Astrophotographie für gewöhnlich in der Nacht praktiziert wird, sofern nicht gerade die Sonne aufgenommen wird. Mond und Planeten, auch Sterne haben von der Erde aus gesehen eine relativ geringe Leuchtstärke, daher treten einige technische Probleme in der Nachtphotographie und der Astrophotographie ähnlich auf. Bei der Astrophotographie und bei den dabei oft notwendigen längeren Belichtungszeiten ist allerdings in der Regel spezielles technisches Gerät notwendig, um die Bewegungen der Erde und der beobachteten Himmelskörper automatisch nachzuführen. Zudem haben die Motive von der Erde aus gesehen immer einen sehr kleinen Blickwinkel, man benötigt also für formatfüllende Aufnahmen sehr lange Brennweiten. Zum dem Zwecke wird die Kamera oft auch über Adapter mit einem Teleskop verbunden. Aufgrund des großen Abstandes der Motive kann allerdings immer mit offener Blende gearbeitet werden.

Feuerwerks-Photographie)

Die Feuerwerks-Photographie ist ein im deutschsprachigen Raum wenig bekannter Begriff; die meisten Kameras bieten jedoch einen Feuerwerk-Modus, so dass man es auch als ein Genre betrachten kann. Diese wird oft mit Stativ und langen Belichtungszeiten betrieben, um die Spuren der Leuchtkörper aufnehmen zu können.

Porträt von Daguerre im Jahr 1844, Mitbegründer der modernen Photographie.

Die Porträtphotographie hat im klassischen Sinne Menschen zum Hauptgegenstand, im weiteren Sinne umfasst sie jedoch auch die Abbildung von Tieren (Tier-Porträt), so dass in diesem Fall die Tierphotographie sowohl Untergenre der Porträtphotographie als auch der Naturphotographie ist. Die Porträtphotographie zielt meist darauf ab, die Wesenszüge einer Person in einem Photo herauszuarbeiten beziehungsweise darzustellen.

Akt

Bekannte Untergenres sind Kinderphotographie, Gruppenphotographie, Hochzeitsphotographie und Aktphotographie. Im letzteren liegt der Schwerpunkt auf der Darstellung des menschlichen Körpers, nicht auf der Herausarbeitung der Charakteristik. Die Erotik-Photographie geht über die Aktphotographie hinaus, indem auch ein sexueller Bezug zu erkennen ist (dieser ist der Aktphotographie fremd). Im rechtlichen Sinne gibt es auch noch einen Unterschied zwischen Erotik-Photographie und Pornographie, wobei letztere gezielt sexuelle Interaktivität darstellt. Von daher kann sowohl die Motivwahl als auch die Veröffentlichungen von Pornographie rechtlichen Einschränkungen unterliegen, während dies bei Erotik nicht der Fall ist - im jedem Einzelfall ist also eine Beurteilung der korrekten Einordnung rechtlich relevant für den Photographen und die Personen, die die Aufnahmen veröffentlichen.

Planking

Planking ist eine neumodische photographische Erscheinung, bei der sich eine Person mit dem Gesicht nach unten und seitlich angelegten Armen in steifer Körperhaltung photographieren lässt. Die Theaterphotographie (Bühnenphotographie) zeigt Menschen und Kulissen auf der Bühne und hat damit ebenfalls einen gewissen Bezug zur Porträt-Photographie. Die Modephotographie bezeichnet das Photographieren von Kleidern und bekleideten Personen und steht damit etwas zwischen Porträt- und Sachphotographie, je nach dem ob der Schwerpunkt eher auf der Person oder den Kleidern liegt (zum Beispiel für einen Versandhauskatalog).

Die Eventphotographie ist ein eher unscharf definiertes Genre, das Photographien bezeichnet, die auf "Events" (also bei verschiedenen Ereignissen wie Stadtfeste, Konzerten etc.) beziehungsweise zu bestimmten Anlässen (zum Beispiel Hochzeit) aufgenommen werden. Als ein untergeordnetes Genre kann dabei die Konzertphotographie gesehen werden, welche das Photographieren speziell von Konzerten (und insbesondere den Künstlern beziehungsweise Musikern und des Publikums und der Aufbauten) zum Gegenstand hat.

Bahnhof in Lissabon - Beispiel für moderne Architektur.
Skulptur: Stahl 17/87 von Erich Hauser in Hannover (Spitzname: Stahlengel)

Die Architekturphotographie hat Bauwerke aller Art zum Gegenstand, darunter historische und moderne Gebäude, Skulpturen und Springbrunnen, Brücken, Staudämme, Industrieanlagen und vieles mehr. Innenaufnahmen und Architekturdetails (zum Beispiel Erker, Dachgaupen, Säulen, Tore, Torbögen, Gewölbe, Ornamente etc.) sind besonders beliebte Motive in der Architekturphotographie.

Food-Photographie (Curry-Wurst in Pappschale)

Die Sachphotographie bezeichnet die Abbildung von Gegenständen aller Art und bezieht sich häufig auf die Angewandte Photographie. Hierbei können beliebige Objekte abgebildet werden, zum Beispiel Artikel für einen Produkt- oder Versandhauskatalog. Im letzten Fall spricht man von der Produktphotographie, also der Abbildung jeglicher Produkte, die Ergebnisse eines Produktionsprozesses sind. Das wenig bekannte Gebiet Food-Photographie bezeichnet dabei das Photographieren von Lebensmitteln bis hin zu ganzen Menüs oder Imitationen derselben, meist zum Erstellen von Speisekarten, Netzwerk-Präsenzen von gastronomischen Unternehmen etc. Die Stillleben-Photographie hat einen ausgesprochen künstlerischen Charakter und fällt weniger in das Gebiet der Angewandten Photographie – sie bezeichnet die wohlüberlegte Auswahl und Anordnung verschiedener, unbelebter Gegenstände in einem Photo.

Die Industriephotographie hat Industrieerzeugnisse sowie den Industrieprozess im Mittelpunkt. Sie hat damit einen gewissen Bezug zur Architekturphotographie und zur Sachphotographie.

Beispiel für Straßenphotographie.

Die Straßenphotographie ist ein Genre, das gewissermaßen zwischen Architektur- und Porträtphotographie steht und ein Abbild des alltäglichen, öffentlichen Lebens (vor allem in Städten) zum Ziel hat.

Übergeordnete Genres[Bearbeiten]

Die Nachtphotographie bezeichnet bei Nacht oder in der Dämmerung entstandene Photos. Sie hat einen Bezug zu vielen anderen Genres, vor allem Architektur-, Landschafts- und Straßenphotographie.

Die Reisephotographie umfasst auf Reisen aufgenommene Photos und hat einen engen Bezug zur Straßen- und Architekturphotographie, Landschafts- und Porträt-Photographie. Sie kann auch Teil der Dokumentarischen Photographie und Reportagephotographie sein.

Luftbildaufnahme von Hannover, 1945

Die Luftbildphotographie (manchmal auch einfach Luftphotographie) bezeichnet Bilder, die aus der Luft aufgenommen wurden, zum Beispiel aus einem Heißluftballon oder Flugzeug, oder aber von einem Hochhaus, Aussichtsturm oder Berg. Eine Sonderform ist die Satellitenphotographie, bei der Photos von einem Satelliten auf die Erde herab aufgenommen werden.

Panorama des Welfenschlosses in Hannover

Die Panoramaphotographie beschäftigt sich mit der Aufnahme von Panoramen, also von Photos mit sehr großem Bildwinkel (bis 360°-Bilder). Das sind typischerweise Stadtansichten oder Landschaften.

Insekten sind typische Motive der Makrophotographie.

Die Makrophotographie bezeichnet die volle Abbildung kleiner Gegenstände oder Lebewesen, etwa Blumen, Insekten, Spielfiguren etc. Bei Abbildungen von noch kleineren Motiven spricht man von der Mikrophotographie (Abbildung von Dingen, die mit bloßem Auge nicht mehr erkennbar sind).

Die Abstrakte Photographie (selten auch Gegenstandslose Photographie) beeindruckt durch Formen, Muster, Linien, Strukturen und besondere Farben. Es geht nicht mehr um den abgebildeten Gegenstand (dieser lässt sich in dem Photo oft auch kaum mehr erkennen), sondern rein um die Strukturen und Farben. In abstrakten Photos erkennt oft jeder Betrachter etwas Verschiedenes – das macht die abstrakte Photographie besonders interessant.

Die Konkrete Photographie ist nicht (!) das Gegenstück zur Abstrakten Photographie; sie zeichnet sich dadurch aus, dass sie mehr Wert auf die Interpretation eines Fotos beziehungsweise auf die dahinterliegende Bedeutung legt als auf die eigentliche Abbildung desselbigen. Ein Glas Wein kann somit beispielsweise auch Weisheit, Alter oder Alkoholabhängigkeit symbolisieren – liegt der Schwerpunkt eher auf der Bedeutung und Interpretation des Bildes, weniger auf der photographischen Darstellung des Weinglases, so spricht man von Konkreter Photographie. Manchmal können Konkrete und Abstrakte Photographie damit recht eng beieinander liegen (aus abstrakten Photos lassen sich oft auch interessante Dinge interpretieren).

Die Subjektive Photographie hat einen engen Bezug zur Abstrakten und Konkreten Photographie. Ihr geht es, wie bei der Abstrakten Photographie, nicht um Gegenstände, sondern rein um die Wirkung von Formen und Mustern. Wie bei der Konkreten Photographie spielt die Interpretation des Bildes eine sehr große Rolle.

Die Gegenständliche Photographie ist ein weitreichendes, nur wenig bekanntes Genre. In Anlehnung an "Gegenständliche Kunst" bezeichnet es das Gegenstück zur Abstrakten Photographie. Photos der Gegenständlichen Photographie bilden also Gegenstände beziehungsweise Lebewesen aller Art (Menschen, Gebäude, Landschaften etc.) in mehr oder weniger realistischer Form ab. Der Betrachter soll sich an dem abgebildeten Motiv erfreuen, eine tiefere Intention des Künstlers besteht nicht.

Die Experimentelle Photographie ist ein besonders künstlerisches Genre, bei der durch Experimente mit Belichtungszeit, Blende und Brennweite sowie durch spezielle Kamerahaltung und Bildbearbeitung künstlerisch ausgefallene Photos entstehen. Zum Einsatz kommen hier auch besondere Linsenkonstruktionen und Kameras, um zum Beispiel Abbildungsfehler oder -eigenschaften der verwendeten Objektive gezielt zu nutzen, um besondere Effekte zu erzielen. Je nach Verfahren können diese auch in den Bereich der Abstrakten Photographie fallen.

Die Dokumentarphotographie strebt die möglichst exakte Darstellung des Motivs in einem Photo an, hat jedoch eine konkrete Aussagekraft, meist mit sozialkritischem Ausdruck. Eine Dokumentarphotographie kann dabei politische, gesellschaftskritische oder kulturelle Aussagekraft besitzen. Sie enthält eine Botschaft, die über den eigentlichen Text einer Dokumentation hinausgeht. Eine Untergattung ist die Straight Photography (Reine Photographie), bei der die Bilder so realistisch wie möglich sein sollen (keine Unschärfe, keine Nachbearbeitung), wo jedoch meist keine konkrete Aussagekraft beziehungsweise Intention vorliegt. Die Wissenschaftliche Photographie meint Photographie zum Zweck der Analyse und Dokumentation. Sie möchte meist sehr präzise, realistische Bilder bewirken und verfolgt sehr individuelle Ziele. Je nach wissenschaftlicher oder technischer Ausrichtung kann es rein darum gehen, Resulate zu dokumentieren (Archäologie, Biologie). Es besteht aber auch die Möglichkeit mit geeignetem Gerät anhand der Aufnahmen nachträglich Vermessungen von Objektproportionen vorzunehmen. Wissenschaftliche Photographie fällt damit ins Gebiet der Angewandten Photographie.

Die Reportagephotographie (auch Photojournalismus oder Bildberichterstattung) hat die Photographie von verschiedenen Ereignissen im Sinne der Berichterstattung zum Gegenstand. Sie bezieht sich meist auf Politik, Wirtschaft und Gesellschaft und arbeitet eng mit Nachrichtenagenturen und Printmedien-Agenturen zusammen.

Die Werbephotographie stellt Objekte für Werbezwecke dar und wird meist von Werbeagenturen in Auftrag gegeben. Dabei kann sie fast jedes photographischen Genres bedienen, da es bei Werbephotographie vor allem auch darum geht, abstrakte Dinge wie Gesundheit, Sport, Sicherheit, Kraft etc. in einem Photo mit geeigneten Mitteln auszudrücken.

Die Tabletop-Photographie (Aufnahmen von Objekten, die auf einem Tisch angeordnet sind) bezeichnet ein Genre, bei der einfache Gegenstände auf einer meist weißen, geraden Oberfläche (zum Beispiel auf einem Tisch) in einfachster Weise abgebildet werden. Sie hat damit einen engen Bezug zur Sach-, Produkt- und Werbephotographie. Es können allerdings auch durch Variation der aufgenommenen Objekte Bildergeschichten erzählt werden, wodurch sich wieder Verknüpfungen zu anderen Genres und Kunstgattungen ergeben.

Die Stock-Photographie ist ein sehr weites Genre, bei der Photos "auf Vorrat" (englisch: 'on stock') aufgenommen werden. Vor allem Fernsehsender und Zeitschriften sind an Stock-Photos interessiert, um für die Erstellung einer bestimmten Reportage beziehungsweise eines Artikels sofort entsprechende Photos zur Verfügung zu haben, ohne sie dann noch aufnehmen oder besorgen zu müssen. Im Internet existieren heute einige Projekte, die Millionen frei verfügbarer Bilder anbieten und somit als eine Art "Stock-Archiv" fungieren. Ein bekanntes Beispiel ist wikicommons. Bereits an dem Beispiel ist zu erkennen, dass die Bilder nicht notwendig für den Zweck der Bevorratung aufgenommen sein müssen, sie können auch unabhängig von diesem Zweck entstanden sein, wodurch sich praktisch eine Verknüpfung mit belieben anderen Genres ergeben kann. Werden wirklich Photos rein auf Vorrat gemacht, werden diese meist komplett losgelöst von sonstigem Kontext aufgenommen, um eine Verwendung in beliebigem Zusammenhang zu erleichtern.


Gesellschaftliche Aspekte, Vorteile, Nachteile[Bearbeiten]

Bedeutung in der Gesellschaft[Bearbeiten]

Die Photographie hat heute eine sehr hohe Bedeutung und Verbreitung, wobei diese manchmal als solches gar nicht bewusst wahrgenommen wird. Fast jede Person besitzt eine Kamera und hat bereits einmal Photos aufgenommen; ein großer Teil wird sogar regelmäßig Photos aufnehmen. Wer Photos aufnimmt, agiert im Bereich der Bildenden Kunst, auch wenn er oder sie dies nicht als solches wahrnimmt. Es ist somit durchaus nicht falsch zu behaupten, dass die Bildende Kunst mit der hohen Verbreitung der digitalen Photographie seit Beginn des 21. Jahrhunderts eine Renaissance erfährt. An diesem Punkt knüpft auch hier einmal mehr die unendliche Diskussion an, was Kunst ist. Braucht es etwa immer einen Menschen als Künstler oder ist es plötzlich keine Kunst mehr, wenn die Aufnahmen rein von Maschinen aufgenommen werden? Im rechtlichen Sinne braucht es immer einen Urheber, um ein schützenswertes (Kunst-)Werk entstehen zu lassen. Werden Photos von Menschen gemacht, wird diesen generell ein Werk-Charakter zuerkannt, den Aufnahme von Maschinen hingegen folgerichtig nicht, auch wenn diese manchem Schnappschuss gegenüber deutlich überzeugendere Ergebnisse liefern mögen.

Photos beziehungsweise Bilder werden visuell vom Menschen wahrgenommen, das heißt, ähnlich wie Text mit den Augen erfasst. Anders als Text kann das menschliche Auge ein gewöhnliches Bild jedoch innerhalb etwa einer Sekunde vollständig wahrnehmen und erfassen, während es schon für einen einzelnen Satz mehrere Sekunden benötigt (und oft auch etwas Zeit, um den Satz gedanklich zu verstehen). Aus diesem Grund nehmen wir Photos deutlich intensiver wahr und werden durch sie eher aufmerksam gemacht als durch (längere) Texte. Für die Marketingabteilungen der Unternehmen und Institutionen sowie für die Medien spielt diese Erkenntnisse eine große Rolle; eine Welt ohne Bilder ist kaum mehr vorstellbar.

Allerdings läßt sich der Spruch, 'ein Bild ersetzt tausend Worte' auch umkehren, ein paar wohldurchdachte Worte können auch tausende von Bildern ersetzen, wenn sie zentrale Ideen vermitteln. Das menschliche Gehirn ersetzt gesehene Objekte ohnehin durch Ideen, Sprache ist also in gewisser Weise eine Abkürzung gegenüber der Abbildung. Allerdings vermag man mit Bildern auch gut in jenen Bereich des Gehirns vordringen, wo aus gesehenen Objekten Ideen identifiziert werden, von daher kann es so einfacher gelingen, Botschaften am Bewußtsein vorbei ins Gehirn dringen zu lassen.

Eine besondere Brisanz haben Bilder auch hinsichtlich der Zugänglichkeit und Barrierefreiheit von Information, weil sie anders als digitale Textinformation nur schlecht barrierefrei zugänglich zu machen sind. Besonders bei Veröffentlichungen im Internet ist der Autor somit auch immer gefordert, gleichzeitig äquivalente Texte anzubieten, um die beabsichtigte Information allgemein zugänglich zu machen. Das Veröffentlichen von Photos in diesem Sinne schult also auch die Fähigkeit, die Funktion von Bildern einzuordnen und damit auch die Ideen und Vorstellungen explizit zu formulieren, welche mit den Bildern vermittelt werden sollen. Solche semantischen Äquivalente können ganz allgemein sehr wichtig sein, um bei der Interpretation von Intentionen und Absichten zu helfen. Die Vorschläge hinsichtlich der Zugänglichkeit von Information und auch das dominierende Format (X)HTML formuliert die Äquivalenz sogar so stark, dass Pixelbilder ohne Textalternative keine inhaltliche Relevanz haben, also per Definition rein dekorativ sind. Verzichtet ein Autor also auf eine Textrepräsentation bei einer Veröffentlichung im Internet, so bringt er damit explizit zum Ausdruck, dass mit dem Bild keine Intention oder inhaltlich relevante Information verbunden ist, dass es rein dekorativ ist.

Photos als Information[Bearbeiten]

Photographien können wie Texte und Klänge allgemein als Informationen aufgefasst werden; es gibt demnach eine syntaktische, semantische und pragmatische Sichtweise auf Photos.

Betrachtet man Photos syntaktisch, so sind sie einfach eine Anordnung von Bildpunkten (Pixeln), die unterschiedliche Farben aufweisen. Man kann auf dieser Ebene verschiedene Analysen durchführen (zum Beispiel Farbverlauf, Farbverteilung, Kontrast etc.). Auf semantischer Ebene sieht man die Bedeutung eines Photos. Hier betrachtet man nicht mehr die Bildpunkte, sondern das, was diese eigentlich zeigen, zum Beispiel ein Hochhaus, eine Berglandschaft, eine Person etc. Dies impliziert im menschlichen Gehirn einem komplexen Prozess, bei dem der Farbverteilung die Abbildung von Objekten zugeordnet werden. Diese Abbildungen werden wiederum mit den abgebildeten Objekten assoziiert. Auf dieser Ebene werden Photos für gewöhnlich Genres zugeordnet. Darüber schließt sich die pragmatische Ebene an, welche die Wirkung des Photos bezeichnet. Diese ist individuell verschieden, bei jedem Menschen kann sich beim Betrachten des Photos eine andere Wirkung einstellen. Das Photo kann als schön oder unschön empfunden werden, als interessant, abstoßend, verwirrend, imposant etc. Es können also jeweils andere Ideen, Interpretationen und Emotionen mit dem Dargestellten assoziiert oder hervorgerufen werden.

Bei Photos geht es oft um die pragmatische Ebene; der Künstler möchte mit seinen Photos eine bestimmte Wirkung erzielen, wobei ein schön anzuschauendes Photo oft, aber bei weitem nicht immer, das Ziel ist. Darin unterscheiden sich Photos nicht allzu sehr von Texten, wo es ebenfalls einerseits um die Bedeutung (Semantik) geht, gleichzeitig aber zumeist auch eine konkrete Wirkung beabsichtigt ist. In der Werbe- und Modephotographie soll ein Photo vor allem Aufmerksamkeit erregen und Interesse beim Betrachter auslösen. Photos können auch eine politische Aussage haben, gesellschaftliche und soziale Missstände ausdrücken oder eine historische Aussagekraft besitzen - die Möglichkeiten auf pragmatischer Ebene sind nahezu unendlich.


Auswirkungen, Nutzen[Bearbeiten]

Viele Personen haben heute stets eine Digitalkamera bei sich, oft auch in Form eines Mobiltelephonen mit eingebauter Kamera. Ein Phänomen ist daher die ab etwa 2000 deutlich gestiegene Meldung und Dokumentation von Ereignissen, zum Beispiel Naturkatastrophen und Unglücken. Hier können Photos und Videos zur Aufklärung erheblich mit beitragen, durch die Betonung spektakulärer Ereignisse aber auch die Wahrnehmung für 'das Normale' verzerren, denn es werden natürlich viel mehr Bilder veröffentlicht, auf denen etwas Außergewöhnliches passiert als solche, die nichts Außergewöhnliches zeigen. Überspitzt könnte man also auch formulieren, normal ist, was nicht abgelichtet wird.

Wie bereits erläutert, hat die Photographie im Bereich der angewandten Photographie eine hohe kommerzielle Bedeutung, zum Beispiel für Werbeaufnahmen, Produktkataloge und Dokumentation. Hier hat sie fast alle Bereiche des Lebens erobert. Photos werden auch gern zur Dekoration benutzt, zum Beispiel im Wohnzimmer, in Restaurants und öffentlichen Sälen, in Korridoren etc.

Da Photos vom Menschen sehr stark wahrgenommen werden, bieten sie sich oft auch an, auf verschiedene (gesellschaftliche) Probleme hinzuweisen. Sozialkritische Photos, wie man sie manchmal in Zeitungen und Magazinen findet, können einen hohen Einfluss auf den Betrachter haben. In den Medien veröffentlichte Bilder und Videos von Krisengebieten haben somit manchmal ungewöhnlich hohe Spendenbereitschaft ausgelöst, die durch rein textuelle Berichterstattung womöglich nicht entstanden wäre.

In der Künstlerischen Fotografie sind Photos das Resultat künstlerischen und individuellen Schaffens und haben somit im Allgemeinen einen hohen persönlichen Wert. Photos speichern vor allem auch Erinnerungen und sind als solches unbezahlbar. Ein verlorengegangenes Erinnerungsbild kann im Grunde nicht wiederhergestellt werden, da Photos stets einen Ausschnitt der Vergangenheit festhalten.

Darüber hinaus schätzen viele (Hobby-)Photographen natürlich den künstlerischen Aspekt. Es gibt viele Methoden, professionelle und beeindruckende Photos aufzunehmen, genauso spannend kann es aber sein, durch Ausprobieren und Nachbearbeiten interessante Resultate zu schaffen. Nach dem Aufnehmen teilen viele Photographen ihre Werke gern mit anderen Menschen, weshalb im Internet eine Vielzahl an Photo-Plattformen existieren. Das Archivieren von Photos spielt dabei eine große Rolle, da man bei vielen Aufnahmen schnell den Überblick verlieren kann.

Einige Photographen ziehen es vor, ihre Photos nicht zu veröffentlichen. Auch für rein persönliche Zwecke gibt es eine Vielzahl an Möglichkeiten, wofür man die aufgenommenen Photos verwenden kann: In (digitalen) Bilderrahmen, als Diaschau, Bildschirmschoner oder Arbeitsflächenhintergrund des Rechners, zum Erstellen von Postern, Collagen und Photobüchern, die heute von vielen (Netzwerk-) Anbietern auf Wunsch gedruckt werden, zum Erstellen eines Familien- oder Urlaubalbums, als Grundlage für Zeichnungen und Gemälde (Verschmelzung von Photographie und Malerei), zum Bedrucken von T-Shirts, zum Gestalten von Internet-Projekten oder Präsentationen und für viele andere Sachen.


Probleme, Missstände[Bearbeiten]

Einige Kritiker sehen mit der aufkommenden Massenphotographie ein gesellschaftliches Problem. Auf Photo-Seiten und in privaten Archiven lagern oft derart viele Photos, dass man diese kaum mehr überblicken kann; Besucher solcher Seiten bekommen keine Auswahl bemerkenswerter Photos, sondern müssen selbst eine Auswahl treffen. Das Thema Massenphotographie ist damit aber eher nur ein Teilaspekt des deutlich umfangreicheren Themas Informationsflut. In diesem Zusammenhang scheint die Qualität der Photographien unter Laien heute oft gering - während die Analogphotographie noch mit laufenden Kosten verbunden war und man sich wohl überlegt hat, was man photographiert und was nicht (und noch deutlich mehr darauf geachtet hat, ein möglichst gutes Bild zu erzielen), sind Schnappschüsse heute oft die Regel. Bedingt durch die Digitalisierung und der Möglichkeit aller, Information für alle im Internet anzubieten, sorgt die weite Verbreitung und Veröffentlichung von gezielt manipulierten Bildern auch für eine deutlich Verunsicherung des Publikums. Der ehemalige Anspruch journalistischer Bilder, einen weitgehend realistisches Abbild von Ereignissen und Aspekten der Welt zu bieten, wird heute mehr und mehr durch eine virtuelle Welt verdrängt, in der beliebige und synthetische Bilder Emotionen und Meinungen steuern können, ohne auf realen Gegebenheiten gründen zu müssen. Zudem ist für den Laien praktisch nicht überprüfbar, in welcher Weise die Bilder oder Nachbearbeitungen oder Kreationen unseren Eindruck von den Dingen manipulieren, welche sie darzustellen scheinen. Während bei Texten meist recht viel Zeit und Gelegenheit zur kritischen Reflexion bleibt, ist es gerade der direkte Einfluß der Bilder auf das Gehirn ohne bewußte Kontrolle, welche das Publikum überfordern können. Wer die Dinge nicht selbst untersucht und sich auf die Abbildungen anderer verläßt, kann ruhig den Mut haben, sich des eigenen Verstandes zu bedienen, wenn die Bilder von der Welt falsch und manipuliert sind, werden damit keine zutreffenden Schlüsse möglich sein.

Auch für kritische Zeitgenossen ergeben sich unmittelbare Konsequenzen - sofern möglich ist immer eine kritische, zweifelnde Distanz zum Dargestellten zu wahren. Das Photo verliert seinen Informationsanspruch und ist wie alles Menschenwerk als möglicherweise manipulative Meinungsäußerung einzustufen oder als reine Dekoration und Unterhaltung. Die Frage der Bewertung der Relevanz der Information verschiebt sich wie bei anderen Medien auch mehr hin zu den Personen, die die Abbildungen bereitstellen - sind diese vertrauenswürdig oder wie kann ihre Vertrauenswürdigkeit zuverlässig eingeschätzt werden? Je nach Thema der Auseinandersetzung ist das mehr oder weniger relevant. Glaubt man vielleicht, noch nicht weiter hinterfragen zu müssen, ob etwa eine Abbildung einer Sonnenblume eine solche zeigt, mag es teilweise schon brisant werden, wenn mehrere Personen auf einem Bild erscheinen - waren die wirklich einmal in der Vergangenheit so zusammen und wurde das wirklich mit der Aufnahme dokumentiert oder wurden die nur nachträglich zusammenmontiert? Und selbst beim Bild der Sonnenblume - sind die sichtbaren Details Artefakte einer Optimierung oder Nachbearbeitung des Bildes oder handelt es sich um Eigenschaften der Sonnenblume, die unabhängig von anderen Photographen reproduziert dargestellt werden können? Immerhin ähneln sich Sonnenblumen, was eine prinzipielle Überprüfung an ähnlichen Sonnenblumen ermöglicht. Bei Aufnahmen von einmaligen Ereignissen bleiben hingegen nur die Aufnahmen selbst, die forensisch untersucht werden könnten.

Die vermeintliche Nachweisbarkeit von Sachverhalten mit Photos kollidiert hier auch mit der Jahrtausende bewährten Lebenserfahrung, dass die Vergangenheit Vergangenheit bleibt und nicht objektivierbar wieder hervorzerrbar ist. Wie irgendein Photo eine Szene zeigt, haben sie die Beteiligten vielleicht gar nicht in Erinnerung. Was nur für den Moment gedacht war, witzig oder unterhaltsam war, war von den Beteiligten gar nicht für die 'Ewigkeit' bestimmt, findet sich aber plötzlich irgendwie für jeden zugänglich im Internet wieder. Wiegt plötzlich die scheinbar 'objektive Wahrheit' der Bilder schwerer als die eigene Bewertung? Führen die vielleicht nicht einmal zur Veröffentlichung autorisierten Bilder zu einer unerwünschten Bewertung der eigenen Person durch andere Menschen jetzt oder in der Zukunft? Auf einmal veröffentlichten Bildern können die Schatten der Vergangenheit sehr lang werden. Auf manipulierten Bildern können sogar nachhaltige Schatten erzeugt werden, die gar nicht zur eigenen Vergangenheit gehören, aber die Zukunft massiv beeinflussen können.

Photographie wird oft auch zu kriminellen Zwecken missbraucht. Bekannte Beispiele sind Bedrohung, Erpressung und (Industrie-) Spionage sowie Datenschutz- und Urheberrechtsverletzungen; die ersten Punkte sind dabei vermutlich bereits so alt wie die Photographie selbst.

Mit dem Aufstieg der digitalen Photographie und des Internets wurde die Photographie auch zunehmend für schwere Straftaten wie Mobbing, Stalking und Kinderpornographie sowie im Zusammenhang mit Körperverletzung und Diffamierung von Personen missbraucht; hierbei geht es meist nicht um wirtschaftliche Aspekte (wie etwa bei der Industriespionage), sondern darum, Menschen Schaden zuzufügen. Aus dieser Perspektive kann Photographie auch als Waffe gesehen werden.

Rechtliche Aspekte[Bearbeiten]

Das Photorecht ist zu umfangreich, um es hier in seiner ganzen Fülle erläutern zu können. Grundlegende Aspekte sollen dennoch betrachtet werden, da sie wichtig im Umgang mit der Photographie sind. Das Photorecht soll vor allem klären, wer die Rechte an einem aufgenommenen Photo hat und welche Photos aufgenommen oder veröffentlicht werden dürfen.

In Deutschland existiert die Panoramafreiheit. Diese erlaubt es, von jedem öffentlichen Ort Photos von bleibend installierten Objekten ohne besondere Hilfsmittel (wie Leitern) aufnehmen zu dürfen (jedoch nicht zwangsläufig innerhalb von Gebäuden) und im Anschluss zu veröffentlichen. Auch eingeschränkt öffentlich zugängliche Orte (zum Beispiel Zoo, Friedhof, Parks die nur von 8-18 Uhr geöffnet sind etc.) zählen dazu. Privatgrundstücke zählen hingegen nicht unter die Panoramafreiheit, sofern sie nicht öffentlich zugänglich sind. Um das Kriterium der Panoramafreiheit zu erfüllen, reicht es also nicht, dass man den Ort betreten kann, sondern dass man dies ohne individuelle Erlaubnis auch darf.

Photos dürfen dort zwar aufgenommen werden, wenn der Besitzer es erlaubt, sie dürfen jedoch nicht in allen Fällen veröffentlicht werden. Der Besitz von urheberrechtlich geschütztem Material erlaubt es dem Besitzer wiederum nicht automatisch, das Photographieren zu gestatten.

Ein Beispiel: Eine schmucke Villa darf von der öffentlichen Straße aus photographiert werden. Versperrt eine Hecke die Sicht, darf die Villa auch von einem nahen Hügel aufgenommen werden, wenn dieser sich im öffentlich zugänglichen Raum befindet. Wenn die Villa jedoch vom Balkon einer gegenüberliegenden Wohnung photographiert wird, so darf die Villa zwar noch photographiert, das Bild jedoch nur mit Genehmigung des Eigentümers der Villa veröffentlicht werden. Hängt in der Villa ein urheberrechtlich geschütztes Werk an der Wand, so hat selbst der Besitzer von Villa und Bild nicht zwangsläufig das Recht, die Veröffentlichung von Photographien zu gestatten, sofern er dazu nicht die Erlaubnis des Urhebers hat. Hingegen eine Skulptur im Vorgarten, welche vom Bürgersteig einsehbar ist, unterliegt der Panoramafreiheit. Strittig könnte es allenfalls zwischen Urheber und Besitzer sein, ob die Skulptur so öffentlich aufgestellt werden darf - prinzipiell muß der Besitzer vom Urheber die Rechte an einer solchen Veröffentlichung eingeräumt bekommen, bevor die Skulptur aufgestellt wird. Der Photograph kann also bei der aufgestellten Skulptur davon ausgehen, dass die Aufstellung rechtens ist.

Die Idee ist im Grunde einfach: Das, was die gesamte Öffentlichkeit sehen kann, darf auch photographiert und danach veröffentlicht werden. Das, was nicht jeder sehen kann (zum Beispiel die Villa photographiert vom Balkon der Privatwohnung), darf nicht uneingeschränkt veröffentlicht werden. Der Bewohner der Villa könnte dann klagen, dass ein solches Photo nicht veröffentlicht werden darf. Der Urheber eines Werkes in der Villa könnte auf Urheberrechtsverletzung klagen, wenn sein Werk auf dem Bild nicht nur Beiwerk ist.

Am Beispiel von Google Streetview lässt sich erkennen, dass die Panoramafreiheit eingeschränkt wird. Sie ist unterdessen nicht mehr für "Massenaufnahmen" gültig, das heißt öffentliche Aufnahmen im großen Stil fallen nicht mehr unter die Regelung.

Auch vor Personen macht die Panoramafreiheit zum Schutz der Persönlichkeitsrechte halt. Personen sind zum einen keine bleibend aufgestellten Dinge, zum anderen gibt es ein Recht am eigenen Bild. Jede Personen kann also bereits entscheiden, ob von ihr überhaupt ein Photo aufgenommen werden darf, unabhängig davon, ob dieses veröffentlicht werden soll oder nicht. Photos, die im öffentlichen Raum aufgenommen wurden und Personen zeigen, dürfen nur aufgenommen und veröffentlicht werden, wenn die Person ausdrücklich zustimmt oder wenn die Person lediglich "Beiwerk" des Photos ist. Unter Beiwerk versteht man meist, dass die Person nicht der Hauptgegenstand des Bildes ist. Photos auf großen Plätzen, bei Festivals, am Strand etc. werden fast immer auch Menschen zeigen, die dann aber nicht Hauptgegenstandes des Bildes sind, so dass das Photo trotz abgebildeter Personen aufgenommen und veröffentlicht werden darf. Bis zu welchem Grad jedoch Personen "Beiwerk" sind, ist eine recht komplizierte Frage. Jedenfalls sollte das Haupt- oder Neben-Motiv der Aufnahme nicht die Person sein, das Bild sollte also auch oder gerade ohne die konkrete Person der gleichen Aussage dienen.

In der Praxis erkennt man oft, dass die beiden Einschränkungen der Panoramafreiheit (Veröffentlichung von Photos, die Personen abbilden, oder die etwas zeigen, dass man nicht vom öffentlichen Raum aus sehen kann) sehr oft verletzt werden. Es lässt sich vermuten, dass in Internet-Photo-Gemeinden täglich tausendfach solche Bilder veröffentlicht werden, ohne dass eine Einwilligung der entsprechenden Personen vorliegt.

Eine weitere Einschränkung der Panoramafreiheit betrifft Objekte, die nicht dauerhaft an einer Stelle ("bleibend") sind. So war die Veröffentlichung der Verhüllung des Reichstags im Jahr 2002 beispielsweise nicht ohne Zustimmung der Verhüllungskünstler erlaubt, da die Verhüllung nur vorübergehend (also nicht bleibend) gewesen ist. Selbiges gilt für Gebäude, Skulpturen etc. die nur vorübergehend an einem Ort sind. Ab wann etwas als bleibend gilt, ist jedoch nicht exakt geklärt.

Unbenommen davon sind natürlich Aufnahmen auch im privaten Bereich, wo alle Rechteinhaber der Aufnahme zustimmen. Gegebenenfalls kann eine Erlaubnis auch implizit vorliegen - wer etwa absichtlich für einen Photographen posiert oder in die Kamera grinst, stimmt damit zumindest auch der Aufnahme zu, nicht notwendig allerdings auch einer Veröffentlichung.

Das Recht am Bild besitzt, wer das Bild in Szene gesetzt und damit künstlerisch geschaffen hat. Es zählt letztlich nicht, wem das Aufnahmegerät gehört oder wer den Auslöser gedrückt hat, sondern wer die Idee zu dem Photo hatte und es künstlerisch umgesetzt beziehungsweise in Szene gesetzt hat. Bei beweglichen Motiven kann dazu aber wiederum auch zählen, wann auf den Auslöser gedrückt wird, von daher kann sich die Autorenschaft auch auch mehrere Beteiligte verteilen. In den meisten aller Fälle wird ein Hobby-Photograph seine Photos allein aufnehmen und ist damit automatisch der Urheber des Photos. Das Lichtbild ist explizit im Urheberrecht als Werk genannt, von daher handelt es sich bei jedem Photo, welches irgendwelche erkennbaren Strukturen aufweist, auch um ein Werk im Sinne des Urheberrechtes. Das Recht besteht automatisch, bedarf also keiner Anmeldung oder Kennzeichnung. Allein die Existenz des Werkes impliziert einen Urheber.

Da der Urheber andererseits allerdings ein Mensch sein muß, ist die Lage knifflig, wenn ein Tier oder eine Maschine ein Photo oder Lichtbild macht. Hat ein Mensch die Idee dazu gehabt oder hat das Bild in Szene gesetzt, hat dieser nach wie vor das Urheberrecht. Ist dem Lichtbild hingegen keine Person zuzuordnen, kann es sich im Prinzip auch nicht um ein Werk im Sinne des Urheberrechtes handeln. Diese Situation ist dann also wieder rechtlich knifflig. In diesem Zusammenhang bietet die zunehmende Automatisierung von Digitalkameras auch neue, spannende Aspekte - je intelligenter und selbständiger die Programme in der Kamera darüber entscheiden, was, wie und ob überhaupt photographiert wird, desto weniger kann davon die Rede sein, dass derjenige, der den Auslöser drückt, das Bild gestaltet hat. Prinzipiell sind für die nähere Zukunft auch Programme vorstellbar, die selbst entscheiden, wann die Aufnahme gemacht werden soll, um ein gutes Resultat zu erzielen.


Veröffentlicht man ein Photo oder allgemeiner ein Werk im Sinne des Urheberrechtes ohne der Urheber zu sein, und besitzt man keine Genehmigung des Urhebers zu dieser Veröffentlichung, ist dies eine Urheberrechtsverletzung. In Deutschland gilt dies als Straftat und wird nach §106 UrhG mit Freiheitsstrafe bis zu drei Jahren oder Geldstrafe bestraft. Bereits der Versuch ist strafbar. Wie immer muß der Sachverhalt allerdings im Zweifelsfalle vor Gericht nachweisbar sein. Klagewillige Urheber sollten also Beweismaterial vorhalten, um ihre Ansprüche auch wirklich geltend machen zu können. Im Ernstfalle ist dies nicht unbedingt eine einfache Angelegenheit. Aber es kann natürlich helfen, unveränderte Rohdatenbilder in voller Auflösung unveröffentlicht unter Verschluß zu halten und nur nachbearbeitete Versionen zu veröffentlichen, um den eigenen Anspruch eindeutig belegen zu können.

Geschichte der Photographie[Bearbeiten]

Spricht man von Photographie, so meint man meist immer auch Photographie im zweiten Sinne, also die dauerhafte Speicherung eines Abbildes. Demnach beginnt die Photographie Anfang des 19. Jahrhunderts und ist damit noch keine 200 Jahre alt. Photographie im ersten Sinne, also als bildgebendes Verfahren, ist jedoch deutlich älter. Bereits in der Antike und im Mittelalter konnte man Abbilder erstellen, es fehlte jedoch ein Medium, um sie dauerhaft festhalten zu können (Photographie im zweiten Sinne). Aristoteles gilt heute als der Erfinder der Camera obscura, das eigentliche Funktionsprinzip hat jedoch vermutlich erst Leonardo da Vinci im ausgehenden Mittelalter entdeckt.

Eine Camera obscura aus dem 18. Jahrhundert. Sie wurde vor allem zum Skizzieren von Bildern verwendet.

Die Camera obscura war ein völlig abgedunkelter Raum mit einem winzigen Loch an einer der vier Seiten, durch das (Sonnen-) Licht fiel und auf der gegenüberliegenden Seite des Raums ein auf dem Kopf stehendes, verschwommenes Abbild erzeugte (ein Abbild von dem, was vor der Öffnung stand). So konnte man bereits im Mittelalter Abbilder der Wirklichkeit erzeugen. Zwar fehlte es an einem Medium zur permanenten Speicherung, die Camera obscura war jedoch eine Variante, um aus dem Abbild Zeichnungen anzufertigen. Die von der Kamera erzeugten Bilder waren meist etwas unscharf und blass, da das Licht nicht in einem Punkt gebündelt wurde. Die Auflösung solcher Bilder ist begrenzt durch die Größe des Loches und die Welleneigenschaften des Lichtes. Bei recht großen Löchern bestimmt der Lochdurchmesser die Auflösung eines gedachten Objektpunktes. Bei kleinen Öffnungen wird das Licht merklich am Loch gebeugt, so dass sich wieder ein breiterer Fleck als Abbildung des gedachten Objektpunktes ergibt. Dazwischen ergibt sich irgendwo bei einem bestimmten Verhältnis von Lochdurchmesser zum Abstand zwischen Loch und der Wand, auf welcher die Abbildung erscheint, eine maximale Auflösung des Bildes. Tendenziell handelt es sich dabei um recht kleine Lochdurchmesser, die also sehr wenig Licht für die Abbildung verfügbar machen.

Der Einsatz von Sammellinsen ab dem 17. Jahrhundert führte zu deutlich schärferen und helleren Bildern. Während allerdings bei der Camera obscura die Schärfe der Abbildung praktisch nicht vom Abstand des Motivs zum Loch abhängt, ergab sich mit der Einführung der Sammellinsen der neue Effekt der Schärfentiefe, also einer vom Abstand abhängigen Schärfe von Bildbestandteilen. Zu dieser Zeit wurden auch die ersten portablen "Kameras" gebaut. Einen Nutzen außerhalb der Bildenden Kunst hatte die Camera obscura jedoch kaum.

Im 18. Jahrhundert entdeckte man, dass sich Silbersalze unterschiedlich verfärben, wenn Licht auf sie trifft. Dies war im Grunde die Geburtsstunde der heutigen Photographie. Man erkannte, dass sich ein in der Camera obscura erzeugtes Bild festhalten ließ, wenn das Licht auf das Material fällt und es entsprechend einfärbt.

Diese Erkenntnis allein reichte jedoch noch nicht aus, um Photos im heutigen Sinne schaffen zu können. Eine besondere Schwierigkeit war es, aus den unterschiedlich verfärbten Stoffen ein bleibendes Abbild erzeugen können, etwa ein Papierbild. Der französische Advokat Joseph Nicéphore Niépce (1765 – 1833) sowie der Maler Louis Daguerre (1787 – 1851) haben zu Beginn des 19. Jahrhunderts auf vielfältige Weise versucht, dieses Problem zu lösen. Auf der Basis der Lithographie, einem etwa zur selben Zeit entwickelten Flachdruckverfahren, gelang es um 1826, erste Abbilder zu erzeugen und dauerhaft zu speichern. Damit war die Photographie im heutigen Sinne geboren.

J. N. Niépce (1826–1827). Blick aus dem Arbeitszimmer in Le Gras. 20×25 cm auf ölbehandeltem Asphalt. Durch die 8-stündige Belichtungszeit erscheinen die Gebäude sowohl rechter- als auch linkerhand sonnenbeschienen. Dieses Photo gilt allgemein als erstes der Welt.
Historische Kamera im 19. Jahrhundert.

Die ersten Photos hatten eine Belichtungszeit von mehreren Stunden. Nach dem Tod Niépces forschte Daguerre weiter und entwickelte 1837 die Kochsalzlösung, die seitdem zum Fixieren von Aufnahmen verwendet wird. Durch den Einsatz modernerer, speziell für die Photographie entwickelter Linsen, konnte die Bildqualität erheblich verbessert werden. Zudem erkannte Daguerre durch Zufall, dass auf Photoplatten angewendete Quecksilberdämpfe deutlich kürzere Belichtungszeiten ermöglichten – mit einer Belichtungszeit im Minutenbereich waren Porträtaufnahmen aber immer noch kaum umsetzbar.

Ende der 40er Jahre des 19. Jahrhunderts betrug die übliche Belichtungszeit noch um die 20 Sekunden, zu Beginn der 50er Jahre konnte man sie mit neuen Verfahren auf wenige Sekunden senken und nun auch Porträts abbilden. Solche Belichtungszeiten gelten heute jedoch noch immer als Langzeitbelichtung – die abzubildende Person musste sich während der Aufnahme so wenig wie möglich bewegen.

Zunächst wurden Photos auf Filmplatten aufgenommen. Man konnte mit der Kamera also genau ein Photo aufnehmen, dann musste die Platte entnommen und das Photo in einer Dunkelkammer entwickelt werden. Danach musste man die Platte für eine weitere Aufnahme vorbereiten und wieder in die Kamera einsetzen. Das war extrem aufwendig. Mit der Entwicklung des photographischen Films in der zweiten Hälfte des 19. Jahrhunderts (1889 wurde der bis heute bekannte Rollfilm entwickelt) konnte dieses Problem jedoch gelöst werden. Photographie wurde damit deutlich einfacher.

Die Leica I aus dem Jahr 1925 war die erste auf dem Markt angebotene Kompaktkamera.

Zu Ende des 19. Jahrhunderts wurden die Kameras kleiner und damit portabel. Die Kompaktkamera im heutigen Sinne wurde jedoch erst zu Beginn des 20. Jahrhunderts erfunden. Das Modell Leica I der Firma Leitz gilt als erste echte Kompaktkamera und kam 1925 auf den Markt. Sie war nicht wesentlich größer als heutige Kompaktkameras und eröffnete dem Besitzer die Möglichkeit, zu jedem Zeitpunkt eine Kamera bei sich zu haben. Die Leica I hatte eine Brennweite von 50 mm, die später zum Quasi-Standard als Normalbrennweite der Kleinbildkameras wurde. Mit den Kompaktkameras und den sich stetig verringernden Film- und Entwicklungskosten waren so auch gewissermaßen die "Schnappschüsse" geboren.

1936 wurde von Agfa der Farbfilm entwickelt und die Farbphotographie verdrängte bald die Schwarz-Weiß-Photographie (Farbphotographie war aber zunächst deutlich teurer als Schwarz-Weiß-Photographie). Schwarz-Weiß-Photographie spielt jedoch selbst heute noch eine nicht zu unterschätzende Rolle.

In den 50er Jahren des 20. Jahrhunderts kamen erste Spiegelreflexkameras auf den Markt, die das Problem des Parallaxenfehlers lösten. Sie erfreuen sich auch heute noch, im digitalen Zeitalter der Photographie, hoher Beliebtheit. In den 80er und 90er Jahren hielt die sich rasant entwickelnde Computertechnik auch in der Photographie Einzug. Die Canon AE-1 von 1976 etwa war die erste Kleinbild-Spiegelreflexkamera mit Mikroprozessor-Steuerung.

Es wurden auch Photos mit speziellen Programmen in den Entwicklungslabors automatisch optimiert und die Qualität zum Teil deutlich verbessert - umgedreht konnten diese Programme allerdings auch die intensiven Bemühungen der Belichtungsmessung durch Kamera oder Photograph bei den Papierabzügen wieder gründlich zunichte machen. In den 90er Jahren wurden Abtaster (englisch: scanner) für Computer bezahlbar und analoge Photos konnten nun von jedermann digitalisiert werden.

Die Digitalkamera revolutionierte die Photographie - heute trägt fast jeder eine Kamera in irgendeiner Form mit sich.

Eine Revolution erlebte die Photographie um den Jahrtausendwechsel mit der aufstrebenden Digitalphotographie, die wiederum an den vorangegangenen Boom von Computer und Internet gekoppelt war. Photos in digitaler Form zur einfachen Verwaltung, Betrachtung und Bearbeitung auf dem eigenen Rechner sowie zum Austausch via Email oder zur Veröffentlichung auf entsprechenden Internet-Seiten schienen ebenso reizvoll wie die damit verbundenen reduzierten Kosten (Filme und Entwicklungskosten waren nicht mehr notwendig), den allgemein geringeren Aufwand und die Möglichkeit, Photos sofort auf dem Kamerabildschirm beurteilen zu können. Diese Vorteile überwogen bei Vielen bereits zu Anfang der Entwicklung die anfangs noch recht bescheidenen Auflösungen und die Gesamtqualität der Bilder.

Binnen sehr kurzer Zeit, etwa im Zeitraum zwischen 2000 und 2005, hat die Digitalkamera die Analogkamera im Alltagsbereich fast vollständig verdrängt, während im Photogewerbe und in der professionellen Photographie noch immer Analogkameras eingesetzt werden. Durch den Fortschritt ist es allerdings mittlerweile gelungen, auch große Sensoren im Kleinbildformat und für Mittelformatkameras herzustellen, die eine gute Auflösung und Gesamtqualität gewährleisten, welche auch für den professionellen Bereich ausreicht.

Die Sensortechnik gilt im Vergleich zum analogen Film allerdings auch heute noch nicht als ausgereift. Signifikante Steigerungen der Empfindlichkeit bei gleichzeitiger Reduzierung des Rauschens scheinen physikalisch möglich zu sein, während die Entwicklung der Technik des analogen Films zur Jahrtausendwende eigentlich weitgehend abgeschlossen und ausgereift war.

In den letzten Jahren haben sich Digitalkameras (hier vor allem die Kompaktkameras) eher aus programmtechnischer Sicht weiterentwickelt. Die Verbesserungen sind also nicht notwendig bei den Rohdatenbildern erkennbar, sondern eher in den weiterverarbeiteten JPEG-Bildern. Eine solche Nachbearbeitung in der Kamera in Echtzeit ist aber wiederum nur mit sehr leistungsfähigen Prozessoren möglich. Ein Großteil der heutigen Digitalkameras verfügt über ausgereifte Programme, die zu jedem Zeitpunkt ein bestmögliches Photo hervorbringen soll. Motivprogramme, Auto-Fokus, automatische Belichtungsregelung und viele andere Funktionen ermöglichen heute, dass auch ohne das geringste Photowissen einigermaßen gute Fotos gelingen können. Es zeigt sich aber auch, dass gerade die Nachbearbeitung in der Kamera bei den resultierenden JPEG-Bildern Verluste an Kontrast und Auflösungsvermögen mit sich bringen können. Auch dieses 'Glattbügeln' der Bilder durch kamerainterne Programme, die sich jeglicher Kontrolle durch den Photographen entziehen, zeigt eine deutliche Entwicklung weg vom kompetenten Photographen, der noch alles selbst im Griff hatte, hin zum Schnappschussknipser, der mal auf Gut-Glück hin die Kamera machen läßt, was sich seinem Verständnis längst entzieht. Da gibt es mittlerweile auch gutgemeinte Ideen, wo die Kamera schon mal auf Verdacht durchgehend Aufnahmen macht, aus denen der Bediener dann nur noch per Auslöser auswählen muß, welches Bild nun gelten soll. Auch da verschwimmt langsam die Grenze der Verantwortung - denn wer verletzt gegebenenfalls das Recht am eigenen Bild, wenn die Kamera schon aufnimmt, bevor der Photograph noch um Erlaubnis gefragt und abgedrückt hat?

Die Tatsache, dass klassische Analogkameras auf jegliche Art von Programmunterstützung verzichten und damit in einigen Punkten auf gänzlich andere Weise Photos aufnehmen als Digitalkameras, legt die Vermutung nahe, dass die Analogphotographie in nächster Zukunft nicht vollständig wegzudenken sein wird.

Grundlagen der Bildgestaltung[Bearbeiten]

Das Bildformat[Bearbeiten]

Grundlagen[Bearbeiten]

Da Bilder Elemente des zweidimensionalen Raums sind, haben sie eine Länge und Breite. Das Verhältnis aus Länge und Breite ergibt dabei das Bildformat. Beim Verhältnis von Breite zu Höhe spricht man auch vom Aspektverhältnis des Bildes.

Ist das Bild breiter als lang, so spricht man vom Querformat. Im anderen Fall spricht man vom Hochformat. Das Bildformat kann man eindeutig angeben, indem man die Breite des Bildes ins Verhältnis zur Höhe setzt. Das geschieht mit einem Bruch (beziehungsweise einer Verhältnisrelation). Ein Format 7:5 heißt also, dass das Photo 7 Einheiten breit und 5 Einheiten hoch ist. Da man solche Brüche gedanklich nicht so gut vergleichen kann, rechnet man diesen Bruch oft auch in das Verhältnis x:1 um. Das heißt, man setzt die Höhe des Bildes 1 und schaut, um das wieviel-fache das Bild breiter als höher ist. Das Format 7:5 entspricht dem Format (7/5) : 1, also 1,4 : 1. Daran erkennt man, dass das Bild 1,4 mal breiter ist als hoch. Das Photo könnte beispielsweise 10 cm hoch und 14 cm breit sein (oder 1000 Pixel hoch und 1400 Pixel breit etc.).

Ist ein Photo im Hochformat aufgenommen, so gibt man meist trotzdem das Format an, wie es im Querformat ist. Statt 9:16 sagt man also dennoch, das Photo ist im Format 16:9 aufgenommen, eben nur im Hochformat. Statt der allgemeinen Vorschrift Breite:Höhe, ist somit die Bezeichnung längere Seite : kürzere Seite eigentlich treffender.

Querformat, Hochformat, Quadrat[Bearbeiten]

Das Querformat kommt dem menschlichen Seheindruck am nächsten und ist deswegen die primäre Formatwahl für viele Aufnahmen. Letztlich bestimmt allerdings das Motiv die optimale Formatwahl. In der Landschaftsphotographie wird das Querformat besonders häufig verwendet. Bei Panorama-Aufnahmen wird dabei oft ein Seitenverhältnis von deutlich mehr als 2:1 erreicht.

Das Hochformat wird für Motive verwendet, die eher hoch als breit sind, um größere ungenutzte Flächen auf dem Photo zu vermeiden. Es wird sehr häufig in der Porträtphotographie verwendet (vor allem, wenn Personen nah oder halbnah abgebildet werden) sowie in der Architekturphotographie.

Das quadratische Format wird seltener verwendet und besitzt einen recht eigensinnigen, künstlerisch durchaus interessanten Charakter. Es ist das klassische Format für Passbilder und wird vielleicht noch am häufigsten in der Sach- und Stilllebenphotographie verwendet.

Abmessung[Bearbeiten]

Kantenlängen analoger Bilder (zum Beispiel Abzüge) werden im deutschen Raum normalerweise in Zentimeter oder Millimeter gemessen, etwa 70 mm x 115 mm. In einigen anderen Ländern wie den USA wird nach wie vor das an sich veraltete Inch (Zoll) verwendet, wobei Zoll heute eine vom internationalen Standard Meter abgeleitete Größe ist (früher wurde das Zoll von der Daumenbreite eines bestimmten Königs abgeleitet, was spätestens nach dessen Tod Probleme mit sich brachte). Es gilt 1 Inch = 25,4 mm.

Digitale Bilder werden hingegen in Pixeln gemessen. Eine Umrechnung von Pixel nach Zentimeter ist dabei zunächst nicht möglich. Beim Drucken eines Bildes wird der Drucker das Bild jedoch in einer bestimmten Druckauflösung drucken, die meist in dpi (dots per inch, also Druckpunkte je Inch) angegeben wird. Hier lässt sich dann aus der Pixelzahl die Bildgröße des zu druckenden Bildes berechnen. Auch wenn das digitale Bild auf einem Monitor dargestellt wird, ergibt sich gemäß der Auflösung des Monitors eine Darstellung mit Abmessungen in Zentimetern. Die Auflösung eines Monitors liegt häufig im Bereich 70 bis 130 dpi.

Eine gängige Druckauflösung ist 300 dpi, die für gewöhnliche Ansprüche meist völlig ausreichend ist. Ein Photo der Größe 1500x2000 Pixel wäre bei dieser Druckauflösung 5 Inch x 6,66 Inch groß, also 12,7 cm x 16,9 cm. Möchte man es auf A4-Format drucken, so müsste man die Druckauflösung fast halbieren. Bei einer Druckauflösung von 150 dpi wäre das Bild dann rund 25 cm x 34 cm groß, also etwa 6 Pixel pro Millimeter. Einzelne Pixel können sichtbar werden. Ob das geschieht, hängt vom Betrachtungsabstand und von der Sehfähigkeit des Betrachters ab. Kinder und Jugendliche mit sehr guter Sehfähigkeit und der Möglichkeit, auch sehr nahe Objekte zu fokussieren, sollten ohne Hilfsmittel Strukturen von einem zehntel Millimeter noch erkennen können, diese können also vermutlich einen Druck mit 150 dpi von einem mit 300 dpi unterscheiden.

Je nach Betriebssystem und verwendetem Programm kann es schwierig sein, bei der Darstellung auf Monitoren die korrekte Auflösung zu verwenden. Zwar gibt es schon seit vielen Jahren Standards, nach denen prinzipiell die Auflösungen von Monitoren korrekt auslesbar sind. Zahlreiche Darstellungsprogramme verwenden trotzdem Phantasiewerte, früher gerne 72 dpi oder 90 dpi, heute eher 96 dpi. Das hat dann zur Folge, dass oft Bilder mit absoluten Größenangaben in Zentimetern falsch dargestellt werden. Weil digitale Photos eigentlich immer in Pixelmaßen vorliegen, ist dies bei diesen allenfalls bei einer Druckvorschau problematisch. Bei anderen Dateiformaten mit Abmessungen in Zentimetern kann es allerdings mit großer Wahrscheinlichkeit zu unsinnigen und falschen Anzeigen kommen. Obgleich dies Problem bei Druckern eigentlich nicht auftritt, kann sich bei einigen Programmen übrigens der Auflösungsfehler über die Druckvorschau bis hin zum Druckergebnis fortpflanzen.

Typische Photoformate[Bearbeiten]

Da Photographie seit jeher das Ziel hatte, Eindrücke möglichst realistisch wiederzugeben, hat man auch das Bildformat realistischen Verhältnissen angepasst. Der Mensch hat für bewußtes, scharfes Sehen etwa einen horizontalen Blickwinkel von 45 bis 50° (wobei hier wiederum dieser mittlere Bereich am stärksten wahrgenommen wird und die Wahrnehmung zu den Rändern hin abnimmt). Der vertikale Winkel ist deutlich geringer; der vom menschlichen Auge wahrgenommene Bereich liegt etwa bei 1:2. Mit anderen Worten, wenn wir etwas betrachten und dabei nicht die Augen bewegen, dann sehen wir von der Szene einen relativ breiten, aber nicht besonders hohen Streifen klar. Das ist biologisch vermutlich so zu erklären, dass der Mensch seine Augen unter anderem zur Erkennung von Gefahren benutzt und diese für ihn eher von links oder rechts, als von oben oder unten kommen. Im Detail ist die Sache allerdings deutlich komplizierter, weil die Menschen zwei Augen haben, um räumlich zu sehen. Die Blickwinkel der beiden Augen überlappen nur teilweise. Der horizontale Blickwinkel für beide Augen zusammen oder für das Bildergebnis im Gehirn beträgt fast 180°, was man leicht selbst testen kann, indem man die zunächst nach vorne ausgestreckten Arme langsam voneinander weg zur Seite bewegt. Allerdings kann das Gehirn ohnehin nur einen schmalen Bereich des Blickwinkels auf einmal bewußt analysieren, der Rest unterliegt nur einer sehr eingeschränkten Beachtung, wobei insbesondere Änderungen der Szenerie schnell wahrgenommen werden. Hat das Objektiv einer Kamera allerdings einen Blickwinkel von 45 bis 50°, so erscheinen im optischen Sucher einer Spiegelreflexkamera Objekte gleich groß wie vom Auge wahrgenommen, wenn ein Objektiv mit dem gleichen Aufnahmewinkel verwendet wird.

Zusätzlich wird der Vergleich zwischen Auge und Kamera verkompliziert, weil beim Auge die Projektionsfläche näherungsweise ein Teil einer Kugelfläche ist, beim Kamerasensor eine flache Ebene. Zudem filtert das Gehirn auf subtile Weise den Datenstrom vom Auge, um mit den großen Datenmengen fertig zu werden. Dafür können Auge und Hirn aber die Schärfeebene oder eher Schärfefläche sehr schnell ändern, dass anders als bei einem Photo im Gehirn nicht so stark der Eindruck entsteht, man könne nur einen engen Bereich vor dem Auge scharf abbilden. Insgesamt ist somit ein Bild weder im Format noch im Seheindruck besonders realistisch in dem Sinne, dass es mit dem von den Augen vermittelten Eindrücken vergleichbar wäre.

Weil jedenfalls der horizontale Blickwinkel größer als der vertikale ist, sind Photos oft im Querformat und spiegeln somit wenigstens grob wider, was wir auch in der Natur sehen würden. Das klassische Photoformat war eine lange Zeit 3:2 (1,5:1). Bedingt durch die Dimensionierung klassischer Computermonitore ist dann jedoch das Verhältnis 4:3 (1,33:1) ein häufiges Format der Digitalphotographie gewesen. Daran erkennt man, dass man hierbei nicht ganz den menschlichen Blickwinkel erreicht. Viele Kameras bieten daher heute auch ein breiteres Format an, zum Beispiel das relativ moderne 16:9 (1,77:1), welches dem menschlichen Blickwinkel relativ nahekommt. Für Kinofilme verwendet man oft sogar das Format 21:9 (2,35:1). Das besonders breite Kinoformat könnte auch daraus resultieren, weil im Kino die Menschen eher nebeneinander sitzen als übereinander, der Kinosaal also meist breiter als hoch ist, und so mit einem sehr breiten Format allen Besuchern ein akzeptables Ergebnis geboten werden kann. Somit wäre das breite Kinoformat für den Einzelbetrachter auf dem Monitor eher belanglos. Solch breite Verhältnisse wählt man in der Photographie daher eher selten, sie können aber bei Panorama-Aufnahmen in diesem Bereich, oder gar größeren Bereichen, auftreten.

Das Format 1,33:1 wird dennoch sehr oft, wahrscheinlich sogar am häufigsten verwendet. Viele Computermonitore haben das Verhältnis 4:3 und das Photo kann somit auf einem solchen Bildschirm in der Art angezeigt werden, dass es ihn vollständig ausfüllt und dabei nicht verzerrt wird. Laptops und Breitbildschirme verwenden hingegen oft ein breiteres Format (z.B. 1200 x 800 Pixel, also 3:2) und hier würde das Photo im Vollbildmodus entweder in die Breite gezerrt werden, oder es kann den Bildschirm nicht voll ausfüllen (es würden dann zwangsläufig schwarze Streifen am rechten und linken Rand des Bildschirms auftreten).

Was die Bildschirme angeht, so scheint sich der Trend in Richtung 16:9 zu bewegen; viele Laptops und Fernseher werden heute nur noch in diesem Format angeboten, was offenbar daran liegt, dass sich viele Menschen Videos in diesem Format auf ihrem Rechner angucken, anstatt daran zu arbeiten, wofür sich das Format 4:3 zumeist deutlich besser eignet. Interessanterweise sprechen sich jedoch viele Photographen gerade gegen dieses neue Format aus, was vermutlich unter anderem daran liegt, dass 16:9 ein Photo bereits ungewöhnlich breit erscheinen lässt.

Welches Format man bei der Aufnahme wählen kann, hängt von der Kamera ab. Es ist nur ein Sensor eingebaut. Die drei vorgestellten Formate (4:3, 16:9, 3:2) werden unterdessen von vielen Kompaktkameras angeboten. Bei professionelleren Modellen wird auf die Formatwahl meist verzichtet, man verläßt sich da im Bedarfsfalle auf die Nachbearbeitung und bietet für die Aufnahme nur ein Format an, welches dem eingebauten Sensor entspricht.

Ist eine Formatwahl vorhanden, ergibt sich nun die einfache Möglichkeit, dass die Bilder des Sensors passend am Rand abgeschnitten werden. Der Sensor kann jedoch auch gezielt größer gewählt werden und es wird dann jeweils nur ein an das Verhältnis angepasster Ausschnitt ausgelesen. Dies wird dann so organisiert, dass unabhängig vom Format ungefähr gleichviele Pixel für das Bild verwendet werden, variiert wird lediglich im Randbereich des Sensors, welche Pixel dafür verwendet werden.

Letztere Möglichkeit wird relativ selten umgesetzt, weswegen es meist sinnvoll ist, bei dem Format des Sensors zu bleiben und eine Optimierung des Aspektverhältnisses eines Bildes der Nachbearbeitung zu überlassen.

Es spricht im Grunde nichts gegen das klassische 4:3-Format. In diesem Buch werden wir im 4:3-Format bleiben.

Photoformate in der analogen Photographie[Bearbeiten]

In der analogen Photographie ging es zunächst weniger um das Seitenverhältnis, als vielmehr um die Größe des Films, da dieser ausschlaggebend dafür war, wie groß das resultierende Photo am Ende ist. Vor der Entwicklung der Kleinbildkamera entsprach die Größe des Films der Größe des später entwickelten Photos und man musste relativ große Filme verwenden, um einen einigermaßen großen Abzug zu erhalten. Um ein Bild der Größe 6 cm x 9 cm zu bekommen, ein zugegebener Maßen recht kleines Format, brauchte man immerhin einen Film, der 6 cm in der Höhe maß. Das wiederum erforderte ein relativ großes Kameraobjektiv und lange Brennweiten.

Einige Klein- und Mittelformate.

Typische Filmformate waren zunächst Mittelformate, die von Mittelformatkameras verwendet wurden. Bekannte Größen waren dabei 6 cm x 6 cm, 6 cm x 7 cm, 6 cm x 8 cm und 6 cm x 9 cm. Das kleinste Mittelformat war 4,5 cm x 6 cm. Das etwas sonderbar anmutende Format 6 cm x 6 cm (1:1) war dabei gar nicht so unüblich, wie man heute vielleicht vermuten würde. Das Bild war quadratisch und mit nur 6 cm x 6 cm Größe ziemlich klein. Weil Abbildungsfehler von Objektiven zum Rand hin größer werden, ist das quadratische Format in Hinsicht auf die Bildqualität sogar die optimale Wahl. Wer alte Photos im Familienalbum durchstöbert, wird eventuell noch solche Aufnahmen finden. Die Photos der Großformate waren oft 12,5 cm x 10 cm oder 25 cm x 12,5 cm. Hier ist das Verhältnis immerhin 1,25:1.

Später wurden dann die Kleinbildkameras eingeführt. Die Größe eines Photos war hierbei 36 mm x 24 mm, das Seitenverhältnis war also 1,5:1 und ähnelt damit etwa den heute gängigen Formaten (1,33:1, 1,5:1 und 1,77:1). Dieses auch als Kleinbildformat bekannte Format wurde zum Quasi-Standard und spielt selbst heute noch eine große Rolle, wie später bei der Diskussion der Brennweite gezeigt werden wird. Daneben gab es aber auch noch kleinere Formate, zum Beispiel das APS-Format mit 17 mm x 30 mm (Verhältnis 1,76:1) und das Halbformat mit 18 mm x24 mm.

Größe der Aufnahmefläche und Bildqualität[Bearbeiten]

Generell - also unabhängig davon, ob analog oder digital photographiert wird - kann mit einer großen Aufnahmefläche viel Licht gesammelt werden, tendenziell werden damit also die Bilder von Motiven besser, die größer als die Aufnahmefläche sind. Mit der Kantenlänge der Aufnahmefläche skaliert auch der Durchmesser des Objektivs, um wirklich bessere Bilder aufnehmen zu können. Ist das Motiv größer als der Objektivdurchmesser, skaliert die mit dem Objektiv sammelbare Lichtmenge mit dem Quadrat des Durchmessers. Wird viel Licht gesammelt, so kann das Rauschen im Bildergebnis niedrig gehalten werden. Ferner ist es sehr aufwendig, Objektive zu bauen, bei denen der Durchmesser, der zur Belichtung beiträgt, viel größer ist als der Durchmesser der Aufnahmefläche (Film oder Sensor). Vereinfacht gesagt skaliert also die mögliche Aufnahmequalität mit der Kantenlänge der Aufnahmefläche.

Das Volumen und damit das Gewicht der Ausrüstung steigt allerdings ungefähr mit der dritten Potenz der Kantenlänge der Aufnahmefläche, bei einer doppelten Kantenlänge steigt also das Gewicht ungefähr auf das Achtfache an. Damit ist gut zu erkären, warum Mittelformatkameras heute vorrangig in Studios verwendet werden und das Kleinbildformat einen guten Kompromiß zwischen Aufwand und Bildergebnis darstellt, Bilder von Kameras in Mobiltelephonen mit winzigem Sensor und Objektiv aber oft erbärmlich verrauschte Aufnahmen liefern, dafür aber nicht nenneswert zum Gewicht des Mobiltelephons beitragen.

Die Bilddatei[Bearbeiten]

Grundlagen[Bearbeiten]

Das digitale Photo wird als Bilddatei auf der Kamera abgespeichert und kann damit sofort auf einen Rechner übertragen und von diesem gelesen werden. Von Laien werden Photos besonders von Kompaktkameras oft im JPEG/JFIF-Format gespeichert, es gibt aber auch einige andere Formate, die manche Kameras anbieten.

Auflösung[Bearbeiten]

Als Auflösung oder Auflösungsvermögen werden in der Physik oder in der Optik Größen bezeichnet, die bestimmen, welche benachbarten Details mit einem Gerät noch getrennt dargestellt werden können, man sagt dann auch aufgelöst werden können.

Die zur Auflösung in der Photographie beitragenden Komponenten sind vor allem das Objektiv, die Blende und das Filmmaterial, beziehungsweise der Sensor. Die Auflösung eines Bildes hängt somit nicht allein an der Bilddatei, sondern an der gesamten Ausrüstung, mit welcher das Bild aufgenommen wurde.

Abbildungsfehler im Objektiv sorgen dafür, dass Objekte in der Schärfeebene nicht exakt punktförmig abgebildet werden. Bei einer kleinen Blendenöffnung kommt es zu Beugungseffekten. Statt der punktförmigen Abbildung wird ein Beugungsscheibchen abgebildet.

Bei analogem Filmaterial ist der entscheidende Faktor die Korngröße des lichtempfindlichen Materials, bei digitalen Sensoren sind es die Pixel. Dabei ist zu beachten, dass bei den meisten Farbsensoren benachbarte Pixel unterschiedlich empfindlich auf verschiedene Farben sind. Zudem kann es zwischen den Pixelreihen des Sensors auch Platz für Leitungen und sonstige Elektronik geben, die kein Licht empfangen. Dies hat nicht nur negative Auswirkungen auf die Empfindlichkeit der Kamera, sondern kann bei bestimmten Motiven einerseits die Auflösung erhöhen, bei anderen Motiven andererseits aber auch dazu führen, dass Details komplett ignoriert werden, statt sie nur aufgrund mangelnder Auflösung unscharf darzustellen.

Bei gleichfarbigen Objekten ist die Auflösung also schlechter als ein Pixel, ansonsten ist der Pixel aber jedenfalls ein charakteristisches Maß für die Auflösung des Sensors. Die Anzahl der Pixel kann man nun auf ein bestimmtes Maß beziehen, um einen brauchbaren Eindruck von der Auflösung zu bekommen. Sind die Abbildungsfehler des Objektivs oder die Beugungsscheibchen größer als die Pixelabstände, sind dies die entscheidenden Größen für die Auflösung.

Um die Auflösung von Sensor oder Kamera zu diskutieren, kann man die Anzahl der Pixel auf die Länge oder Breite des Sensors beziehen. In dem Falle wird etwa davon gesprochen, dass ein Sensor oder eine Kombination von Sensor und Objektiv eine bestimmte Anzahl von Linien auflösen kann, zum Beispiel 2000 Linien, was dann bedeutet, dass mit der Kombination ein Linienmuster formatfüllend aufgenommen und aufgelöst werden kann, welches aus 2000 schwarzen Linien auf weißem Grund besteht, wobei Liniendicke und Zwischenraum zwischen den Linien gleichgroß sind. Damit die Kombination von Objektiv und Sensor das hinbekommen können, kann man abschätzen, dass der Sensor mindestens 4000 Pixel in der Breite (senkrecht zu den Linien) haben sollte - unabhängig davon kann ein schlechtes Objektiv aber dazu führen, dass der Wert trotzdem nicht erreicht werden kann. Wird solch ein Linienmuster nicht aufgelöst, bekommt man statt des Musters auf dem Bild eine graue Fläche zu sehen. Sind die Linien ferner etwas schräg zum Sensor angeordnet, kann es auffällige Artefakte der Digitalisierung geben (Moiré-Effekt). Es wird dann also etwas anderes auf dem Bild dargestellt als das eigentliche Linienmuster als Motiv. Die bereits angesprochenen Lücken zwischen den Pixelreihen können bei solchen Strichmotiven allerdings auch zu einem höheren Kontrast führen und damit bei diesem Motiven zu einer höheren Auflösung im Bildergebnis, die man aber bei 'normaleren' Motiven nicht wirklich nutzen kann.

Eine andere Größe für die Auflösung kann mit Pixeln pro Längeneinheit angegeben werden, also etwa 12 Pixel pro Millimeter oder im alten englischen Maßsystem 300 Pixel pro Zoll (englisch: dots per inch, dpi, siehe oben). Charakteristisch ist dafür also offenbar der Abstand zweier Pixel auf dem Sensor. Sofern die Lücken zwischen den Pixeln vernachlässigbar klein sind (was oft nicht der Fall ist), ist die Pixelgröße eine ähnlich nützliche Angabe für die Auflösung. Besonders bei der Makrophotographie ist diese Auflösungsbezeichnung nützlich, weil da Vergrößerungen immer unabhängig von den Eigenschaften des Sensors und der Darstellung angegeben werden. Bei der späteren Darstellung kann man also mit Kenntnis des Pixelabstandes und der Vergrößerung bestimmen, wie groß das aufgenommene Objekt ist. Häufig ist aufgrund von Beugung an der Blende des Objektivs und anderen Einflüssen die Auflösung des Bildes besonders bei der Makrophotographie hingegen schlechter als der Pixelabstand, weswegen dort die Blende gezielt so eingestellt werden muß, daß die Beugung nicht größer als der Pixelabstand wird, um eine optimale Auflösung zu erreichen, diese liegt dann meist bei zwei oder drei Pixeln.

Die gesamte Anzahl der Pixel des Sensors ist hingegen kein genaues Maß für die Auflösung, es ist also mindestens anzugeben, wieviele Pixel für die Höhe und die Breite des Sensors vorliegen. Um die Information allgemein nützlich zu machen, ist zudem noch entweder der Pixelabstand oder Höhe und Breite des Sensors in Längeneinheiten wie Millimeter erforderlich.

Werbewirksam sinnlos vereinfacht wird teils trotzdem nur die Gesamtzahl der Pixel angegeben - oder bei Monitoren auch gerne die Bildschirmdiagonale ohne Angabe von Breite und Höhe oder Aspektverhältnis. Da gerade bei Kompaktkameras die Objektive sicherlich nicht immer die Grenzen der klassischen Optik ausloten werden, sagt diese Angabe nicht zwangsläufig viel über die tatsächliche Auflösung der Kombination von Sensor und Objektiv aus.

Ein Beispiel: Das Photo besteht aus 800 horizontalen Punkten und 600 vertikalen Punkten. Die Gesamtzahl der Pixel ist dann 800 * 600, also 480.000 Pixel oder 0,48 MP (1 MP = 1 Million Pixel, ein Megapixel).

Als ästhetisch zufriedenstellend wird ein dargestelltes digitales Bild meist empfunden, wenn das Auge zwei benachbarte Pixel nicht mehr auflösen kann, die Auflösung des Bildes also größer ist als die des Auges bei gegebenem Betrachtungsabstand. Dann ist die Digitalisierung des Bildes nicht mehr auffällig. Das Bild wirkt fließend. Ist wiederum die Auflösung des Objektivs deutlich schlechter als der Sensor und später das Auge auflösen können oder wird die Blende so weit zugezogen, dass Beugungseffekte relevant werden, so wirkt das Bild unscharf, unabhängig von der Digitalisierung des Bildes. Das Bild wirkt fließend, bietet aber trotzdem keine gute Auflösung des Motivs.

Daher spielt die Auflösung eine besonders große Rolle; ein Photo, das eine so geringe Pixelzahl hat, dass einzelne Bildpunkte noch gesehen werden können, wirkt sehr unschön (umgangssprachlich "verpixelt"). Ist die Auflösung des Objektivs viel schlechter als der Pixelabstand auf dem Sensor beziehungsweise die Auflösung des Auges bei der späteren Betrachtung oder sind Beugungseffekte deutlich größer als der Pixelabstand auf dem Sensor oder die Auflösung des Auges, wirkt das Bild unscharf.

Dabei ist zu beachten, dass eine zu niedrige Auflösung im Nachhinein nicht mehr behoben werden kann, auch nicht mit Bildbearbeitungsprogrammen. Daher sollte stets sichergestellt werden, dass mit ausreichend hoher Auflösung photographiert wird (beziehungsweise standardmäßig eine hohe Auflösung des Sensors eingestellt wird). Unschärfe oder Beugungseffekte können im Nachhinein auch nur in sehr engen Grenzen mit speziellen Filtern reduziert werden.

Je größer die Pixelzahl ist, umso größer wird dadurch die Bilddatei. Kleine Pixel erhöhen zudem meist den Rauschpegel der Bilder und vergrößern zusätzlich die Bilddatei durch Rauschartefakte. In der heutigen Zeit ist Speicherplatz jedoch relativ günstig; mit einer Speicherkarte mit der Kapazität von 8 GB und mehr, kann problemlos mit der größten Pixelzahl photographiert werden, ohne rasche Engpässe befürchten zu müssen.

Die nachfolgende Tabelle stellt einige bekannte Pixelgrößen von Sensoren vor und die dazugehörigen Abmessungen des Photos in cm bei einer Druckauflösung von 300 dpi.

Bezeichnung Breite mal Höhe in Pixeln Pixelzahl Abmessung in cm (300 dpi)
160 x 120 19.200 1,3 x 1,0
320 x 240 76.800 2,7 x 2,0
0,3 MP 640 x 480 307.200 5,4 x 4,0
0,5 MP 800 x 600 480.000 6,7 x 5,8
0,8 MP 1024 x 768 786.432 8,6 x 6,5
1,0 MP 1152 x 864 995.328 9,7 x 7,3
1,3 MP 1290 x 960 1.238.400 10,9 x 8,1
2,0 MP 1600 x 1200 1.920.000 13,5 x 10,1
3,0 MP 2048 x 1536 3.145.728 17,3 x 13,0
4,0 MP 2272 x 1704 3.871.488 19,2 x 14,4
5,0 MP 2592 x 1944 5.038.848 21,9 x 16,4
8,0 MP 3264 x 2448 7.990.272 27,6 x 20,7
10,0 MP 3648 x 2736 9.980.928 30,8 x 23,1
12,0 MP 4000 x 3000 12.000.000 33,8 x 25,4
Hinweise
  • Je größer die Auflösung ist, umso mehr kann auch ein Photo vergrößert werden, ohne dass es dabei verpixelt wirkt. Umso mehr Details bleiben also erhalten.
  • Mit größeren Druckformaten (z.B. A4 oder A3) kann oft der dpi-Wert gesenkt werden, weil große Bilder meist mit größeren Betrachtungsabstand angesehen werden, das Auflösungsvermögen des menschliches Auges hängt ja ebenfalls vom Betrachtungsabstand ab. So lässt sich ein 12-MP-Photo auch problemlos im A3-Format, gegebenenfalls auch A2-Format drucken. Für Formate unterhalb von A4 sollte aber der Richtwert von 300 dpi eingehalten werden.
  • Hinweis: Beim Beschneiden des Photos wird auch die Anzahl der verbleibenden Pixel reduziert. Vor dem Speichern sollte dabei stets sichergestellt werden, dass nach dem Schneidevorgang immer noch eine ausreichende Pixelzahl vorhanden ist.

Dateiformate[Bearbeiten]

Einführung[Bearbeiten]

Die meisten einfachen digitalen Kameras verwenden standardmäßig das JPEG/JFIF-Format zur Speicherung der Photos (JPEG/JFIF: Joint Photographic Experts Group File Interchange Format). Dieses Format hat eine hohe Verbreitung, wird von jedem Photoverarbeitungsprogramm interpretiert und bietet eine relativ gute Qualität. Bei der Speicherung des Bildes beinhaltet das JPEG/JFIF-Format jedoch immer eine verlustbehaftete Kompression, es geht also Information bei der Speicherung unwiderbringlich verloren. Manche Kameras bieten daher auch das TIFF-Format an (Tagged Image File Format). Hochwertige Kameras bieten meist statt TIFF ein eigenes Format an, welches für den Kamerahersteller spezifisch ist. Damit können die Bildinformationen des Sensors verlustfrei abgespeichert werden. Diese Formate sind für jegliche Art der Nachbearbeitung zu empfehlen.

Die Bitmap[Bearbeiten]

Noch bis vor etwa einem Jahrzehnt war die Bitmap (bmp) das gängige Format zum Speichern von Bildern (Windows Bitmap; device-independent bitmap). Es war ein recht einfaches, verlustfreies Format, das jedes einzelne Pixel separat mehr oder weniger ohne Kompression gespeichert hat. Bitmaps gibt es in unterschiedlicher Farbauflösung (etwa 8 Bit, 16 Bit, 24 Bit, 32 Bit). Da zum Photographieren mindestens 24 Bit notwendig scheinen (also theoretisch rund 8 Millionen Farben) und 24 Bit immerhin 3 Byte entsprechen, hat jedes gespeicherte Pixel einen Speicherbedarf von 3 Byte. Ein Photo mit der eher geringen Pixelzahl von 2 MP hat damit also 6 MB Speicher in Anspruch genommen. Bei 12 MP wären es immerhin schon 36 MB. Das ist sehr sperrig, zumal die Speicherkapazitäten damals noch ziemlich gering waren; eine übliche Speicherkarte bot oft nur 128 oder 256 MB. Digitalkameras bieten daher das Bitmap-Format nicht an.

JPEG/JFIF[Bearbeiten]

Das bereits zu Beginn der 90er Jahre vom Fraunhofer Institut entwickelte JPEG-Format (jpg, jpeg; Joint Photograph Expert Group) bietet eine adäquate Lösung zu dem Speicherproblem. Durch spezielle Kompressionstechniken konnte die Bildgröße enorm gesenkt werden (zum Beispiel von 6 MB auf 250 KB). Ein Nachteil, der sich bei solchen Kompressionsverfahren immer einstellt, ist ein Verlust an Qualität. Da JPEG-Bilder nicht mehr die Informationen über einzelne Pixel speichern, sondern zusammenhängende Bereiche des Bildes (Blöcke) als Einheit betrachten und dann beim Laden beziehungsweise Anzeigen des Bildes die einzelnen Pixel rekonstruieren, können insbesondere an Farbübergängen und Kanten gewisse Störungen auftreten. Man kann die Kompression jedoch beim JPEG-Format einstellen; eine niedrige Kompression ermöglicht eine bessere Qualität als eine höhere, fordert dafür aber auch mehr Speicherplatz. Zudem ist der Qualitätsverlust meist nur auf Pixelebene zu sehen; wenn man mit ausreichend großer Pixelzahl photographiert, braucht man keine formatbehafteten Qualitätsstörungen befürchten. Oft ist allerdings die Bildinformation pro Pixel bei modernen Sensoren größer als mit JPEG abgespeichert werden kann, von daher treten auch hier Informationsverluste auf, die sich besonders bemerkbar machen, wenn Bilder mit starken Kontrasten aufgenommen werden.

Beim JPEG-Format wird das Bild in Blöcke von jeweils 8x8 Pixeln aufgeteilt. Diese werden dann jeweils komprimiert und es werden zusammenhängende Informationen zu den einzelnen Blöcken annotiert. Unter Anwendung zahlreicher mathematischer Verfahren kann somit die Größe drastisch reduziert werden. Kameras bieten oft auch eine Qualitätseinstellung an (meist Normal, Fein und Super-Fein). Obwohl die normale Qualität oft ausreichend ist, kann also eine niedrigere Kompression verwendet werden, welche die Qualität erhöht (aber eben auch den Speicherbedarf).

TIFF-Format[Bearbeiten]

Einige Kameras bieten neben dem JPEG-Format auch das TIFF-Format (tif, tiff; Tagged Image File Format) an, welches Bilder meistens komprimiert aber verlustfrei abspeichert. Bilder im TIFF-Format sind damit auch um einiges größer als im JPEG-Format, so dass das Format nur bei hohen Qualitätsanforderungen angemessen scheint, die sich etwa ergeben, wenn das Bild nachbearbeitet werden soll. Insbesondere im Verlagswesen und in Druckereien wird mit dem TIFF-Format gearbeitet, da hier eine sehr hohe Qualität zum sauberen Drucken gefordert ist.

RAW-Formate[Bearbeiten]

Die RAW-Formate sind eine Art "digitales Negativ". Jeder Kamerahersteller bietet meist ein eigenes Format an. Es gibt zwar Bemühungen zur Standardisierung, die sich bislang aber leider nicht durchgesetzt haben (DNG, digitales Negativ).

In diesen Dateiformaten wird kein direktes Bild erstellt, das sich sofort ansehen lässt, stattdessen werden die Rohdaten gespeichert, die der Bildsensor bei der Aufnahme erfasst. Bilder in einem RAW-Format muss man mit einem speziellen Programm öffnen, das oft zu der Kamera mitgeliefert wird. Die Formate bekannterer Hersteller sind jedoch entschlüsselt, können also auch mit unabhängigen Programmen dekodiert und nachbearbeitet werden.

Bilder in solchen Rohformaten dienen meist der Nachbearbeitung, weil sie noch die komplette Bildinformation des Sensors enthalten. Während die als JPEG abgespeicherten Ergbnisse meist mit mehr oder weniger leistungsfähigen Prozessoren direkt in der Kamera aus den Rohdaten erzeugt werden, wobei diverse Korrekturen und Filter angewendet werden, werden RAW-Dateien zumeist ohne weitere Manipulation oder Korrektur durch den Prozessor der Kamera abgespeichert. Manipulationen und Korrekturen werden dann dem Photographen selbst in der Nachbearbeitung überlassen. Die Ergebnisse der Nachbearbeitung lassen sich dann in andere Formate konvertieren (etwa JPEG, DNG, PNG etc). Die RAW-Formate zeichnen sich dadurch aus, dass sie für die digitale Nachbearbeitung eine Vielzahl an Möglichkeiten bieten, weil sie die Sensorinformation verlustfrei speichern, welches andere Formate ("fertige Bilder") nicht bieten. Bilder im RAW-Formaten benötigen sehr viel Speicherplatz, selbst eine verlustfreie Kompression wird nicht unbedingt bei der Speicherung in der Kamera vorgenommen. Der Umgang mit den RAW-Formaten erfordert allerdings etwas Erfahrung. Für den Einsteiger ist das kleine, einfache JPEG-Format daher meist geeigneter, auch weil die Kamera bei der Erzeugung des JPEG bereits versucht, bekannte Abbildungsfehler des Objektivs (auf Kosten höheren Rauschens oder reduzierter Auflösung) zu kompensieren. Bei suboptimalen Bildergebnissen stellt sich allerdings recht schnell das Bedürfnis ein, Bilder nachbearbeiten zu wollen, weswegen es sich von Anfang an lohnt, neben den JPEG-Bildern die Rohdaten auf einer entsprechend größeren Speicherkarte gleich mit abzuspeichern, um später im Bedarfsfalle darauf zurückgreifen zu können oder diese dann auch zu löschen, wenn die JPEGs ausreichen.

Andere Formate[Bearbeiten]

Zwei weitere bekannte Bildformate sind GIF und PNG. Diese werden vor allem im Netz verwendet. Digitalkameras bieten sie nicht an. Der Vollständigkeit halber seien sie hier jedoch mit erwähnt.

GIF (Graphic Interchange Format) ist ein Format, das nur eine Farbpalette mit maximal 256 Farben verwenden kann. Das Format bietet eine bedingt durch das Alter des Formates recht einfache verlustfreie Komprimierung. Mit 256 Farben lassen sich jedoch keine Photos in ausreichender Qualität darstellen. Darum werden Kameras niemals das GIF-Format anbieten. GIF wird eher im Netz für Navigationselemente (zum Beispiel Knöpfe) verwendet, wo man mit 256 Farben meist problemlos auskommt. Im letzten Jahrhundert war GIF auch wegen einer Erweiterung beliebt als einfaches Videoformat ('animierte GIFs').

PNG (Portable Network Graphics) ist ein Format, das GIF zunehmend abgelöst hat. Es ist bietet eine effektivere verlustfreie Kompression an und neben den bereits von GIF bekannten Farbpaletten bietet es eine Farbtiefe von 24 oder gar 48 Bit. Da es sich zudem um ein internationales Standardformat handelt, eignet es sich von daher auch gut, um die hochauflösenden Rohdaten zu archivieren, wenn man sich nicht darauf verlassen mag, dass die herstellerspezifischen Formate in einigen Jahrzehnten noch dekodierbar sind. Einmal abgesehen von den zwangsläufigen einmaligen kleinen Konversionsverlusten hat man mit Photos, die nach PNG konvertiert werden, also eine ideale Kombination von verlustfreier, effizienter Kompression mit einem vom Hersteller unabhängigen internationalen Standard, der voraussichtlich noch sehr lange Zeit lesbar sein wird.

Aufgrund der verlustfreien Kompression sind die Bilder meist deutlich größer als jene, die mit JPEG komprimiert sind. Im Vergleich zu GIF hängt der Größenunterschied vor allem davon ab, in welchem Modus man PNG abspeichert. Bei gleicher Wahl einer Farbpalette wie beim Vergleichs-GIF sollte das moderne Kompressionsverfahren von PNG meist kleinere Dateien bei gleicher Qualität bieten oder eben bei einem anderen Modus bessere Qualität bei größeren Dateien.

PNG eignet sich wie GIF ansonsten eher für Computergraphik, die heute allerdings zunehmend mit Vektorgraphik (SVG) realisiert wird. Die Kompression ist recht effektiv bei Bildern, die größere Bereiche gleicher Farbe aufweisen, wie es bei Computergraphik oft der Fall ist - auf diese Weise bleiben sie von den Speicherbedarf her relativ klein. Da dies bei Photos nicht der Fall ist, würde das PNG-Format zu sehr großem Speicherbedarf führen, aber vermutlich etwas effektiver als die Rohdatenformate der Hersteller, die bei Verwendung eines Standards aber ein Mittel der Kundenbindung verlieren würden, daher wird PNG von den Herstellern nicht verwendet.

Farben[Bearbeiten]

Einleitung[Bearbeiten]

Bis in die Mitte des 20. Jahrhunderts gab es, technisch bedingt, ausschließlich Schwarz-Weiß-Photos (eigentlich Grauwerte). Mit der Erfindung des Farbfilms in den 30er und 40er Jahren schwenkte die Photographie in relativ kurzer Zeit zur Farbphotographie um, wobei Schwarz-Weiß-Photographie noch immer praktiziert wird und oft einen ganz eigenen künstlerischen Charme besitzt.

Dennoch werden die meisten Photos heute in Farbe aufgenommen. Ein farbiges Photo wirkt realistischer und Farben haben stets ihre ganz besondere Wirkung. Neben dem Motiv und der Komposition, spielen Farben vermutlich die wichtigste Rolle in einem Photo und sollen in diesem Abschnitt näher erläutert werden.

Filme oder Sensoren, die nur Grauwerte aufnehmen, haben zudem meist eine bessere Auflösung oder eine deutlich höhere Empfindlichkeit als Aufnahmematerial für farbige Bilder. Bei digitalen Kameras ist in dem Zusammenhang also zu beachten, dass diese meistens spezielle Filter einsetzen, um mit dem Sensor Farbbilder aufnehmen zu können. Dies kostet sowohl Auflösung als auch Empfindlichkeit. Sensoren, die nur Helligkeitsunterschiede aufnehmen können, sind bei ansonsten gleicher Pixelzahl und -größe also deutlich günstiger herzustellen, haben eine höhere Auflösung und eine deutlich größere Empfindlichkeit als Sensoren für Farbbilder. Zwar kann man die Bilder letzterer Sensoren auch nachträglich oder gleich in der Kamera in Grauwertbilder konvertieren, kann damit aber natürlich die Verluste an Empfindlichkeit und Auflösung nicht wieder rückgängig machen.


Die Entstehung der Farben[Bearbeiten]

Anschauliche Darstellung der einzelnen Wellenlängenbereiche des Lichts, einschließlich der Spektralfarben.

Die Sonne strahlt permanent Licht aus, wobei Sonnenlicht (und allgemein weißes Licht) aus einer Überlagerung von Lichtwellen unterschiedlichster Wellenlängen besteht. Die Wellenlänge ist, wie der Name schon sagt, eine Längenangabe und wird in Nanometer (nm) angegeben. Es gilt dabei: . Wie immer bei Wellen kann man auch eine Frequenz angeben, also im Wesentlichen Wellen pro Zeiteinheit. Im Rahmen der Quantenmechanik läßt sich auch jeder Frequenz eine Energie zuordnen, die proportional zur Frequenz ist und damit umgekehrt proportional zur Wellenlänge.

Beim weißen Licht sind die verschiedenen Wellenlängen zunächst vermischt. Lässt man es jedoch durch ein Prisma fallen, so wird das Licht gemäß der verschiedenen Wellenlängen aufgetrennt. Zu jeder Wellenlänge gibt es also einen etwas anderen Austrittswinkel des Lichtes aus dem Prisma. Man sagt auch, das Licht wird räumlich dispergiert, was zuvor vermischt war, läßt sich nun auf einem Schirm nebeneinander betrachten. So wird sichtbar, was als Farben bezeichnet wird. Farbe in dem Sinne ist eine physiologische Wahrnehmung, hervorgerufen durch Rezeptoren im Auge - verschiedene Lebewesen haben unterschiedliche Rezeptortypen, daher auch eine unterschiedliche Farbwahrnehmung. Die objektive Maße sind immer Wellenlänge, Frequenz und Energie.

Beispielsweise erscheinen den meisten Menschen Lichtwellen der Länge 400 nm violett, Wellen der Länge 700 nm erscheinen rot. Das 'normale' menschliche Auge kann dabei Wellenlängen zwischen 380 und 800 nm wahrnehmen, alles was darüber oder darunter liegt ist für das menschliche Auge nicht mehr sichtbar. Die Wellen zwischen 380 und 800 nm, welche wir als Farben wahrnehmen können, sind die uns bekannten Regenbogenfarben, einschließlich aller dazwischenliegenden Abstufungen. Diese Farben heißen auch Spektralfarben. Das menschliche Auge hat jedoch nur Sinnesreize oder Rezeptoren für die Farbbereiche rot, grün und blau; die anderen Farbeindrücke errechnet das Gehirn aus der Mischung dieser drei Rezeptorwerte (aus dem Anteil an rot, grün und blau errechnet es einen Farbeindruck).

Jeder Wellenlänge zwischen 380 und 800 nm kann somit einer Farbe zugeordnet werden. Folgende Farben haben die einzelnen Wellenlängen:

  • 380 nm bis 400 nm: blau-violett
  • 400 nm bis 470 nm: blau
  • 470 nm bis 560 nm: grün
  • 560 nm bis 600 nm: gelb
  • 600 nm bis 630 nm: orange
  • 630 nm bis 800 nm: rot

Blau wird dabei auch als kurzwelliges Licht, grün als mittelwelliges und gelb/orange/rot als langwelliges Licht bezeichnet.

Der Farbeindruck kann dabei nach Beschaffenheit und Alter des Auges des menschlichen Betrachters etwas unterschiedlich sein, ebenso die Grenzen des sichtbaren Bereiches, der wiederum auch von der Intensität der Strahlung abhängt. Besonders wenn Licht unterhalb von 400 nm auf Material wie Papier oder weiße Farbe trifft, kann sich die Wellenlänge des vom Material zurückgeworfenen Lichtes ändern, mehr zu längeren Wellenlängen hin, weswegen das Licht oft einheitlich blau wirkt. Während die Zuordnung nach Wellenlängen eine meßbare Größe ist, sind die Namen und Farbeindrücke spezifisch für menschliche Augen. Andere Lebenwesen können etwas anders funktionierende Augen haben und haben daher keinen oder einen anderen Farbeindruck. Auch der Sensor der digitalen Kamera oder das Filmmaterial kann andere Empfindlichkeitsbereiche haben. Teilweise werden Filter eingesetzt, um unerwünschte Wellenlängenbereiche herauszufilten, um mit der Kamera einen Farbeindruck ähnlich dem des menschlichen Auges zu erreichen.

Natürlich verlaufen die Farbwerte fließend. Licht der Wellenlänge 400 nm ist ein Blau das eher in Richtung violett tendiert; Licht der Wellenlänge 470 nm ist eher schon ein Blaugrün. Es lässt sich damit erkennen, dass diese Wellenlängen dem allgemein bekannten Farbkreis entsprechen (beziehungsweise der Farbkreis auf den Farbwerten der Wellenlängen aufbaut). Andere wird diese Abstufung an einen Regenbogen erinnern – ein Regenbogen ist im Grunde nichts anderes, als Licht, das durch Prismen (die Regentropfen) strahlt und somit in seine Spektralfarben zerfällt.

Es sei noch erwähnt, dass es auch Lichtwellen unter 380 nm und über 800 nm gibt. Diese kann das menschliche Auge nicht sehen. Lichtwellen unter 380 nm werden als Ultraviolett bezeichnet (kurz UV), Lichtwellen über 800 nm als Infrarot (kurz IR). Ultraviolettes Licht läßt sich leicht in sichtbares Licht konvertieren, das passiert mit sogenannten optischen Aufhellern, die heute oft in Papier und Waschmitteln zu finden sind, aber auch in speziellen Farben oder als Leuchtstoff in Leuchtstoffröhren oder weißen LEDs. Spezielle Farben werden mit Verwendung von ultravioletten Lampen teils für spezielle Effekte genutzt (Stichwort: Schwarzlicht).

Trifft Licht auf einen Gegenstand, zum Beispiel eine Tomate, so kann mit den jeweiligen Lichtwellen folgendes passieren:

  • Sie können von dem Gegenstand reflektiert (zurückgeworfen) werden.
  • Sie können von dem Gegenstand absorbiert (aufgenommen) werden. Absorbiertes Licht wird meist wieder (in einer anderen Wellenlänge) emittiert (ausgesendet)
  • Sie können gestreut (abgelenkt) werden
  • Sie können durch den Gegenstand hindurchdringen.

Bei realen Objekten tritt praktisch immer eine Mischung aller Möglichkeiten auf. Wenn Objekte anderweitig mit Energie versorgt werden, können sie auch selbst Licht erzeugen und aussenden, was man etwa von Lampen kennt.

Der letzte Fall der Durchdringung bezeichnet einen Spezialfall; hier ist der Gegenstand durchsichtig (zum Beispiel Glas oder Luft). Wir wollen diesen Fall für die Farbwahrnehmung aber vernachlässigen, da er im Grunde nichts dazu beiträgt. Wie am durchsichtigen Prisma sichtbar, können durchsichtige Materialen gleichwohl das Licht dispergieren, was bei bestimmten Objekten auch auftreten kann, wenn sie Licht reflektieren, man denke etwa an CDs oder dünne Ölfilme auf einer Wasserfläche.

Wenn das Licht reflektiert wird, dann wird es für uns sichtbar und eine Lichtquelle wird im Gegenstand als Spiegelbild erkennbar.

Auf die bereits erwähnte Tomate fällt also das gesamte Sonnenlicht mit all seinen verschiedenen Wellenlängen. Die Tomate absorbiert das meiste Licht. Ein kleiner Reflex ist auf der Oberfläche der glatten Schale jedoch meist erkennbar. Ansonsten erscheint die reife Tomate rot. Ein großer Teil Licht wird absorbiert und es wird hauptsächlich als für uns nicht sichtbares infrarotes Licht ausgesendet. Teile des Lichtes werden auch gestreut, was gut erkennbar ist, wenn man durch eine dünne Tomatenscheibe guckt. Im Fleisch der Tomate wird das Licht vielfach gestreut, der rote Anteil, der nicht so absorbiert wird, tritt irgendwo wieder aus der Tomate aus. Einmal abesehen von dem schwachen Reflex an der Schale gibt es also kein Bild der Lichtquelle und der Umgebung, sondern ein rotes Objekt. Hat die Lichtquelle hingegen etwa nur blaues Licht, so bleibt nahezu nur der schwache Reflex an der Oberfläche und die Tomate erscheint nicht rot.

Die Farbe eines Gegenstandes entsteht also aus den Farbwerten der Lichtwellen, welche reflektiert werden oder durch Streuung und Emission wieder aus dem Gegenstand austreten. Falls der Gegenstand mehrere Farben reflektiert, so entsteht der Farbeindruck aus der Mischung der Farben. Man nennt dies auch additive Farbmischung. Ein Gegenstand, der die roten und grünen Wellenlängen zu gleichen Mengen reflektiert, erscheint gelb, da die additive Mischung aus grün und rot gelb ergibt. Solch ein Gegenstand ist dann nicht wirklich gelb, was einem anderen Wellenlängenbereich zwischen rot und grün entspricht, aber das menschliche Auge kann den Unterschied nicht erkennen, ein geeignetes Meßinstrument schon, wie man den Unterschied etwa auch erkennen kann, wenn man das Licht wieder durch ein Prisma in seine Bestandteile aufteilt. Das menschliche Auge hat drei verschiedene Sorten von Rezeptoren für farbliches Sehen, eine ist besonders für blau empfindlich, eine für grün, eine für rot. Die Empfindlichkeit eines Rezeptors erstreckt sich aber auch mit geringerer Empfindlichkeit über die benachbarten Bereiche. Der Farbeindruck wird im Gehirn zusammengesetzt aus den relativen Intensitäten der unterschiedlichen Rezeptoren, daher ist Rot+Grün nicht von intensivem Gelb zu unterscheiden.

Schwarze Gegenstände absorbieren das meiste Licht, das heißt, fast kein sichtbares Licht tritt wieder aus solch einem Gegenstand aus. Da Licht eine Energiequelle darstellt, geht dann fast die gesamte Energie in den Gegenstand über; das ist der Grund, warum sich schwarze beziehungsweise dunkle Gegenstände im Sonnenlicht stark aufwärmen. Sie senden infrarotes Licht aus. Spiegel hingegen absorbieren kaum Lichtstrahlen; sie reflektieren so gut wie alle Wellenlängen zwischen 380 und 800 nm und wärmen sich im Sonnenlicht daher weniger auf (oder nur wenig, denn natürlich können Wellenlängen unter 380 nm oder über 800 nm absorbiert werden - die tragen aber nicht zur Farbwahrnehmung bei). Weiße Gegenstände absorbieren auch kaum Licht, dies wird hauptsächlich an der unregelmäßigen Oberfläche oder kurz darunter gestreut, anders als beim Spiegel ist die Lichtquelle so nicht im weißen Gegenstand erkennbar.


Zum besseren Verständnis seien hier hoch die Entstehung ausgewählter Farben zusammenfassend erläutert:

  • Kräftiges rot: Alle Wellen außer rot werden absorbiert, rot wird reflektiert, gestreut oder ausgesendet.
  • Kräftiges blau: Alle Wellen außer blau werden absorbiert, blau wird reflektiert, gestreut oder ausgesendet.
  • Kräftiges gelb: Der Fall ist für das menschliche Auge nicht eindeutig, entweder von dem Gegenstand wird gelbes Licht

reflektiert, gestreut oder ausgesendet oder rotes und grünes.

  • Dunkelrot: Rot wird teilweise reflektiert, gestreut oder ausgesendet und teilweise absorbiert, der Rest wird vollständig absorbiert.
  • Rosa (helles rot): Rot wird vollständig reflektiert, gestreut oder ausgesendet, aber nicht die anderen Farben, diese werden teils auch absorbiert.
  • Lila/Violett: In der Praxis handelt es sich meist um eine Mischung von rotem und blauem Licht, der grüne Anteil fehlt. Ein kräfiges violett ist für das menschliche Auge mit Wellenlängen unter 400 nm meist nicht erreichbar.
  • Schwarz: Alle Farben werden vollständig absorbiert.
  • Weiß: Alle Farben werden vollständig reflektiert, gestreut oder ausgesendet, nichts wird absorbiert.
  • Grau: Alle Farben werden im gleichen Maß teilweise reflektiert, gestreut oder ausgesendet und teilweise absorbiert.

Spezielle Filter können auch so mit Material beschichtet sein, dass sie je nach Einfallsrichtung bestimmte Wellenlängenbereiche reflektieren und den Rest durchlassen oder umgekehrt, das ist eine weitere Möglichkeit, wie sich der Farbeindruck verändern kann, je nachdem, und unter welchem Winkel man solch einen Filter betrachtet und ob durchgelassenes oder reflektiertes Licht betrachtet wird, ist der Farbeindruck vom betrachteten Gegenstand also ein komplett anderer.


Tipp: Man kann die Entstehung von Farben mit Computerprogrammen problemlos simulieren, da die Farbmischung am Computer (RGB beziehungsseise additive Mischung) dem des menschlichen Auges entspricht. In fast allen Photobearbeitungs- und Zeichenprogrammen, bereits in Paint von Microsoft, gibt es Menüs, wo die Farbe per RGB-Wert festlegt werden kann. Hierbei wird jeder der drei Farben rot, grün und blau ein Wert von 0 bis 255 zugewiesen. Wie eben erläutert, ist 0 vergleichbar damit, dass kein Anteil in dieser Farbe vorhanden ist; 255 bezeichnet die mit dem Monitor maximal erzielbare Intensität. (255, 0, 0) ist also ein kräftiges rot, (0, 0, 0) ist schwarz und (255, 255, 255) ist weiß, da alle Farbbereiche maximal gestellt sind. Möchte man wissen, was passiert, wenn ein Gegenstand rot zu 30 % aussendet, grün zu 50 % und blau zu 100 %, so muss man etwa den Wert (80, 128, 255) eingeben. Es kommt ein sanftes Blau heraus, das zum Hellblau tendiert.

Wenn man dies mit bunten Lichtquellen und realen Objekten probiert, hängt es von den Eigenschaften dieser Objekte ab, ob diese Farbmischung wie gewünscht funktioniert. Hat man etwa ein wirklich gelbes Objekt und bestrahlt es präzise mit rotem und grünem Licht, kann es komplett dunkel bleiben. Meist können reale Objekte aber breite Farbbereiche aussenden, so dass solche Objekte dann doch wieder schwach gelb erscheinen werden.

Farbmischung und Farbdefinition[Bearbeiten]

Grundlagen der Farbmischung[Bearbeiten]

Wenn es um Farbmischung geht, unterscheidet man für gewöhnlich die additive Farbmischung und die subtraktive Farbmischung. Das liegt daran, dass man die Farbmischung aus zwei verschiedenen Blickwinkeln betrachten kann, einmal als Mischung von ausgesendetem Licht und einmal als Mischung von Substanzen. Die beiden Methoden werden in diesem Abschnitt vorgestellt, ebenso der HSV-Farbraum zur Definition von Farben.

Additive Mischung – RGB[Bearbeiten]

Additive Farbmischung.

Wie bereits erwähnt, entsteht die Farbe eines Gegenstands aus der Mischung der Lichtwellen, die von dem Gegenstand ausgesendet werden (warum ein Gegenstand bestimmte Farben reflektiert, streut, aussendet oder absorbiert, geht auf seine Beschaffenheit und Oberfläche zurück). Das menschliche Auge nimmt diese vom Gegenstand ausgehenden Lichtwellen wahr und ermittelt auf diese Weise einen Farbeindruck des Gegenstands. Man nennt dies additive Farbmischung, manchmal auch physiologische Farbmischung. Es ist die Farbmischung wie sie im Auge und Gehirn geschieht bzw. physisch-biologisch bedingt ist. Je mehr Licht ein Gegenstand aussendet, umso heller erscheint er.

Die additive Farbmischung wird vor allem in der Computer- und Fernsehtechnik und somit auch in der Digitalkameratechnik angewendet. Hierbei arbeitet man mit den drei Grundfarben Rot, Grün, Blau (RGB), da nur 3 der 6 Spektralfarben notwendig sind, um jeden beliebigen Farbeindruck mischen zu können. Bei der 24-Bit-Farbtiefe hat jede Farbe einen Farbraum von 8 Bit, also 255 Stufen. Rot, Grün und Blau können also jeweils einen Wert zwischen 0 und 255 annehmen. 0 heißt dabei, es wird kein Licht dieser Farbe ausgesendet (schwarz), 255 heißt, der Wert wird mit voller Intensität ausgestrahlt (voller Wert). Der RGB-Wert (255, 0, 0) liefert somit ein natürliches, kräftiges rot, während (150, 0, 0) ein dunkles rot und (50, 0, 0) ein sehr dunkles rot liefern. Der RGB-Wert (255, 255, 0) besagt, dass rot und grün mit maximaler Intensität ausgesendet werden. Die Mischung aus rot und grün ergibt ein kräftiges Gelb. Der RGB-Wert (120, 120, 0) besagt, dass rot und grün nur mit mittlerer Intensität ausgesendet werden. Die Farbe ist damit ein dunkleres Gelb, das auch als ocker bezeichnet wird.

Subtraktive Mischung - CMY/CMYK[Bearbeiten]

Subtraktive Farbmischung.

Die Subtraktive Mischung spielt vor allem im Druckgewerbe aber auch in der Malerei eine große Rolle. Hierbei werden die Farben durch Mischen der drei Grundfarben Cyan, Magenta, Gelb gemischt (manchmal auch: Blau, Rot, Gelb). Entsprechend heißt das Farbmodell auch CMY-Modell. Manchmal wird als weiterer Parameter ein Key-Wert mit betrachtet, welcher einen bestimmten Schwarzanteil darstellt, um den Farben eine bessere Tiefe geben zu können. Dieses Farbmodell heißt dann auch CMYK-Modell (für Cyan, Magenta, Yellow und Key, wobei Key den Schwarzanteil bestimmt).

Grundlagen des Druckens mittels der subtraktiven Farbmischung.

Anders als bei der additiven Farbmischung, wo der Farbeindruck durch die Mischung aus ausgesendeten Lichtwellen unterschiedlicher Länge geschieht, entsteht die subtraktive Farbmischung aus der Mischung unterschiedlicher Substanzen, so wie eben im Druckgewerbe Farben durch Mischen unterschiedlicher Farbsubstanzen entsteht. Jede Farbsubstanz emittiert oder absorbiert dabei einen bestimmten Anteil an Lichtwellen. Rote Farbe sendet beispielsweise die rotes Licht aus, absorbiert aber blau und grün. Werden mehrere Farben gemischt, so wird mehr Licht absorbiert und die Farbe erscheint dunkler. Bei der subtraktiven Farbmischung wird die resultierende Farbe also dunkler, je mehr verschiedene Farbtöne miteinander vermischt werden, während bei der additiven Farbmischung die Farbe dabei heller wird.

HSV-Farbraum[Bearbeiten]

Additive und Subtraktive Farbmischung können, nicht nur vom Verstehen her, recht kompliziert sein. Aus dem RGB-Farbwert (90, 184, 17) werden wohl nur wenige sofort erschließen können, um was für eine Farbe es sich handelt (es ist ein dunkles Grasgrün). Daher bieten Bildbearbeitungsprogramme auch den HSV-Farbraum an. Hierbei handelt es sich nicht um eine Mischung um Farben im eigentliche Sinne, sondern rein um eine Definition von Farben aus 3 Parametern: Farbton, Sättigung und Helligkeit.

Eine im HSV-Farbraum kodierte Farbe kann dabei über eine Formel eindeutig in eine RGB-Farbe umgerechnet werden und umgekehrt. Es ist also am Ende egal, mit welchen Werten man arbeitet. Der zu RGB = (90, 184, 17) analoge HSV-Wert ist: (63, 199, 95). Leider ist es recht kompliziert, aus dem RGB-Wert den HSV-Wert zu berechnen und umgekehrt, Photobearbeitungsprogramme berechnen diese aber oft automatisch.

Was sagt nun der HSV-Wert?

  • Der erste Parameter gibt den Farbton auf dem Farbkreis an. 0 ist dabei rot.
  • Der zweite Parameter gibt die Sättigung an. 0 ist dabei reines grau (farblos), 240 ist eine vollständig satte Farbe.
  • Der dritte Parameter gibt die Helligkeit an. 0 ist dabei schwarz, 240 ist weiß. Werte in der Mitte (zum Beispiel 120) geben eine natürliche Helligkeit wieder (natürlich wirkendes rot, blau, grün etc.).

Der Farbwert (0, 50, 240) ist demnach ein dunkles, aber kräftiges Rot.

Verschiedene Arten von Farben[Bearbeiten]

Primärfarben[Bearbeiten]

Der zwölfteilige Farbkreis, entsprechend der Spektralfarben. Das innere Schema zeigt zudem die drei Primärfarben der additiven Farbmischung und die drei Sekundärfarben.

Primärfarben (Grundfarben) sind drei Farben auf dem Farbkreis, mit denen sich alle weiteren Farben durch Mischen erstellen lassen. In der additiven Farbmischung (RGB) sind die Grundfarben rot, grün und blau. In der subtraktiven Farbmischung, auf die hier nicht weiter eingegangen wird, sind sie cyan, gelb und magenta (manchmal sagt man auch: rot, gelb, blau).

Sekundärfarben[Bearbeiten]

Sekundärfarben sind die Farben, die direkt aus den Primärfarben gemischt werden können, also im ersten Mischvorgang entstehen. Dies sind in der additiven Farbmischung grün, gelb und violett. Primärfarben und Sekundärfarben bilden zusammen die "Regenbogenfarben", also die sechs Farbbereiche, in die man die Spektralfarben oft einteilt.

Die Mischung aus Sekundärfarben ergeben dann die Tertiärfarben. Der heute allgemein bekannte zwölfteilige Farbkreis besteht damit aus drei Primärfarben, drei Sekundärfarben und sechs Tertiärfarben.

Komplementärfarben[Bearbeiten]

Komplementärfarben sind die Farben, die sich im Farbkreis gegenüberstehen. Das sind zum Beispiel gelb und blau, rot und cyan, grün und magenta. Komplementärfarben wirken besonders kontrastreich.

Von Komplementärfarben kann man auch sprechen, wenn sich die Farben nicht ganz exakt im Farbkreis gegenüberstehen (zum Beispiel rot/grün oder gelb/violett).

Wirkung von Farben[Bearbeiten]

Farbton[Bearbeiten]

Farben werden oft als Symbole betrachtet und stehen für bestimmte Eigenschaften. Dabei ist es wichtig zu wissen, dass die Bedeutung von Farben von Kulturkreis zu Kulturkreis verschieden sein kann. Die hier vorgestellten Bedeutungen einiger wichtiger Farben beziehen sich etwa auf den europäischen Raum – sie können sich zum Beispiel im asiatischen und afrikanischen Raum deutlich unterscheiden.

Farben haben oft mehrere verschiedene Bedeutungen, auch in Abhängigkeit mit welchen weiteren Farben beziehungsweise in welchem Kontext sie vorkommen. Die nachfolgende Auflistung kann damit nur als grober Überblick dienen.

Rot ist eine sehr wirkungsvolle, ausdrucksstarke Farbe. In der Natur kommt sie oft als Signalfarbe vor und steht damit für Gefahr und Warnung. Im Alltag verbinden wir rot meist mit Liebe, Leidenschaft, Lebensenergie, Dynamik. Oft wird rot auch mit dem Blut assoziiert ("rot wie Blut") und steht dann auch für Gewalt, Krieg und Brutalität. Die Wirkung des Rots ist demnach impulsiv, energisch und auch aggressiv. Auf Grund der Signalwirkung können Photos, die rote Elemente enthalten, die Aufmerksamkeit des Betrachters deutlich auf sich lenken.

Gelb ist ebenso eine Signalfarbe, jedoch nicht so ausdrucksstark und impulsiv wie rot. Auf Skalen steht gelb vor rot, ist also gewissermaßen eine Vorstufe zu einer Gefahr. Gelb ist aber vor allem die Farbe der Wärme (Sonne), Helligkeit und Freude, ebenso der Lebensenergie und Spontanität. Ein dunkles Gelb steht oft für Neid, Habgier und Überheblichkeit, während ein helles Gelb oft auch für Geist, Verstand und Intelligenz steht.

Orange steht zwischen gelb und rot und entsprechend ähnlich sind seine Bedeutungen. Es steht für Mut, Selbstvertrauen, Energie, Elan, Aufregung und Wärme. Es ist ebenso eine recht ausdrucksstarke Signalfarbe.

Grün ist eine Farbe, die meist mit der Natur verbunden wird. Sie steht daneben auch für Wachstum, Reife, Jugend, Frühling, Hoffnung und Leben. Grün wirkt entspannend, natürlich und ausgleichend.

Blau steht oft für Ruhe, Freundschaft, Treue und hat wie das Grün eine entspannende und beruhigende Wirkung. Mit Blau wird oft das Wasser und der Himmel verbunden. Im Zusammenhang mit letzterem steht Blau auch für Ferne und Unendlichkeit. Es steht aber auch für Melancholie, Traurigkeit und Depression (das englische Wort "blue" bedeutet gleichzeitig auch melancholisch, depressiv). Blau kann auch für die Nacht stehen (dunkles Blau) und insbesondere auch für Kälte, Frost (helles Blau). Letzteres ist insofern recht erstaunlich, weil blaues Licht deutlich energiereicher als rotes ist.

Mit Schwarz verbindet man meist negative Eigenschaften wie Tod, Unglück ("ein schwarzer Tag"), Boshaft, Tragik, Schicksal. Positive Assoziationen sind hingegen Ernsthaftigkeit und Seriosität (z.B. schwarzer Anzug). Neben dem Dunkelblau steht schwarz auch für die Nacht und damit im übertragenen Sinne für Angst, Bedrohung etc. Da schwarz eigentlich gleichbedeutend mit dem Fehlen von Licht ist, ist es selbst an sich keine Farbe des Lichtes. Mit dem Auftrag einer schwarzen Substanz ('Farbe') kann gleichwohl verhindert werden, dass Objekte sichtbares Licht aussenden.

Weiß steht für Reinheit, Unschuld, Unberührtheit, Sauberkeit. Mit der Farbe werden oft Hochzeiten verbunden, aber auch mit Winter und Schnee (dann kann die Farbe auch für Kälte und Eis stehen).

Grau steht meist für Neutralität. Es hat auch einige negative Eigenschaften wie Trübnis, Melancholie, Eintönigkeit, Langweile, Lustlosigkeit ("ein grauer Tag", "eine graue Wand").

Rosa steht zwischen rot und weiß; von der Bedeutung her tendiert es eher zum weiß. Es steht für Kindlichkeit, Zärtlichkeit, Weiblichkeit und hat eine sehr beruhigende Wirkung. Rosa wird oft als romantisch empfunden, im negativen Sinne aber auch als kitschig oder albern. Besondere Varianten von rosa sollen besondere psychologische Effekte haben, weswegen in einigen Gefängnissen renitente Sträflinge in rosa Zellen untergebracht werden oder sogar rosa Kleidung zu tragen haben.

Violett wirkt meist mystisch, zauberhaft und magisch. Es ist die Farbe des Geistes und der Spiritualität und wird auch für psychotherapeuthische Maßnahmen angewendet. Auch mit Phantasie und Traum wird violett oft verbunden. Im negativen Sinn kann es für Unnatürlichkeit und Mehrdeutigkeit stehen. Auch einige Beerdigungsinstitute haben kräftiges Violett neben dem Schwarz für sich entdeckt, damit kann es über den mystischen Eindruck hinaus auch morbide wirken.

Gold steht meist für Pracht, Reichtum und Wonne, kann aber wie das Gelb auch für Wärme und Lebensfreude ("goldene Tage") stehen. Mit Gold werden fast nur (übermäßig) positive Dinge verbunden (zum Beispiel "goldenes Oktoberwetter", "goldene Gehwege"). Gold ist ja ein Metall. Der Seheindruck von Metallen besteht aus einer Mischung von Reflektion und Emission, ist damit eigentlich nicht einfach durch eine simple Farbmischung zu erreichen. Bei Autolacken etwa werden metallische Eigenschaften simuliert, indem reflektierende Partikel beigemischt werden, was mit Farben auf einem Computer-Monitor nicht umsetzbar ist.

Die Farben rot, gelb, orange, magenta und gelbgrün werden auch als warme Farben bezeichnet. Sie erzeugen Wärme, Nähe, Behaglichkeit, Gemütlichkeit. Grün, türkis, blau und violett sind kalte Farben. Sie wirken kühl, sachlich, abweisend, funktional.

Helligkeit[Bearbeiten]

Die Helligkeit einer Farbe spielt ebenfalls eine wichtige Rolle, unabhängig vom Farbton. Helle Farben wirken beruhigender als Farben mittlerer Helligkeit; sie wirken dezent und freundlich und fallen nicht so stark auf. Räume wie Schlafzimmer und Wohnzimmer werden oft in hellen Farben (helles Blau, Gelb, Grün etc.) gestrichen, um eine beruhigende, gemütliche Wirkung zu erzielen.

Sehr helle Farben wirken besonders sanft und zart. Sie werden als Pastellfarben bezeichnet.

Dunkle Farben wirken bedrückend, düster, melancholisch oder bedrohlich, können manchmal aber auch ein Gefühl der Geborgenheit erzeugen. Anders als helle Farben, die freundlich wirken und Nähe ausdrücken, wirken dunkle Farben distanziert.

Sättigung[Bearbeiten]

Satte Farben wirken auffällig, dominant und zum Teil aggressiv (vor allem Gelb und Rot). Sie lenken die Aufmerksamkeit auf sich und können zu starken Kontrasten führen.

Weniger satte Farben wirken hingegen unauffällig, gedämpft und dezent. Sie wirken eher romantisch und verträumt; Aufnahmen bei Nebel werden beispielsweise ein hohes Maß an weniger satten Farben aufweisen. Eine zu hohe Sättigung wirkt meist unnatürlich, da in der Natur kaum vollständig satte Farben auftreten; eine zu niedrige Sättigung tendiert hingegen zum Schwarzweiß-Bild und kann das Bild langweilig und matt erscheinen lassen.

Farbharmonie[Bearbeiten]

Farbharmonie spielt eine wichtige Rolle im Bereich der Farbgestaltung. Die Farben eines Bildes sollten zueinander passen, sie sollten harmonisch und ansprechend sein. Ist dies nicht der Fall, kann das Foto schnell unschön und abstoßend wirken.

Farbharmonie kann man beispielsweise erzeugen durch...

  • Wahl ähnlicher Farben (zum Beispiel rote Töne überwiegen).
  • Wahl kalter oder warmer Farbtöne (z.B. rote, gelbe, orange Töne überwiegen).
  • Verwendung von hellen Farben und den entsprechenden Vollfarben (Helligkeitsabstufungen) oder Verwendung von satten Farben und den entsprechend weniger satten Farben (Grauabstufungen).

Einer Theorie zufolge wirken drei Farben besonders harmonisch, wenn sie sich im Farbkreis durch ein gleichschenkliges Dreieck verbinden lassen, zum Beispiel orange, rot, türkis. Es ist bei der Farbharmonie jedoch stets zu berücksichtigen, dass die Farben erst in ihrer Gesamtheit und zusammen mit der Komposition beurteilt werden können - eine ungeschickte Anordnung von orange, rot und türkis kann trotzdem leicht zu Disharmonie führen.

Farbklänge sind ein weiteres Mittel um Farbharmonie darzustellen. Unter einem Farbklang versteht man eine Menge von Farben, die in gleicher Helligkeit und Sättigung auftreten und dabei den selben Abstand zueinander auf dem Farbkreis haben. Beim Farbdreiklang hat man also drei Farben, die denselben Abstand zueinander haben und in gleicher Intensität in dem Bild vorhanden sind (zum Beispiel rot, grün, blau). Beim Farbvierklang hat man entsprechend vier Farben. Farbklänge haben die besondere Eigenschaft, dass sie sowohl harmonisch als auch kontrastreich wirken.

Kontrast[Bearbeiten]

Grundlagen[Bearbeiten]

Der Kontrast bezeichnet die farblichen Differenzen in einem Bild. Während zuvor nur einzelne Farben betrachtet wurden, werden beim Kontrast also Farben untereinander betrachtet. Der Bereich zwischen hellsten und dunkelsten Stellen eines Bildes heißt Kontrastumfang.

Als Formel gilt allgemein mit min dem minimalen Wert und max dem maximalen Wert für den Kontrast K:

K = (max - min) / (max + min)

Je nachdem, wofür ein Kontrast bestimmt werden soll, sind für min und max also (skalare) Zahlenwerte zu bestimmen, damit ein Kontrast quantitativ berechnet werden kann.


Meist meint man mit Kontrast die Unterschiede zwischen hellen und dunklen Bereichen eines Bildes. Ein Bild mit sehr hellen und sehr dunklen Bereichen wird als kontrastreich empfunden; ein Bild mit wenig Helligkeitsunterschieden als wenig kontrastreich. Es gibt jedoch mehrere Arten von Kontrast, die im nächsten Abschnitt vorgestellt werden.

Die Wirkung des Kontrasts erhöht sich umso mehr, je kleiner der Raum ist, auf dem sich die unterschiedlichen Farb- und Helligkeitswerte befinden. So wirkt der Kontrast größer, wenn dunkle und Helle Töne eng aneinander liegen, als wenn sie im Bild verstreut auftreten.

Ausgewählte Farbkontraste[Bearbeiten]

Vermutlich am bekanntesten ist der Hell-Dunkel-Kontrast. Dieser bezeichnet die Differenzierung der Helligkeitswerte in einem Bild. Existieren weiße und schwarze Farben, so ist er maximal. Besteht das Bild aus nur einer Farbe, so ist er null.

Der Farbe-an-sich-Kontrast bezeichnet den Kontrast auf der Basis von Farbwerten (statt von Helligkeitswerten). Je mehr verschiedene Farbtöne in dem Bild vorkommen, umso größer ist der Kontrastumfang. Das Bild wirkt besonders kontrastreich, wenn stark unterschiedliche Farbtöne unmittelbar nebeneinander auftreten (zum Beispiel grün, blau, gelb und rot statt rot, rosa, lila, violett) und die Sättigung der Farben groß ist (bei geringer Sättigung neigen die Farben zum Grau und damit sinkt der Farbkontrast). Ein hohes Farbspektrum in einem Photo macht dieses oft lebendig und impulsiv. Eine Vielzahl an Farben führt aber auch zu Unordnung und Chaos. Kommen nur wenige Farbtöne vor, wirkt es dezent und beruhigend - es entsteht eine gewisse Ordnung.

Der Komplementärkontrast bezeichnet den Kontrast, der durch komplementäre Farben entsteht, also Farben, die sich im Farbkreis gegenüberstehen (zum Beispiel rot und grün oder violett und gelb). Komplementärfarben sorgen für einen gewissen Ausgleich.

Der Kalt-Warm-Kontrast bezeichnet den Kontrast zwischen kalten Farben (blau, grün) und warmen Farben (orange, rot).

Der Bunt-Unbunt-Kontrast bezeichnet den Kontrast zwischen bunten und unbunten Farben (schwarz, weiß und vor allem Graustufen) in einem Bild.

Der Qualitätskontrast ist der Kontrast zwischen gesättigten und ungesättigten Farben. Ungesättigte Farben (Grautöne) haben die besondere Eigenschaft, daneben befindliche gesättigte Farben besonders kräftig wirken zu lassen.

Der Quantitätskontrast (auch Mengenkontrast) bezeichnet den Kontrast, der zwischen verschieden großen Farbflächen entsteht. Er ist beispielsweise groß, wenn eine große Fläche blau und nur eine kleine Fläche weiß ist. Treten sehr viele Farben auf, ohne dass eine dominiert, ist er hingegen klein. Die weniger vorhandene Farbe lenkt dabei die Aufmerksamkeit auf sich und sollte etwa im Goldenen Schnitt liegen (oft handelt es sich hierbei um das Hauptmotiv).

Farbwahrnehmung und Farbdarstellung[Bearbeiten]

Das menschliche Auge kann rund 100 Helligkeitsabstufungen von einander abgrenzen, wobei es hellere Töne grundsätzlich besser von einander abgrenzen kann als dunkle Töne. In der digitalen Photographie wird meist eine Farbtiefe von 24 Bit verwendet, das heißt für jede Grundfarbe stehen 8 Bit (256 Abstufungen) zur Verfügung. Aus dieser Sicht sollte die Farbtiefe vollkommen ausreichend sein - mit 24 Bit lassen sich immerhin 16,7 Millionen verschiedene Farben darstellen (das menschliche Auge kann hingegen nur deutlich weniger Farbabstufungen unterscheiden).

In der Realität sieht dies jedoch ein klein wenig anders aus. Hier entscheidet im Grunde der Kamerasensor, ob er überhaupt sensibel genug ist, 256 Abstufungen je Farbton zu erkennen. Die meisten Kameras kommen somit nur auf 150 bis 200 Abstufungen. Ein weiteres Problem ist die Optimierung von Photos, die teilweise bereits in der Kamera beginnt. Mit jedem Optimierungs- und Nachbearbeitungsschritt sind für gewöhnlich Abstufungsreduktionen verbunden. Es kann dann schnell passieren, dass ein Foto unter den 100 Abstufungen liegt und der Verlauf der Farben unnatürlich wirkt, weil einzelne Abstufungen plötzlich sichtbar werden.

Einige Kameras bieten heute auch 48-Bit-Farbdarstellung an (16 Bit je Farbton, also 65.536 Abstufungen). Da das JPEG-Format jedoch auf 24 Bit Farbtiefe ausgelegt ist, wird die Abstufung beim Speichern automatisch auf 256 reduziert und ein Großteil der Vorteile dieser Farbtiefe geht verloren. Daher ist es immer sinnvoll, für die Nachbearbeitung die Rohdatenbilder zu verwenden, um mit der vollen Farbtiefe des Sensors arbeiten zu können und nicht nur mit der mit JPEG abspeicherbaren Farbtiefe.

Wieviele Farben der Mensch tatsächlich unterscheiden kann, wird sehr unterschiedlich angegeben. Man ging früher von einigen Zehntausend aus, neuere Untersuchungen korrigieren den Wert wohl eher nach oben. Wie beim HSV-Modell kann das Auge eine gewisse Anzahl an Farbtönen, Sättigungswerten und Helligkeitswerten unterscheiden. Eine Angabe, die sich auf 400.000 Farben bezieht, begründet den Wert damit, dass das menschliche Auge wohl rund 130 Farbtöne, 130 Sättigungswerte und 25 Helligkeitswerte voneinander unterscheiden kann - multipliziert man diese Angaben, erhält man etwa die 400.000 Farben. In jedem Fall liegt die Zahl der wahrnehmbaren Farben deutlich unter den 16,7 Millionen theoretisch möglichen Farben – wie aber oben ausgeführt, wird diese hohe Farbdifferenzierung in der Digitalen Photographie nicht erreicht und droht im Extremfall unter den Schwellwert von einigen Zehntausend bis Hunderttausend Farben zu fallen. Die Fähigkeit, Farben zu unterscheiden, hängt zudem auch vom betrachteten Wellenlängenbereich ab - im grünen Bereich ist einerseits das menschliche Auge am empfindlichsten, zudem sind dort auch jeweils die blauen und die roten Rezeptoren noch geringfügig empfindlich. Dort können Farben also am besten aufgelöst werden. Unterhält man sich mit Menschen, die mit oft mit schmalbandigen, durchstimmbaren Lasern arbeiten, wo man also die Wellenlänge des ausgesendeten Lichtes präzise einstellen kann, stellt sich heraus, dass es zudem möglich erscheint, für bestimmte Bereiche eine präzisere Differenzierung durch Erfahrung zu erreichen. Forscher, die etwa lange mit Wellenlängen um die Natrium-D-Linien (589.158 nm und 589.756 nm, dieses Gelb sieht man oft, wenn man Salz in offenen Flammen verbrennt) arbeiten, können oft recht gut abschätzen, wie weit ihr Laser gerade von diesen Resonanzen verstimmt ist.

Aufbau und Funktionsweise einer Kamera[Bearbeiten]

Einführung[Bearbeiten]

Der Begriff Kamera[Bearbeiten]

Eine Kamera (in der Alltagssprache oft auch Photoapparat) ist ein Gerät, um Photographien aufzunehmen, das heißt Abbilder der Umgebung der Kamera zu erzeugen. Die Bezeichnung geht auf die Camera obscura (Lochkamera) zurück, welche die Urform der Photographie ist und gleich im Anschluss noch näher vorgestellt wird.


Grundlegender Aufbau[Bearbeiten]

Schnitt durch eine Digitalkamera.

Eine Kamera - egal ob digital oder analog - hat immer etwa denselben Aufbau. Sie besitzt als zentrales Element ein Objektiv, durch das Licht in die Kamera fällt und somit das Bild erzeugt. Hinter dem Objektiv befindet sich ein Medium, um dieses Bild zu detektieren - entweder ein elektronischer Bildsensor (Digitalphotographie) oder ein Film (Analogphotographie), welcher das Bild auch gleichzeitig speichert. Für gewöhnlich besitzen Kameras einen Sucher, um zu erkennen, welchen Teil der Szene die Kamera aufnimmt. Über einen Knopf, den Auslöser, wird dann der Verschluss am Objektiv geöffnet und für eine sehr kurze Zeitdauer, oft nur ein paar wenige Millisekunden, fällt Licht in die Kamera, womit das Aufzeichnen des Bildes und damit die dauerhafte Speicherung erfolgt.

Digitalkameras besitzen in der Regel einen Monitor, über welchen man aufgenommene Bilder betrachten kann. Der Monitor wird teilweise ebenfalls verwendet, um die Kamera zu steuern (das heißt, um Einstellungen vorzunehmen) und kann auch als Alternative zum Sucher dienen. Während bei analogen Kameras das Bild auf dem Film aufgenommen wird, der gleichzeitig auch zur Speicherung der Aufnahme dient, sind diese Funktionen bei der Digitalkamera getrennt. Mit einem Sensor wird das Bild aufgenommen und dann auf einer externen Speicherkarte (selten in einem internen Speicher) abgelegt. Digitalkameras besitzen zudem Anschlüsse, damit die aufgenommenen Photos an einen Fernseher oder Computer übertragen werden können. Alternativ kann die Speicherkarte entnommen und unabhängig von der Kamera ausgelesen werden.

Die Camera obscura (Exkurs)[Bearbeiten]

Die Camera obscura ist die Urform der Photographie (Photographie im Sinne des Verfahrens), die es bereits seit der Antike gibt. Etwa beschreibt bereits Aristoteles (384–322 vor Christus) das wesentliche Prinzip. Vermutlich gibt es auch entsprechende Kenntnisse in anderen antiken Kulturen, die lediglich schlechter dokumentiert sind. Über lange Zeit gab es allerdings nur die Möglichkeit der Abbildung, nicht die der automatischen Speicherung, so konnte man allerdings immerhin das Abbild nutzen, um das Motiv für ein später sorgfältiger ausgeführtes Gemälde zügig zu skizzieren, konnte somit also recht genaue perspektivische Darstellungen erreichen.

Der Aufbau einer Camera obscura ist sehr einfach, so dass Hobby-Bastler sie auch selbst mit wenig Zeit- und Materialaufwand fertigen können. Sie hatte über längere Zeit im Grunde keine praktische Bedeutung mehr, eignet sich aber, um das Grundprinzip der Photographie besser zu verstehen beziehungsweise einmal hautnah zu erleben.

Zudem setzen heute zunehmend ambitionierte, experimentierfreudige und kreative Zeitgenossen im Zeitalter der Automatismen und der Computer auf den Trend zurück zum Einfachen und Ursprünglichen, von daher hat auch die Camera obscura in Form von Lochkameras wieder an Bedeutung gewonnen. Gerade aufgrund der in Spiegelreflex- oder Systemkameras heute verfügbaren Belichtungsautomatiken ist es auch für technische Laien recht einfach geworden, ihre moderne Kamera als Lochkamera zu nutzen und damit korrekt belichtete Aufnhamen zu machen.

Funktionsweise einer klassischen Camera obscura.

Die Camera obscura ("dunkle Kammer") ist in ihrer ursprünglichen Form ein vollkommen geschlossener, dunkler Raum, mit einem sehr kleinen Loch in der Mitte einer der vier Seitenwände. Stellt man nun außerhalb der Kammer einen Gegenstand vor die Öffnung, so kann man in dem Raum ein Abbild an der Wand erkennen, die sich gegenüber der Wand mit dem Loch befindet.

Wenn der Kasten lediglich ein einfaches Loch als Öffnung besitzt, so wird das Bild verschwommen erscheinen. Bringt man jedoch eine kleine Sammellinse in dem Loch an, so kann man schärfere Abbilder erzeugen. Eine Camera obscura ohne Linse, also die einfachste Form, nennt man auch Lochkamera. Mit Linse wurde die Konstruktion in Europa vermutlich bereits im späten Mittelalter eingesetzt.

Die Camera obscura muss nicht immer ein Raum sein, es kann auch ein Karton oder gar eine Keksdose verwendet werden, um denselben Effekt zu erzielen. Man kann dann natürlich nicht mehr selbst in dem Raum sein, um das Bild zu betrachten, ein üblicher Trick ist daher der folgende: Man schneidet an einem Karton ein relativ großes, rechteckiges Loch in die Rückenwand und spannt eine Seite Pergamentpapier darüber, die man beispielsweise mit Klebeband befestigt. Auf die gegenüberliegende Seite sticht man mit der Nadel ein winziges Loch. Man kann dann das Abbild des Gegenstandes vor dem Karton auf dem Pergamentpapier sehen, wenn der Raum dunkel genug ist (es bietet sich hier zum Beispiel eine Kerze oder Glühbirne als Objekt an).

Man kann sich leicht überlegen, dass die Lochgröße charakteristisch für das kleinste auflösbare Detail ist. Allerdings ist auch bekannt, dass bei sehr kleinen Löchern Beugungseffekte eine Rolle spielen und die Auflösung wieder verschlechtern. Zu gegebenen Abstand zwischen Loch und Wand (Sensor, Abbildungsebene) läßt sich so hinsichtlich der Auflösung eine optimale Lochgröße bestimmen, welche die schärfsten Bilder ermöglicht. Zudem bestimmt natürlich die Lochgröße wie die Blende in einem Objektiv die Lichtmenge, die in die Kamera gelangt, je kleiner das Loch, desto dunkler die Abbildung. Zudem erweist sich die genaue Lochform als kritisch für die Qualität der Abbildung. Da die Wand, in der das Loch ist, eine endliche Dicke besitzt, kann auch dies die Qualität der Abbildung beeinflussen - über die Länge des Loches in einer dicken Wand wird Licht gestreut. Für optimale Resultate werden daher sehr dünne Bleche verwendet, in die mit Lasern runde Löcher definierter Größe geschossen werden. Wie bei den professionellen Kameras auch ist es zudem beim Selbstbau sehr wichtig, dass der Innenraum sehr dunkle, gut absorbierende Wände hat, damit Streulicht nicht zu einer Kontrastminderung des aufgenommenen Bildes führt.

Der ursprüngliche Grund, warum Linsen in ein größeres Loch gesetzt wurden, bestand eigentlich darin, bei gleicher Auflösung eine hellere Abbildung zu bekommen. Allerdings bekommt man wie so oft so auch hier nichts geschenkt. Während bei der Lochkamera die Schärfe des Bildes vorrangig von der Lochgröße abhängt, nicht jedoch vom Abstand von Motiv zur Kamera, ist bei der Lochkamera alles auf der Abbildung gleich scharf oder eben unscharf, je nachdem, wie man es sieht. Bei einer Abbildung mit einer Linse wird immer nur ein Bereich um einen allerdings einstellbaren Abstand scharf dargestellt.

Vergleich - Photo einer Häuserzeile mit Lochkamera (oben) und Linsenkamera (unten).

Man kann in einer Camera obscura auch einen lichtempfindlichen Film anbringen und das Loch dann nur für kurze Zeit geöffnet lassen. Auf diese Weise wird man ein bleibendes Abbild erhalten und hat in diesem Fall im Prinzip dasselbe getan, was auch Analogkameras machen.

Für Spiegelreflexkameras und Systemkameras mit Wechseloptik kann man heute zudem relativ günstig im Fachhandel Lochblenden erhalten, die einerseits eine für die Kamera optimierte Lochgröße aufweisen, andererseits aber auch den jeweils passenden Objektivanschluß aufweisen. Damit und wegen der geringen Lichtausbeute mit einem guten Stativ und Fernauslöser kann dann jeder ohne Bastelei einfach selber den einfachen Charme von Lochkameras erfahren. Dies kann dann bei den üblichen Spiegelreflexkameras sowohl mit manueller Belichtung wie zur alten Zeit erfolgen, zumeist haben diese Kameras aber auch eine Belichtungsautomatik bei 'Arbeitsblende' für nicht automatisches Zubehör.

Den Effekt der Lochkamera kann man beispielsweise auch im Wald beobachten. Wenn die Sonne durch das dichte Geäst der Bäume scheint, die dann gewissermaßen winzige Löcher bilden, kann man auf dem Boden kleine runde Flecken sehen. Diese als "Sonnentaler" bezeichneten Flecken sind Abbilder der Sonne, die auf gleiche Weise entstehen wie Bilder in der Lochkamera.

Aufbau und Funktionsweise einer Digitalkamera[Bearbeiten]

Das Objektiv[Bearbeiten]

Grundlagen[Bearbeiten]

Grundprinzip der Bildentstehung an Sammellinsen

Das Objektiv ist gewissermaßen das "Auge der Kamera" und besteht aus mehreren Linsen, durch welche das Licht einfällt und am Ende des Objektivs auf dem Sensor (oder dem Film) ein Abbild erzeugt. Diese Gruppe von Linsen wirkt dabei vom Prinzip her wie eine Sammellinse und wie bei jeder Sammellinse steht dabei das Abbild auf dem Kopf. Die Digitalkamera dreht das Bild dann beim Aufnehmen automatisch um 180°, so dass wir es wieder korrekt sehen; beim Analogfilm ist es ohnehin egal, da man das Bild dann beim Betrachten automatisch in die richtige Position bringen wird. Bei den optischen Suchern von Spiegelkameras sind es Pentaprismen, die dafür sorgen, dass man das Bild richtig herum betrachten kann. Sie verleihen den Spiegelreflexkameras im oberen Bereich auch ihre charakteristische Form.

Die Kamera, und speziell das Objektiv, funktioniert dabei etwa wie das menschliche Auge. Auch das menschliche Auge besitzt eine Linse, durch die das Licht fällt, und erzeugt dabei auf dem Kopf stehende Bilder. Das menschliche Gehirn wandelt diese aber dann automatisch in ein korrektes Bild um. Während beim Auge eine Abbildung auf eine gekrümmte, nahezu runde Fläche erfolgt, ist der Sensor oder der Film in der Kamera eine ebene Fläche, weswegen sich im Detail etwas andere Abbildungseigenschaften ergeben. Mit einer Kamera mit ebenem Sensor ist also nicht exakt darstellbar, was mit dem Auge gesehen werden kann. Bei selbstgebastelten Lochkameras mit analogem Filmmaterial kann man hingegen zumindest in einer Richtung den Filmstreifen krümmen, etwa um bessere Panoramaaufnahmen machen zu können.

Im Objektiv werden aus mehreren Gründen mehrere Linsen verwendet. Durch Kombination verschiedener Glasmaterialien wird es so möglich, dass Licht verschiedener Wellenlänge des gleichen Motivpunktes auch auf den gleichen Pixel auf dem Sensor abgebildet wird. Auch anderen Abbildungsfehler lassen sich so verkleinern und die Blende läßt sich an einer optimalen Position unterbringen. Durch die Kombination von Sammel- und Zerstreuungslinsen kann zudem die Baulänge des Objektivs verkürzt werden (Teleobjektiv) oder aber besonders bei Superweitwinkelobjektiven auch verlängert (Retrofokuskonstruktion). Eine Verschiebung von Linsengruppen kann zudem dazu dienen, die Brennweite zu ändern oder aber auch zu fokussieren.

Licht von einem unendlich weit entfernten Objekt (näherungsweise zum Beispiel die Sonne) fällt parallel ins Objektiv ein und wird von diesem in einem Punkt fokussiert, dem sogenannten Brennpunkt. Der Abstand von der Mitte der Linse zu diesem Brennpunkt wird Brennweite der Linse genannt. Anhand des Beispiels mit der Sonne läßt sich erahnen, wie es zu der Begriffsbildung Brennpunkt und Brennweite kommt. Positioniert man im Brennpunkt brennbares Material, kann man es durch die Strahlung der Sonne entzünden.

Indessen will man mit einem Objektiv meist nicht mit Hilfe der Sonnenstrahlen den Sensor verbrennen, sondern endlich weit entfernte Objekte mit geringerer Lichtintensität auf dem Sensor abbilden. Für eine Linse ergeben sich dann die aus der geometrischen Optik bekannten Abbildungsgesetze, bei der man unter Kenntnis der Brennweite der Linse das Bild eines Objektes auf der Sensorfläche konstruieren kann und entsprechend die richtigen Abstände von Objekt, Objektiv und Sensorfläche berechnen kann. Bei den üblichen Objektiven, die aus mehrere Linsen bestehen, lassen sich die Linsen so verschieben, dass eine scharfe Abbildung des Objektes erfolgen kann - gegebenenfalls mit dem Autofokus auch automatisch. Dabei kann unterschieden werden zwischen Außen- und Innenfokussierung. Bei der Außenfokussierung wird ähnlich wie bei der Einzellinse der Abstand der Linsengruppe zum Sensor geändert, um eine scharfe Abbildung zu erzielen. Meist fährt das Objektiv nach vorne aus, um nahe Objekte zu fokussieren. Bei der Innenfokussierung werden eher verschiedene Linsengruppen gegeneinander verschoben, die Länge des Objektivs bleibt gleich, aber die Brennweite ändert sich (etwas), wenn nahe Objekte fokussiert werden. Die Änderung ist dem Objektiv also von außen nicht anzusehen. Zum Beispiel kann Innenfokussierung bei der Makrophotographie von lebendigem Getier recht interessant sein, um dieses nicht durch das Objektiv zu verschrecken, welches sich zur Scharfstellung auf sie zubewegt. Objektive mit Innenfokussierung lassen sich zudem einfacher abkapseln, um zu verhindern, dass Staub ins Objektiv oder die Kamera gelangt.

Da der Abstand vom Objektivanschluß zur Ebene des Sensors festgelegt ist, gibt die Brennweite an, wie groß der Ausschnitt oder Aufnahmewinkel ist, den die Kamera aufnimmt.

Durch Verschiebung einzelner Linsengruppen im Objektiv können nicht nur wie bei der Innenfokussierung durch Brennweitenänderung nahe Objekte scharf dargestellt werden, es ist durch andere Verschiebungen bei speziellen Objektiven auch möglich, die Brennweite unabhängig davon zu ändern, in welchem Abstand sich das aufzunehmende Objekt befindet. Diese nennen sich Vario- oder Zoom-Objektive. Durch Änderung der Brennweite läßt sich somit in die Szene hineinzoomen oder herauszoomen (dynamische Brennweite).

Manche Objektive haben jedoch eine feste Brennweite (Fixbrennweite) und ermöglichen damit keinen Zoom. Solche Festbrennweiten haben meist eine höhere Lichtstärke oder bessere Bildqualität - man kann sich leicht vorstellen, dass es einfacher ist, ein Objektiv für eine Brennweite zu optimieren als einen ganzen Zoo von beweglichen Linsen in einem Zoom-Objektiv.

Zudem sind die Objektive für einen bestimmten Aufnahmeabstand optimiert, die meisten für weiter entfernte Objekte, obgleich man sie auch auf nähere Objekte fokussieren kann. Makroobjektive sind eher darauf optimiert, nahe Objekte aufzunehmen, haben meist aber auch hervorragende Abbildungseigenschaften für entfernte Objekte. Bei Makroobjektiven wird besonderer Wert auf geringe Verzerrungen des Bildfeldes gelegt, allgemein auf eine hohe Abbildungsleistung.

In einigen Objektiven können zudem Bildstabilisierungssysteme eingebaut sein, diese versuchen, das Wackeln des Photographen zu kompensieren. Zu dieser aufwendigeren, optischen Variante gibt es alternativ auch noch Bildstabilisierungssysteme, die in der Kamera eingebaut sind und etwa den Sensor verschieben. Diese sind meist etwas einfacher ausgelegt als die optischen im Objektiv, also nicht auf das jeweilige Objektiv optimiert und entsprechend weniger effektiv, dafür aber bei allen Objektiven gleich verwendbar.

Einige Digitalkameras verfügen über einen digitalen Zoom. Dabei wird allerdings lediglich der zentrale Teil des Bildsensors vergrößert, was mit erheblichen Qualitätsverlusten einhergeht. Diese Vergrößerung lässt sich problemlos - und meist mit besserem Ergebnis - auch später ausführen, Digitalzooms lässt man daher am besten ausgeschaltet.


Die Blende[Bearbeiten]

Kameraobjektiv mit maximal geöffneter Blende

Die Blende ist die Öffnung des Objektivs und kann oft reguliert werden, das heißt sie kann weiter geöffnet werden, dann fällt in einer Zeiteinheit mehr Licht in die Kamera, oder sie kann weiter geschlossen werden, dann fällt weniger Licht innerhalb einer Zeiteinheit in die Kamera. Die Blende ist dabei ein mechanisches Bauteil, das aus einzelnen überlappenden Lamellenblättchen besteht, die sich, zur Verringerung der Öffnung, übereinanderschieben. Sie hat Einfluss auf die Belichtungsdauer und die Schärfentiefe. Eine kleine Blendenzahl entspricht dabei einer großen Öffnung (also viel Lichteinfall) und umgekehrt. Bei einer großen Öffnung hat man zudem eine geringe Schärfentiefe und umgedreht. Bei sehr kleinen Blendenöffnungen kommt es zu Effekt der Beugung, wodurch sich die Welleneigenschaften des Lichtes bemerkbar machen. Durch Beugung wird das Bild insgesamt unschärfer. Ein gedachter Punkt des Objektes wird durch Beugung an der Blende zu einem flächigem Scheibchen auf dem Sensor aufgeweitet. Wird das Scheibchen deutlich größer als der Abstand zweier benachbarter Pixel des Sensors, so wird der Beugungseffekt sichtbar. Besonders schnell auffällig wird der Effekt also bei der Kombination von lichtschwachen Objektiven mit Sensoren, die recht kleine Pixel haben - was man oft bei günstigeren Kameramodellen antrifft oder bei Kameras, die in Mobiltelephonen eingebaut sind.

Die Blende ähnelt vom Aufbau her dem Zentralverschluss (siehe nächster Abschnitt), ist aber an anderer Stelle im Objektiv untergebracht, hat im Strahlengang also eine andere Funktion. In Analogie zum menschlichen Auge entspricht sie der Pupille. Die Pupille des Auges regelt die einfallende Lichtmenge, die ins Auge fällt - in der Dunkelheit weitet sie sich, damit mehr Licht einfällt, bei Helligkeit verengt sie sich.

Eigenschaften eines Objektivs[Bearbeiten]

Objektive können nach verschiedenen Eigenschaften hin untersucht und verglichen werden. Dazu zählen:

  • Die Objektivbrennweite, zum Beispiel 8 - 32 mm.
  • Der Formatfaktor beziehungsweise ein Äquivalent der Brennweite im 35-mm-Format (Kleinbild-Format), zum Beispiel 28 - 112 mm (Formatfaktor 3,5 in Bezug auf die obige Objektivbrennweite).
  • Die Lichtstärke ("Anfangsblende"), zum Beispiel 1/2,8 - 1/4,0.
  • Der Objektivdurchmesser beziehungsweise das Filtergewinde, zum Beispiel 52 mm (diese Angabe ist wichtig, wenn man Zubehör wie Filter oder Streulichtblende kaufen möchte).
  • Die verfügbaren Blenden, zum Beispiel 2,8, 4, 5,6.
  • Die Qualität der Entspiegelung und der Unterdrückung von Streulicht
  • Kompensation oder Reduktion von Abbildungsfehlern
  • Auflösung bei der jeweiligen Blende je nach Position des Abbildes auf dem Sensor
  • Bei Autofokusobjektiven Typ des Antriebsmotors
  • Möglichkeit und Effizienz der manuellen Fokussierung und Übersteuerung des Autofokus, Existenz von Entfernungsangaben.
  • Bei Zoomobjektiven Art der Einstellung der Brennweite und Anzeige derselben
  • Bei eingebautem Bildstabilisierer: Typ, verfügbare Arbeitsmodi, Effizienz
  • Filtergewindedurchmesser, Typ der Sonnenblendenarretierung

Diese Angaben wird man meist im Datenblatt der Kamera oder des Objektivs finden, wobei die verfügbaren Blenden oft nicht explizit angegeben werden. Die einzelnen Begriffe wie Brennweite und Lichtstärke werden zu späterem Zeitpunkt natürlich noch ausführlicher erläutert.

Der Verschluss[Bearbeiten]

Im oder hinter dem Objektiv befindet sich der Verschluss. Ein Film (und auch der Sensor bei Digitalkameras) ist extrem lichtempfindlich und darf, bei gewöhnlichem Tageslicht, nur ganz kurz belichtet werden - andernfalls erhält man ein weißes (völlig überbelichtetes) Bild. Der Verschluss einer klassischen Kamera ist also stets geschlossen, und nur wenn das Photo aufgenommen wird, öffnet er sich für eine sehr kurze Zeit (zum Beispiel 1/500 s, also 0,002 s). Es gibt drei grundlegende Arten von Verschlüssen.

Zentralverschluss[Bearbeiten]

Beim Zentralverschluss wird eine Anordnung von kurvenförmigen Lamellen verwendet, die sich dann für kurze Zeit öffnen und damit die Belichtung ermöglichen. Die meisten Kameras mit fest verbautem Objektiv verwenden diese Technik, wobei vor allem extrem kurze Belichtungszeiten (zum Beispiel 1/1000 Sekunde oder weniger) relativ aufwendig zu realisieren sind. Bei analogen Kameras wurde diese Technik zunächst eher in der Anfangsphase eingesetzt, später dann zunehmend durch den im folgenden Abschnitt beschriebenen Schlitzverschluss ersetzt. Da digitale Kompaktkameras oft recht kleine Sensoren und Objektive haben, wird der Zentralverschluß bei diesen nun wieder häufiger eingesetzt, da es bei kleinen Objektivdurchmessern einfacher ist, mit Zentralverschlüssen kurze Belichtungszeiten zu erreichen.

Auch bei großformatigen Kameras wird der Zentralverschluss gerne verwendet, weil dieser recht einfach auch für große Durchmesser von Objektiv und Bildbereich realisierbar ist. Der Zentralsverschluss ist entweder an geeigneter Stelle im Objektiv untergebracht oder in der Kamera vor dem Bildbereich. Eine Unterbringung im Objektiv bringt einige Nachteile mit sich: Jedes Objektiv muss dieses recht aufwendige Bauteil enthalten und für einen Objektivwechsel ist ein Hilfsverschluss notwendig, um zu vermeiden, dass beim Objektivwechsel Licht auf Film oder Bildsensor fällt. Ein Vorteil dieses Verschlusstyps ist allerdings, dass der gesamte Bildbereich immer gleichzeitig belichtet wird.

Schlitzverschluss[Bearbeiten]

Die zweite Art ist der Schlitzverschluss. Hier besteht der Verschluss aus zwei Metallplättchen, die auch Vorhang genannt werden. Dabei ist zunächst der erste Vorhang geschlossen und der zweite geöffnet. Wird die Belichtung gestartet, öffnet sich auch der erste Vorhang. Damit fällt nun das Licht durch das Objektiv. Ist die Belichtungszeit abgelaufen, schließt sich der zweite Vorhang und versperrt damit wieder den Lichteinfall. Danach gehen die Vorhänge wieder in ihre Anfangsposition zurück. Bei sehr kurzen Belichtungszeiten schließt sich der zweite Vorhang bereits während der erste sich noch öffnet (der zweite Vorhang "zieht nach"). Nur so lassen sich die extrem kurzen Belichtungszeiten wie 1/4000 Sekunde realisieren. Es entsteht damit ein "Schlitz", der von oben nach unten (oder auch von rechts nach links) wandert und für einen minimalen Augenblick das Bild schrittweise belichtet. Es gilt demnach: Je kürzer die Belichtungszeit, umso schmaler der Schlitz. Anders als beim Zentralverschluß wird also bei kurzen Belichtungszeiten nicht der gesamte Sensor auf einmal belichtet, sondern nur ein Teil davon. Beim Schlitzverschluss kann dies bei schnell bewegten Motiven oder schnell bewegter Kamera und kurzer Belichtungszeit zu einer Bildverzerrung führen, weil bedingt durch den kleinen, offenen Schlitz zu jedem Zeitpunkt der Belichtung das Motiv in einer etwas anderen Bewegungsphase aufgenommen wird. Der Effekt der Verzerrung ist zum Beispiel deutlich zu erkennen bei der Aufnahme von Hubschauberrotoren oder Rennwagen bei hoher Geschwindigkeit.

Weil für Blitzlichtaufnahmen der Verschluß ganz auf sein muß, ist die kürzeste Belichtungszeit, bei der der Verschluss noch komplett geöffnet ist die sogenannte Blitzsynchronzeit. Die liegt bei modernen Kameras je nach Größe von Verschluß und Sensor im Bereich von 1/125 Sekunde bis 1/300 Sekunde. Um sehr schnelle Motive mit Blitzlicht aufzunehmen, wird der Blitz möglichst als einzige Lichtquelle verwendet und entsprechend zeitlich kurz gewählt, während bei der Kamera die Blitzsynchronzeit eingestellt bleibt. Bei der sogenannten Kurzzeitsynchronisation wird hingegen die Blitzdauer länger als die Blitzsynchronzeit gewählt und die Blitzleistung möglichst konstant über diesen Zeitraum, während über den Schlitzverschluss eine kurze Zeit vorgewählt wird. Das wird nicht für schnelle Motive verwendet, sondern vor allem, um bei hellem Tageslicht dunkle Bildpartien mit dem Blitz aufzuhellen.

Weil Zentralverschlüsse den Sensor immer komplett belichten, tritt bei diesen das Problem der Blitzsynchronzeit nicht auf.


Elektronischer Verschluss[Bearbeiten]

Die dritte Art von 'Verschluss' ist exklusiv bei Digitalkameras möglich, teils mit einem konventionellen Verschluss kombiniert. Bei Kameras mit 'Live-View', wo man also nicht durch einen optischen Sucher guckt, sondern nur auf einen Monitor, kann allerdings auch komplett der klassische, mechanische Verschluss eingespart sein. Die Belichtungszeit wird hier rein über den Sensor realsiert, durch Elektronik wird dafür gesorgt, dass dieser nur für die Belichtungszeit lichtempfindlich ist, beziehungsweise dieser wird vor und nach der Belichtungszeit ausgelesen, während der 'Live-View' einer permanent wiederholten Auslesung entspricht. Daher spricht man hier auch von einem elektronischen Verschluss. Damit können dann auch recht kurze Belichtungszeiten wie 1/16000 Sekunde realisiert werden. Eine Kombination mit einem Schlitzschluss wurde teilweise auch bei Spiegelreflexkameras eingesetzt, um den lichtempfindlichen Sensor außerhalb der Belichtungszeit zu schützen und um kürzere Belichtungszeiten als jene zu erreichen, die man mit einem Schlitzverschluss erreichen kann.

Bei der Ansteuerung und dem Auslesen des Bildsensors gibt es allerdings offenbar technische Probleme, die es verhindern, dass der Bildsensor ähnlich wie beim Zentralverschluss überall gleichzeitig belichtet wird, weswegen es auch bei dieser Methode, die Belichtungszeit festzulegen, zu ähnlichen Artefakten kommen kann wie beim Schlitzverschluss. In dieser Hinsicht vermeidet diese Methode also die vom Schlitzverschluss her bekannten Verzerrungen nicht, sondern ersetzt sie durch ähnliche eigene.

Obwohl recht vielversprechend und deutlich günstiger als mechanische Verschlüsse scheint sich diese Technik aber nicht durchgesetzt zu haben, hauptsächlich werden aktuelle Spiegelreflexkameras nur noch mit Schlitzverschluss produziert, weil der elektronische Verschluss in der Praxis dann doch zu weiteren spezifischen Artefakten und höherem Bildrauschen neigt, die man im 'Live-View', also bei offenem Verschluss auch bei aktuellen Modellen oder preiswerten Kameras ohne mechanischen Verschluss noch begutachten kann. Für Aufnahmen wird allerdings bei höherwertigen Kameras der 'Live-View' beendet, der Verschluss geschlossen und der Sensor 'normal' in Betrieb genommen, wobei dann wieder der Schlitzverschluss die Belichtungszeit bestimmt. Trotzdem kann der vorherige 'Live-View' zu einer Erwärmung des Bildsensors geführt haben und damit zu einem erhöhten Bildrauschen. Für kristische Aufnahmen ist also eine Kamera mit optischem Sucher vorzuziehen und auf gegebenenfalls optional verfügbares 'Live-View' zu verzichten.


Der Bildsensor[Bearbeiten]

Definition[Bearbeiten]

Der Bildsensor ist ein kleiner Chip, welcher bei Digitalkameras das einfallende Licht registriert und in ein Bild umwandelt. Er befindet sich an der Stelle, wo bei den Analogkameras der Film sitzt. Während beim Filmmaterial bei jedem Bild ein neues Stück Film verwendet wird, wird für alle Bilder einer Digitalkamera immer derselbe Bildsensor verwendet. Das hat mehrere Konsequenzen:

  • Es muß kein Film transportiert werden.
  • Verschmutzungen des Sensors bleiben bis zur nächsten Reinigung erhalten.
  • Defekte sind nicht einfach durch einen neuen Film zu beheben, der Sensor ist also nicht einfach austauschbar, dazu wird meist die komplette Kamera ausgestauscht.

Die Bildsensoren der Kompaktkameras und Bridgekameras sind von sehr geringer Größe; damit bleibt die Kamera auf Grund kleiner Objektivbrennweiten handlich und ermöglicht dennoch relativ viel Zoom. Die geringe Größe impliziert aber immer auch eine geringe Lichtempfindlichkeit oder eine geringe Auflösung.

Je kleiner der Bildsensor also ist, umso enger liegen bei gleicher Pixelanzahl die einzelnen Pixel aneinander. Die einzelnen Pixel sind dann notwendigerweise kleiner und erzeugen weniger Ladungsträger, was eine höhere Verstärkung des Signals erfordert. Daher und da sich zudem Kamerasensoren bei der Aufnahme erwärmen, nimmt somit mit zunehmend kleinen Sensoren das Bildrauschen zu - auch wenn moderne Kameras dies heute zu einem gewissen Grad retuschieren können. Wie bereits erläutert, kann zudem die Kombination lichtschwacher Objektive oder stark zugezogener Blenden zusammen mit kleinen Pixeln schnell Beugungseffekte sichtbar werden lassen, die Bilder werden also unscharf, weswegen es Kompaktkameras oft erst gar nicht erlauben, stark abzublenden oder diese auch im Automatikbetrieb nach Möglichkeit immer mit offener Blende arbeiten, was den scheinbaren Schärfentiefengewinn wieder reduziert.

Abmaße[Bearbeiten]

Größenverhältnis zwischen einigen bekannten Sensortypen

Die Größe von Bildsensoren wird historisch bedingt meist in Zoll angegeben und als Bruch dargestellt. Der Wert gibt den Außendurchmesser einer fiktiven Bildaufnahmeröhre mit gleicher Sensorgröße an; die Länge der Diagonale des Sensors beträgt knapp zwei Drittel dieses Wertes (eine "Ein-Zoll-Bildröhre" hatte eine Diagonale der lichtempfindlichen Fläche von etwa 16 mm). Die Angabe 1/2,7" meint also, dass die Diagonale des Sensors zwei Drittel von 1/2,7 Zoll bzw. 0,235 Zoll ist. Ein Zoll (Inch) beträgt 2,54 cm, der Kamerasensor hat also eine Diagonale von 0,59 cm. Die meisten Kamerasensoren von Kompaktkameras werden sich in dem Bereich von 0,5 bis 1 cm Diagonale befinden.

Da ein Sensor sowohl Höhe als auch Breite hat und das Verhältnis von Höhe zu Breite bei verschiedenen Sensoren unterschiedlich sein kann, ist die Angabe der Diagonale also nicht ausreichend zur Charakterisierung des Sensors, ebensowenig wie die Angabe der Gesamtzahl aller Pixel. Bei gleicher Diagonale hat ein quadratischer Sensor offenbar mehr Fläche als ein nicht quadratischer. Je mehr sich Höhe und Breite unterscheiden, desto kleiner ist die Fläche des Sensors bei gleicher Diagonale.

Obwohl die Sensorgröße von Kamera zu Kamera verschieden sein kann, gibt es einige recht häufige Formate:

  • 1/3,2" (0,50 cm), 15,3 mm²
  • 1/2,7" (0,59 cm), 21,6 mm²
  • 1/2,5" (0,64 cm), 24,96 mm²
  • 1/2,3" (0,70 cm), 29,5 mm²
  • 1/1,8" (0,89 cm), 38,88 mm²
  • 1/1,5" beziehungsweise 2/3 (1,1 cm), 58,08 mm²
  • Four Thirds (2,2 cm), 17,3mm x 13,0 mm = 224,90 mm²
  • Foveon (2.5 cm), 20.7 mm x 13.8 mm = 285,66 mm²
  • APS-C (2,75 cm), 22,2 mm x14,8 mm = 328,56 mm²

Man muss auf Grund der Darstellung als Bruch somit beachten, dass mit kleinerem Nenner (zum Beispiel 2,3 statt 2,5) der Kamerasensor größer wird.

Für größere Kameras verwendete Sensoren haben beispielsweise folgende Abmaße:

  • Kleinbildformat ("Vollformat", 4,32 cm), 36 mm x 24 mm = 864 mm²
  • Mittelformat (6 cm), 48 mm x 36 mm = 1728 mm²

Leichte Abweichungen sind möglich.

Während der Unterschied zwischen dem Mittelformat und dem Kleinbildformat nur einer Halbierung der Fläche entspricht, also etwa eine Belichtungsstufe kostet, nimmt demgegenüber die Fläche der kleinen Formate dramatisch ab.


Grundlegender Aufbau[Bearbeiten]

Bildsensor auf einer Leiterplatte

Der Bildsensor besteht aus einem rechteckigen Feld von einzelnen, mikroskopisch kleinen Lichtsensoren. Bei den meisten Kameras entspricht dabei ein Lichtsensor einem Pixel (Bildpunkt) des Photos. Da bei diesem Kameras allerdings nicht jedes Pixel auf jede Farbe empfindlich ist, wird die meiste Information für einen Bildpunkt immer durch Interpolation über die Nachbarpixel berechnet. Ein Kamerasensor mit 4000 horizontalen und 3000 vertikalen Pixeln kann also Fotos bis 4000x3000 Pixel aufnehmen (also 12 MP).

Die Zahl der Pixel besagt jedoch lediglich, was die maximal verwendbare Pixelzahl ist. Oft ist die tatsächlich verwendete Pixelzahl durch eine Formatwahl reduzierbar oder es kann über benachbarte Pixel gemittelt werden, um Bilder mit kleinerer Pixelzahl abzuspeichern. Wenn die Kamera zum Beispiel 3000x2000 Pixel anbietet, wird sie vom Hersteller mit 6,0 Megapixeln angegeben. Ein Photo, das im Format 4:3 aufgenommen wird (3000x2000 ist das Format 3:2), würde hierbei mit maximal 2666x2000 Pixeln aufgenommen werden, kann die 3000 Pixel in der Horizontalen also gar nicht voll ausnutzen - das sind dann nur rund 5,2 MP. Das Aufnahmeformat beziehungsweise das Format des Sensors spielt also eine gewisse Rolle, ob man die volle Anzahl an Megapixeln in einem bestimmten Format überhaupt verwenden kann. Vereinzelt werden die Sensoren allerdings auch so dimensioniert, dass sie bei allen Formaten ungefähr die angegebene Pixelzahl erreichen. Je nach Formatwahl fallen außen dann unterschiedliche Pixel weg, also entweder welche in der Breite oder der Höhe, es werden also nie alle Pixel der Kamera verwendet. Hinzu kommt bei der Frage der erzielbaren Auflösung die Auflösungsgrenze der Optik, die bei kleinen Sensoren praktisch immer die tatsächlich erzielbare Auflösung begrenzt. Wie bereits angedeutet, können auch Beugungseffekte die Auflösung begrenzen.

Natürlich kann man auch generell kleinere Fotoformate wählen. So kann ein Sensor mit 4000x3000 Pixeln auch ein Bild im Format 1600x1200 aufnehmen. Es werden dann eben im Falle des digitalen Zooms nicht alle Pixel verwendet oder das Photo wird zunächst mit allen Pixeln aufgenommen, etwa mit 4000x3000, und dann von der Kamera auf 1600x1200 verrechnet.

Arten von Bildsensoren[Bearbeiten]

Es gibt im Wesentlichen drei Arten von Bildsensoren:

  • CCD-Sensoren
  • CMOS-Sensoren
  • X3-Sensoren


CCD-Sensoren sind die am häufigsten eingesetzten Sensoren bei Kompaktkameras. Hierbei werden die einzelnen Pixel zeilenweise ausgelesen, vergleichbar mit einem Scanner, der ein Bild schrittweise abtastet. Zu Beginn der digitalen Photographie lieferten sie gegenüber den CMOS-Sensoren eine bessere Qualität; die CMOS-Sensoren wurden aber derart weiterentwickelt, dass sie heute den CCD-Sensoren nicht mehr nachstehen.

Bei den CMOS-Sensoren sind die einzelnen Pixel relativ unabhängig; sie werden nicht zeilenweise ausgelesen, sondern es kann direkt auf jedes einzelne Pixel zugegriffen und dessen Helligkeitswert ermittelt werden. Damit können die aufgenommenen Bilder schneller verarbeitet werden als beim CCD-Sensor; da jedes Bildelement jedoch über einen eigenen Kondensator verfügt, um den direkten Zugriff auf die Information zu gewähren, ist mehr Elektronik auf dem Sensor untergebracht als bei den CCD-Sensoren. Bei ungeschickter Anordnung (besonders bei älteren Modellen), gibt es neben den lichtempfindlichen Pixeln auch noch Leiterbahnen und andere Bauteile. Bei neueren Modellen wird die Verdrahtung allerdings meist von hinten vorgenommen und Mikrolinsen sorgen für einen nahezu flächendeckenden Lichteinfang.

CMOS-Sensoren sind in der Herstellung günstiger, erwärmen sich nicht so stark wie die CCD-Sensoren und sind weniger störanfällig. Nachteilig sind bei ungeschickter Verschaltung ein geringerer Kontrastumfang, eine teilweise geringere Lichtempfindlichkeit sowie eine stärkere Anfälligkeit für Rauschen – moderne Digitalkameras mit CMOS-Technik weisen solche Nachteile gegenüber CCDs aber praktisch nicht mehr auf.

Die Pixel der CCD-Sensoren und CMOS-Sensoren können zunächst einmal nur Helligkeitsabstufungen wahrnehmen, das heißt zwischen schwarz und weiß und einzelnen Graustufen unterscheiden. Damit ein Farbbild entstehen kann, wird bei den allermeisten Sensoren ein sogenannter Mosaikfilter auf den Sensor gelegt. Er besteht aus einem Raster aus roten, grünen und blauen Punkten. Jeder Punkt lässt dabei nur seine eigene Farbe durch - rote Punkte lassen also beispielsweise nur rotes Licht durch. Aus der Menge an rotem, blauem und grünem Licht benachbarter Pixel lässt sich dann für jedes Pixel eine Farbe interpolieren. Je besser und genauer diese Berechnung ("Interpolierung") geschieht, umso besser können die Farben am Ende dargestellt werden. Allerdings können solche Interpolationen auch falsche Darstellungen bewirken, besonders bei Strukturen mit starken Konstrast, die in der Abbildung nur einen Pixel Breite haben oder wenn diese Strukturen regelmäßig sind, aber nicht exakt am Pixelmuster des Sensors ausgerichtet sind. Um die Lichtausbeute zu steigern, ist zudem auch noch jedes Pixel mit einer Mikrolinse versehen, die dann das Licht auf den lichtempfindlichen Bereich fokussiert.

Neben den Mosaikfiltern vom rot/grün/blau-Typ in Schachbrettanordnung gibt es selten auch noch welche, wo ein Pixel einer vierer-Gruppe ohne Farbfilter arbeitet, also nur mit hoher Empfindlichkeit die Intensität aufnimmt. Weil die Mikrolinsen in den Ecken eines quadratischen Pixels nicht optimal funktionieren, wäre eigentlich eine Anordnung in Bienenwabenform effektiver sowohl hinsichtlich der Empfindlichkeit als auch der Auflösung und der Reduzierung von falschen Darstellungen kleiner Details. Die Methode ist aber in der Herstellung komplizierter und aus solch einem Muster läßt sich schwerer ein normales Pixelbild berechnen, weil bei diesem die Pixel mit anderer Symmetrie angeordnet sind. Allerdings ist es auch möglich, den einen farblosen Sensor auf die Ecke der farbigen Sensoren zu setzen, um deren hohe Empfindlichkeit dort auszunutzen, wo runde Mikrolinsen die Fläche ohnehin gar nicht oder nicht effizient abdecken können.

So gibt es also zahlreiche Möglichkeiten für die Optimierung der Empfindlichkeit und Auflösung von Sensoren, die bislang noch nicht abgeschlossen ist. Die Filterung bewirkt aber in jedem Falle, dass das meiste einfallende Licht nicht genutzt wird, weil es die falsche Farbe für das jeweilige Pixel hat. Da die Pixelgrößen immer noch groß gegenüber der Wellenlänge des sichtbaren Lichtes sind, sind auch keine Quanteneffekte nutzbar, die es einem erlauben würden, das Licht der falschen Wellenlänge einfach auf dem benachbarten Pixel mit dem richtigen Filter nachzuweisen.

Das Prinzip der Farbentstehung funktioniert damit also nach dem im vorherigen Teil vorgestellten RGB-Modells (RGB-Farbmischung).

Der X3-Sensor arbeitet hinsichtlich der Farbdarstellung ein wenig anders. Er ist auch ein CMOS-Sensor, verwendet jedoch kein Raster zum Generieren der Farben. Hingegen sind hierbei ausgenutzt, dass bei dem Sensormaterial die Eindringtiefe des Lichtes von der Wellenlänge abhängt. Der Sensor wird in der Tiefe in drei Zonen aufgeteilt, die dann einzeln ausgelesen werden. Über das Verhältnis der Intensitäten in den einzelnen Zonen kann dann berechnet werden, welche Wellenlänge das einfallende Licht wahrscheinlich hatte. Das Schichtenprinzip ähnelt dem analogen Farbfilm, wo die Farbempfindlichkeit pro Schicht aber besser getrennt ist.

Dieser Typ von Sensor interpoliert zumindest nicht über benachbarte Pixel, um Farben zu bestimmen, hat also bei gleicher Pixelgröße eine bessere Auflösung und höhere Empfindlichkeit und eine geringe Neigung zur Produktion von Artefakten bei Motiven mit regelmäßigen feinen Strukturen. Weil aber auf die tiefste Schicht offenbar am wenigsten Licht gelangt, ist das Rauschen vom Farbkanal abhängig. Bei der Rekonstruktion der Farbe scheinen bei diesem Sensortyp auch größere Probleme aufzutreten als bei jenem mit den Farbpixeln nebeneinander. Es gibt zudem bislang keine Sensoren im Kleinbildformat oder im Mittelformat und der Sensortyp wird nur von einem Kamerahersteller eingesetzt, ist also nicht mit Objektiven anderer Hersteller kombinierbar.

Der Sucher[Bearbeiten]

Der Sucher ist ein wichtiges Hilfsmittel des Photographen; mit ihm erkennt man, welchen Bereich der Szene die Kamera aufnimmt. Man unterscheidet heute bei Digitalkameras zwei Arten von Suchern: Einen optischen Sucher und einen digitalen Sucher. Bei analogen Kameras gibt es für gewöhnlich nur einen optischen Sucher.

Der optische Sucher[Bearbeiten]

Der optische Sucher ist der klassische Sucher, der bei Kompaktkameras aus einem kleinen Fenster mit Linsen besteht, durch das der Photograph hindurch schaut und somit den Ausschnitt sieht, den die Kamera mit der aktuell eingestellten Brennweite aufnimmt. Natürlich kann der Sucher nur dann den genauen Ausschnitt zeigen, wenn er an der Stelle sitzt, wo sich der Film beziehungsweise Bildsensor befindet (also am Objektiv). Da er dort aber baulich nicht sein kann, wird er meist oberhalb des Objektivs, oft auch links davon, angebracht.

Da der Sucher von Kompaktkameras vom Objektiv leicht versetzt angeordnet ist, ergibt sich, dass er nicht genau das Bild anzeigen kann, was am Ende aufgenommen wird; er zeigt ein leicht versetztes Bild an. Der Grad der Versetzung relativ zur Bildgröße ist bei nahen Motiven besonders groß, mit zunehmender Entfernung verringert er sich jedoch, bis er in der Ferne kaum noch eine Rolle spielt. Das Problem ist also, dass das Bild, welches die Kamera zeigt, am Ende einen leicht anderen Ausschnitt hat als man im Sucher ursprünglich gesehen hat. Dieses Problem nennt man auch Parallaxefehler; im schlimmsten Fall fehlen auf dem Photo am Ende Details, die man ursprünglich mit abbilden wollte. Natürlich kann auch der umgekehrte Fall eintreten, so dass Sachen auf dem Bild erscheinen, die man eigentlich gar nicht mit abbilden wollte (zum Beispiel eine vorstehende Hauswand etc.). Ein weiteres Problem tritt bei Zoomobjektiven auf. Es ist recht aufwendig, die Brennweite des Sucherbildes jener des Aufnahmeobjektives anzupassen.

Schematische Darstellung des Parallaxefehlers

Der Parallaxefehler ist jedoch, wenn das Motiv nicht sehr nah ist, eher gering. Viele Hobby-Fotografen werden ihn womöglich gar nicht bemerken, für detaillierte oder anspruchsvolle Aufnahmen sollte man jedoch wissen, dass der optische Sucher einer Kompaktkamera nicht genau das Bild anzeigt, was die Kamera aufnehmen wird.

Ein weiterer Nachteil des optischen Suchers von Kompaktkameras ist generell, dass er nur anzeigt, welcher Ausschnitt photographiert wird. Er zeigt nicht an, wie das Photo am Ende aussehen wird, das heißt nimmt keine Rücksicht auf eingestellte Blendenwerte und Verschlusszeiten, mögliches Rauschen wegen zu hoher ISO-Werte etc. Auch zur Fokussierung trifft er keine Aussage.

Funktionsweise einer Spiegelflexkamera

Eine Lösung für den Parallaxefehler bieten Spiegelreflexkameras. Hierbei befindet sich der Sucher zwar ebenfalls oberhalb beziehungsweise neben dem Objektiv, im Sucherfenster selbst befindet sich jedoch ausgefeilte Technik: Eine Anordnung von Linsen und Prismen sorgt dafür, dass beim Blick durch das Sucherfenster das Licht über diese optischen Bauteile zum Objektiv gelenkt wird und man somit durch das Objektiv der Kamera schaut. Damit wird exakt sichtbar, was auch die Kamera später aufnehmen wird. Wird dann das Bild aufgenommen, so klappt der letzte Spiegel im Objektiv hoch und der Verschluss öffnet sich. Damit fällt das Licht nun nicht mehr zum Sucher, sondern auf den Film beziehungsweise Sensor. Ein kleiner Nachteil ist damit, dass der Sucher nicht zur Verfügung steht, während das Bild aufgenommen wird (was im Allgemeinen aber kein Problem darstellt). Das Bildrauschen des Sensors oder Fehlbelichtungen sind so natürlich ebenfalls nicht im Sucher sichtbar. Dafür kann man allerdings bei nächtlich-dunklen Motiven gut die Empfindlichkeit des eigenen Auges nutzen, um Motive zu erkennen. In problematischen Situationen kann oft auch das Auge die Scharfeinstellung besser beurteilen als der Autofokus, der meist auf mehr Licht angewiesen ist als etwa der Sensor, welcher später zur Aufnahme verwendet wird. Das wird meist noch dadurch begünstigt, dass bei offener Blende scharfgestellt wird, die Schärfentiefe also gegenüber der Arbeitsblende recht gering ist.

Eine weitere Lösung ist der elektronische Sucher.

Der elektronische Sucher[Bearbeiten]

Viele Digitalkameras, auch Kameras der höheren Preisklasse, bieten oft nur noch einen elektronischen Sucher, auch 'Live-View' genannt. Das heißt, der Monitor dient als Sucher, in dem er anzeigt, was die Kamera aufnehmen wird. Der klare Vorteil ist hier, dass nicht nur der exakte Ausschnitt gezeigt wird (wie beim optischen Sucher), sondern die Kamera auch automatisch anzeigt, wie das Photo aufgenommen werden wird. So kann man schon vor dem Aufnehmen sehen, dass das Photo zu dunkel oder hell ist (falsche Belichtung), unscharf wirkt (falsch fokussiert), das Bild rauscht (zu hoher ISO-Wert) etc. Auch kann man hiermit ideal experimentieren, ohne bei jeder Änderung eines Parameters (Belichtungswert, Blendenwert, ISO-Wert, Farbfilter, Weißabgleich etc.) eine neue Aufnahme anfertigen zu müssen.

Allerdings kann das Rauschen im 'Live-View' anders ausfallen als bei der eigentlichen Aufnahme. Da 'Live-View' oft bei der Arbeitsblende stattfindet, kann man zwar die Schärfentiefe passabel beurteilen, das präzise Scharfstellen ist allerdings oft schwieriger, auch weil der Monitor der Kamera viel weniger Pixel hat als der Sensor. Für manuelles Scharfstellen kann man daher oft den zentralen Ausschnitt des Bildes vergrößern, um eine ähnliche Auflösung wie bei einem optischen Sucher zu erhalten. Problematisch bei elektronischen Suchern ist die Verwendung der Arbeitsblende ferner bei manuellen Blitzlichtaufnahmen - im Sucher ist schlicht kein Motiv mehr zu erkennen, der Sucher versagt komplett, während die gleiche Situation mit einem optischen Sucher meist komplett unproblematisch ist, solange noch etwas Zusatzlicht vorhanden ist.

Der Monitor sorgt zudem für Abwärme, welche die Kamera und somit auch den Sensor erwärmt, was dann wiederum das Rauschen bei der Aufnahme erhöhen kann.

Es gibt beim elektronischen Sucher wie bei dem der Spiegelreflexkamera keinen Parallaxefehler; die Kamera zeigt also das, was sie aufnehmen wird.

Es mag fast anmuten, der elektronische Sucher biete viele Vorteile und man bräuchte den optischen Sucher ohnehin nicht. Hier muss zumindest erwähnt werden, dass die Größe des Monitor entscheidend dafür ist, wie gut man die Szene am Ende beurteilen kann. Da Kameras oft klein und handlich sein sollen, fällt der Monitor zwangsweise klein aus und die Beurteilung der aufzunehmenden Szene kann schwierig werden. Zudem stören Lichteinwirkung wie Sonnenlicht oft die kleinen Monitore, auch wenn sich hier die Farbqualität und Helligkeitsanpassung gegenüber den Anfängen deutlich verbessert haben. Letztlich sieht man auf dem Monitor eben nicht, welches Bild wirklich aufgenommen wird, sondern man sieht eine Darstellung des aktuellen Bildes im Sensor, der wiederum bei der Aufnahme etwas anders arbeitet als im Dauerbetrieb des 'Live-View'

Viele Photographen haben auch prinzipielle Probleme mit der Umstellung; während sie die Kamera stets nah am Auge hielten und dann im geeigneten Moment abgedrückt haben, müssen sie sie jetzt ein gutes Stück vor dem Körper halten. Es erfordert Zeit, um sich an die neue Körperhaltung zu gewöhnen; trotzdem kann man die Kamera am sichersten halten, je näher man sie am Körper hält - dies ist also ein klarer weiterer Vorteil bei einen optischen Sucher. Hält man die Kamera weiter weg vom Körper, um den Monitor ansehen zu können, verwackelt man also leicht die Aufnahme oder muß deutlich kürzere Belichtungszeiten wählen oder eher ein Stativ, um eine gute Aufnahme machen zu können.

Zudem verbraucht der Monitor Energie, die nicht nur als Abwärme in der Kamera anfällt, sondern auch die Anzahl der Aufnahmen mit dem gleichen Akku verringert, während der optische Sucher praktisch keine Energie aus dem Akku benötigt. Selbst mittlerweile historische Kameras waren schon so verschaltet, dass Anzeigen im Sucher nur Strom verbraucht haben, wenn man den Auslöser der Kamera angetippt hat. Der elektronische Suche braucht hingegen immer eine Energieversorgung, wenn man überhaupt etwas sehen will. Bei manueller Einstellung von Blende und Verschlußzeit kann es dann weitere Probleme mit einer brauchbaren Darstellung im elektronischen Sucher geben.

Für den Alltag reicht der elektronische Sucher aber oft aus und zeichnet sich eben durch die bereits genannten Vorteile aus. Wird die Kamera zudem auf einem Stativ montiert, erleichtert die Anzeige auf dem Monitor einen berührungslosen Betrieb, um Verwacklungen zu vermeiden. Von daher ist es für die Praxis sinnvoll, wenn die Kamera beides aufweist, sowohl einen optischen Sucher als auch einen elektronischen Sucher, damit der Photograph je nach Situation die Wahl hat, was sich besser eignet.


Der Auslöser[Bearbeiten]

Durch das Betätigen des Auslösers beginnt der Prozess der Bildaufnahme. Er dauert für gewöhnlich nur Bruchteile von Sekunden, kann aber bei einer Langzeitbelichtung auch mehrere Sekunden und in extremen Fällen sogar Minuten oder Stunden dauern. Die meisten Digitalkameras bieten heute die Funktion Serienaufnahme (Reihenaufnahme). Hierbei zeichnet die Kamera solange Bilder auf, wie der Auslöser gedrückt bleibt. Damit lassen sich einzelne Bilder schneller hintereinander aufnehmen als im einfachen Modus. Manche Kameras bieten hierbei die Option, zwischen den Aufnahmen neu zu fokussieren.

Kameras bieten zudem einen Selbstauslöser (englisch: Timer, Self-Timer). Wird dieser aktiviert, so nimmt die Kameras erst nach einigen Sekunden, je nach Einstellung, das Bild auf. Typische Zeiten sind 2 Sekunden und 10 Sekunden; manche Kameras erlauben auch das individuelle Einstellen eines Wertes. Dadurch werden zum Beispiel Gruppenaufnahmen möglich, bei denen der Photographierende selbst mit auf dem Bild erscheint. Selbstauslöser werden zudem bei langen Verschlusszeiten zum Vermeiden von Unschärfe durch Verwackeln verwendet.

Zwischen Auslösen und tatsächlicher Bildaufnahme vergeht ein wenig Zeit, was als Auslöseverzögerung bezeichnet wird. Die Kamera benötigt zunächst Zeit, um Belichtung und Fokus einzustellen sowie etwas Zeit, um den Belichtungsvorgang zu starten. Sind Fokus und Belichtung bereits berechnet (halb gedrückter Auslöser oder Vorauswahl), so ist die Verzögerung deutlich geringer, einige Millisekunden werden aber dennoch bis zur Bildaufnahme verstreichen. Dies sollte man bei Aufnahmen mit schnell beweglichen Objekten oder Personen berücksichtigen.

Die Auslöseverzögerung war zu Beginn der Digitalphotographie oft erheblich, bei manchen Modellen lag sie bei mehreren Sekunden. Die heutigen Kameras haben hingegen eine verhältnismäßig kurze Verzögerung, die sich bei alltäglichen Aufnahmen nicht mehr als störend erweisen sollte.

Zu beachten ist hierbei auch, dass ein Autofokus besonders bei kritischen Lichtverhältnissen zu erheblichen Verzögerungen führen kann. Wenn man also weiß, wo das Motiv ist oder sein wird, kann es sich lohnen, den Autofokus zu deaktivieren, um Zeit bei der Auslösung einzusparen.

Bei Aufnahmen mit Blitzgeräten kann es auch zu kleinen Verzögerungen kommen, etwa wenn es der Blitzmodus erfordert, dass ein Vorblitz ausgelöst und ausgewertet wird. Wenn man hier auch bereits vor der Aufnahme weiß, was man braucht, kann man ebenfalls durch einen anderen Modus oder eine manuelle Vorwahl Verzögerungen reduzieren.

Wichtig kann zudem die Möglichkeit sein, einen Fernauslöser anzuschließen, bei geeignetem Anschluss kann dann je nach Bedarf selbst entschieden werden, ob dies ein Kabelanschluß sein soll oder doch Infrarot- oder Funkauslöser besser geeignet sind. Über solch einen Anschluß lassen sich zudem 'Timer' anschließen, Geräte, die die Kamera automatisch in festen Zeitabständen auslösen oder gar noch weitere Eigenschaften der Kamera vorwählen oder durchvariieren können.


Der Speicher[Bearbeiten]

Ein Großteil der heutigen Kompaktkameras verwendet heute SD-Karten zur Speicherung der Photos.

Digitalkameras speichern die Photos meist auf im Handel erhältlichen Speicherkarten, wobei die SD-Karte weit verbreitet ist. Sie ist relativ klein und bietet hohe Speicherkapazität - 4, 8 und 16 GB sind heute Standardkapazitäten, die auch Photos in höchster Pixelzahl in großer Zahl speichern können. Zu beachten ist hier eine Formatgrenze bei 2 GB, ältere Kameras können keine größeren Dateisysteme verwalten, daher ist vor dem Kauf einer neuen Karte immer genau darauf zu achten, ob die Kamera Karten mit mehr als 2 GB verwenden kann.

Für große Kameras sind auch CF-Karten üblich, die höhere Verarbeitungsgeschwindigkeiten zulassen, aber auch weniger kompakt sind.

Bei einigen sehr kompakten Geräten wie Mobiltelephonen können auch Micro-SD-Karten zum Einsatz kommen, die hinsichtlich der Speicherung ähnliche Eigenschaften wie SD-Karte aufweisen, aber noch deutlich kleiner sind. Während CF-Karten eine noch recht griffige Größe haben und SD-Karten immerhin noch ungefähr Daumengröße, ist die Handhabung der Micro-SD-Karten aufgrund der Kantenlänge von etwa 1 cm und einer Dicke von etwa 1 mm bereits merkbar problematischer. Zum anderweitigen Auslesen gibt es meist Adapter, in welche die Micro-SD-Karten gesteckt werden kann, worauf man den Adapter als SD-Karte verwenden kann.

Einige Kameras besitzen auch einen internen Speicher, der mit zum Beispiel 16 oder 32 MB aber für gewöhnlich sehr gering ist und nur ein paar wenige Photos in größerer Auflösung speichern kann.

Neben diesen persistenten Speichern verfügt jede Digitalkamera noch über einen Arbeitsspeicher. Unmittelbar nachdem ein Photo aufgenommen wurde, liegt es zunächst im Arbeitsspeicher und wird dann auf den Speicherchip oder in den internen Speicher geschrieben. Die Größe des Arbeitsspeichers ist daher bei Serienbildern mitentscheidend, wie viele Bilder pro Sekunde aufgenommen werden können oder welche Nachbearbeitung des Bildes direkt nach der Aufnahme mit der Kamera erfolgen kann.

Der Akku[Bearbeiten]

Im Vergleich zu einer Analogkamera verbraucht eine Digitalkamera deutlich mehr Energie. Besonders hoch ist der Verbrauch am Monitor, welcher sich daher gegebenenfalls abschalten lässt, aber auch Objektiv, Bildsensor und Verarbeitungslogik benötigen Energie. Wird mit Blitzlicht photographiert, ist der Akku noch schneller erschöpft. Die Akkus der Kameras haben daher eine für elektronische Geräte recht geringe Laufzeit - bei den meisten Kameras wird man nach etwa 200 bis 300 Fotos den Akku neu laden müssen. Für größere Phototouren ist daher ein Ersatzakku sehr empfehlenswert (dieser kann bei einigen Akkus recht teuer sein).

Kameras werden heute meist mit kameraspezifischen Akkus betrieben, die samt Ladegerät im Lieferumfang der Kamera enthalten sind. Einige Kameras werden aber auch mit handelsüblichen Batterien bzw. Akkus betrieben (meist R6), wobei in solchen Fällen die Akkulaufzeit oft geringer ist. Die kameraspezifischen Akkus sind zudem leichter, so dass ihre Verwendung das Gesamtgewicht der Kamera reduziert.

Ein Akku kann mehrere hundert mal erneut aufgeladen werden, mit zunehmender Zahl wird sich jedoch die Kapazität allmählich vermindern. Bringt ein Akku nicht mehr die gewünschte Leistung, so muss ein neuer besorgt werden (oder eine neue Kamera - die Akkus von heute sollten nämlich unterdessen mehrere Jahre problemlos halten). Zudem ist zu berücksichtigen, dass Akkus bei Kälte schneller erschöpft sind. Auf winterlichen Phototouren ist ein Ersatzakku daher besonders wichtig, zudem kann das Warmhalten des Akkus sinnvoll sein.


Die Anschlüsse[Bearbeiten]

Jede Digitalkamera ist mit verschiedenen elektronischen Anschlüssen ausgestattet, um die aufgenommenen Bilder an ein anderes Gerät übertragen zu können.

Einfache Digitalkameras besitzen meist 2 Anschlüsse: Einen USB-Anschluss, um die Kamera mit einem Computer zu verbinden, und einen A/V-Anschluss. Der USB-Anschluss dient vor allem dazu, um die Kamera an einen Computer anzuschließen und die Photos an diesen zu übertragen, um sie dort dauerhaft zu speichern. Man kann die Kamera aber auch an andere USB-fähige Geräte anschließen, zum Beispiel einen (Photo-) Drucker oder digitalen Bilderrahmen. Der A/V-Anschluss ermöglicht das Anschließen eines A/V-Kabels (Audio/Video), um die Kamera mit einem Fernseher oder Monitor zu verbinden. Damit wird dann der Monitor der Kamera auf dem angeschlossenen Bildschirm sichtbar. Das A/V-Kabel bietet sich somit zur einfachen Präsentation der aufgenommenen Photos oder zu deren besseren Beurteilung an - die Qualität und Auflösung eines älteren Fernsehbildschirms ist aber meist geringer als die eines Computermonitors.

Manche Kameras bieten auch einen Netzanschluss, um die Kamera direkt mit Netzstrom zu versorgen. Dies ist vorteilhaft, wenn man aufwendigere und zeitintensivere Porträt- oder Sachaufnahmen durchführen möchte und Zugang zu einer Steckdose besitzt. Da die meisten Kompaktkameras wohl eher für den mobilen Einsatz konzipiert sind, verfügen aber nur wenige über einen solchen Anschluss.

Weitere Anschlüssen sind oft ebenfalls vorhanden, etwa für einen Fernauslöser und einen Blitzsynchronanschluß.


Das USB-Kabel ist für gewöhnlich immer im Lieferumfang enthalten - welche weiteren Kabel enthalten sind, wird man in der Produktbeschreibung erfahren. Die Anschlüsse befinden sich meist an der Seite der Kamera und werden durch eine Schutzhülle oder einen Deckel vor Verschmutzung und Feuchtigkeit geschützt.

Aufbau und Funktionsweise einer Analogkamera[Bearbeiten]

Grundlegendes Funktionsprinzip[Bearbeiten]

Die Analogkamera unterscheidet sich im Grunde nur gering von der Digitalkamera. Ihr fehlt der Bildsensor und ein Monitor; dafür wird ein lichtempfindlicher Film eingelegt, der die aufgenommenen Bilder speichert. Der Film wird dann für jede neue Aufnahme entweder mit einem Motor oder mit einer Handkurbel weitertransportiert. Bei jeder Aufnahme wird also frisches Material verwendet, während die Digitalkamera immer denselben Bildsensor verwendet. Während die Pixel eines Bildsensors regelmäßig angeordnet sind, ist die Struktur oder Körnung des Filmmaterials zufälliger und macht sich damit zumeist weniger unangenehm bei starken Vergrößerungen bemerkbar, auch die aus der regelmäßigen Anordnung der Pixel resultierenden Artefakte in Abbildungen sind so von Filmmaterial nicht bekannt. Hier liegen also die eigentlichen Unterschiede zur Digitalphotographie.

Beim Aufnehmen eines Photos öffnet sich für den Bruchteil einer Sekunde (in Abhängigkeit des vorhandenen Lichts) der Verschluss, genau wie bei der Digitalkamera. Das Licht fällt auf den extrem lichtempfindlichen Film, dessen Material dadurch eine chemische Reaktion erfährt und sich verwandelt. Man kann sagen, dass jedes Bild zunächst schwarz ist und durch das Licht allmählich weiß wird (sogenanntes Negativmaterial). Dort wo viel Licht auf das Bild fällt, wird es schnell weiß, dort wo wenig Licht auf das Bild fällt, wird es langsam weiß. Sobald die Belichtungszeit abgelaufen ist, schließt sich der Verschluss wieder und die Belichtung des Bildes ist damit abgeschlossen. Das Photo ist nun fertig, jedoch ist das Material nach wie vor lichtempfindlich, daher wird der Film immer in einer lichtdichten Umgebung aufbewahrt. Ein voller Film wird dann nach der Aufnahme zur Entwicklung gebracht, wonach dann weitere Lichteinwirkung keine Änderung des Materials mehr bewirkt, siehe nächster Abschnitt.

Dort, wo viel Licht auf den Film gefallen ist, hat es sich recht weiß verfärbt; dort, wo wenig Licht war, blieb er schwarz bzw. hat sich nur in ein Dunkelgrau verfärbt. Auf diese Weise entstehen Schwarzweißphotos oder eigentlich Grauwertebilder.

Bei der Farbphotographie besteht ein Film aus mehreren, hintereinanderliegenden Filterschichten (rot, grün und blau) die immer nur für bestimmte Wellenlängenbereiche empfindlich sind (eben rot, grün, blau) und die anderen durchlassen. Auf diese Weise entsteht ein Farbphoto. Dieses Prinzip entspricht der Arbeitsweise der bereits vorgestellten X3-Bildsensoren.

Früher musste man den Film nach der Aufnahme manuell weiterspulen, da man sonst das bereits aufgenommene Foto erneut belichtet und damit "überschrieben" hätte. Später haben die Kameras nach der Aufnahme den Film automatisch um eine Stelle weitergespult. Wenn das letzte Photo aufgenommen wurde, haben sie ihn zudem automatisch eingerollt, so dass er wieder lichtdicht verpackt war und nicht beschädigt werden konnte. Mit dem automatischen Weiterspulen waren jedoch künstlerische Mehrfachbelichtungen, die anspruchsvolle Photographen manchmal ganz bewusst durchführen möchten, unmöglich - entsprechend haben viele Kameras dann wieder spezielle Knöpfe, um das Weiterspulen abzuschalten.


Die Entwicklung[Bearbeiten]

Grundlagen[Bearbeiten]

Klassisches Entwickeln eines Photos in der Dunkelkammer.

In einem Photolabor wird der Film dann entwickelt und in Form eines Dias oder Papierbildes an den Kunden ausgeliefert. Bei Negativmaterial erfolgt dann also eine weitere Belichtung, um einen Papierabzug zu bekommen. Bei Positivmaterial sind die Helligkeiten gleich richtig und nicht invertiert. Hier werden die Bilder bevorzugt als Dias projeziert.

Während der Film selbst eine ausgesprochen gute Qualität hat, im Allgemeinen besser als ein gewöhnlicher Kamerasensor mit 10 MP, kann beim Entwickeln natürlich viel Qualität verlorengehen; vor allem Papierbilder können bei kostengünstiger Herstellung eine relativ geringe Qualität aufweisen. Professionelle Photographen entwickeln ihre Photos daher gern selbst; einerseits, um die Qualität ihrer Abzüge selbst sicherstellen zu können, andererseits auch, um künstlerische Effekte zu bewirken (auch beim Entwickeln kann man das Photo noch künstlerisch gestalten, obwohl es bereits längst von der Kamera aufgenommen wurde). Da bei Diafilmen keine weitere Belichtung erfolgt, sondern nur die Entwicklung, erweist sich dies als relativ robuste Variante, um Qualitätsverluste durch andere Personen weitgehend zu vermeiden. Auch von Diafilmen lassen sich im Bedarfsfalle Papierabzüge machen, deren Qualtität dann im Zweifelsfalle anhand des Dias besser zu überprüfen ist.

Obwohl bei der Erstellung der Abzüge immer Qualität verlorengeht, hat sich mit der Computertechnik in den achtziger Jahren auch die Entwicklung der Photos verbessert. So konnten Programme bereits damals das Photo automatisch verfeinern, zum Beispiel den Schärfegrad erhöhen. Umgekehrt ist es durchaus auch häufig vorgekommen, dass diese Programme bei den Abzügen die Bemühungen des Photographen wieder zunichte gemacht haben, wenn es um schwierige Motive geht, die der Photograph meistern konnte, aber nicht die automatischen Programme. Ein Ausweg war dann auch hier entweder der Diafilm oder aber die Entwicklung und die Belichtung der Abzüge selbst vorzunehmen.

Vorgehen (Exkurs)[Bearbeiten]

Die Entwicklung des Films muss in völliger Dunkelheit geschehen, denn selbst geringe Lichteinwirkungen würden das korrekt belichtete Photo weiterbelichten und schnell komplett weiß färben. Insbesondere muß der Film also die gesamte Zeit vom Kauf über die Nutzung in der Kamera bis zur Entwicklung durchgehend komplett im Dunkeln bleiben. Da man im Dunkeln jedoch nicht vernünftig arbeiten kann, findet nur der erste Schritt des Entwickelns in Dunkelheit statt. Hierbei wird der Film in eine lichtundurchlässige Entwicklerdose gesteckt, genauer, er wird auf eine Filmspirale aufgewickelt, die dann in die Entwicklerdose gesteckt wird. Die Filmspirale sorgt dafür, dass der Film gleichmäßig mit dem Entwickler in Berührung kommt. Da dem Film in dieser Dose nun nichts mehr zustoßen kann, können alle weiteren Arbeitsschritte dann bei normalem Licht durchgeführt werden.

Es wird nun der Entwickler angerührt, den man käuflich erwerben kann. Der Entwickler ist eine chemische Lösung, in welcher der Film entwickelt wird. Er wird etwa im Konzentrat-Wasser-Verhältnis von 4:1 (zum Beispiel 400 ml Wasser und 100 ml Konzentrat) angerührt und sollte etwa 18 bis 20 °C Wassertemperatur aufweisen. Der Entwickler ist stets basisch (pH-Wert um 8 oder 9).

Der Entwickler wird, wenn er fertig angerührt ist, in die Entwicklerdose gegeben, die dann rhythmisch bewegt werden muss (zum Beispiel regelmäßiges Kippen der Dose). Auf diese Weise soll der Entwickler ausgeglichen werden, so dass alle Photos gleichmäßig entwickelt werden. Je intensiver die Bewegungen sind und je wärmer das Wasser ist, umso kürzer ist die Entwicklungszeit, aber umso grobkörniger werden dann auch die Photos. Das genaue Beachten der Herstellerangaben ist daher wichtig. Dieser Vorgang ergibt bereits ein sichtbares Bild, das aber noch nicht stabil ist.

Sobald die Entwicklungszeit abgelaufen ist, wird der Entwickler ausgegossen und anschließend die Stopplösung eingegeben (Stoppbad / Unterbrechungsbad). Dieses Bad weist einen sauren pH-Wert auf (4 oder 5) und dient der Neutralisierung des basischen Entwicklers. Ziel ist es damit, die Entwicklung des Photos (die in der basischen Lösung immer weiter voranschreitet) zu stoppen. Bei manchen Entwicklern reicht jedoch das saure Bad nicht aus und die Fixierung muss direkt im Anschluss erfolgen.

Der letzte große Schritt besteht darin, die Fixierlösung in den Entwickler zu geben (Fixierbad). Wie der Name schon sagt, wird nun der Film "fixiert", das heißt, er ändert sich in seiner Beschaffenheit nicht mehr, egal wie viel Licht auf ihn fällt. Das Fixieren dauert je nach verwendeter Substanz und Anzahl der bereits in dem Wasser durchgeführten Fixierungen zwischen rund 30 Sekunden und 3 Minuten an. Nach einigen Entwicklungen ist das Fixierwasser ausgeschöpft und muss erneuert werden.

Nach dem Fixierbad findet das Wässern statt. Der Film wird nun mit klarem Wasser gereinigt, so dass keine Spuren des Fixierwassers mehr übrigbleiben. Die Reinigung muss gründlich erfolgen und erfordert etwas Zeit; das Wasser muss mehrfach ausgetauscht werden.

Als letztes findet das Trocknen statt. Hierbei wird der Filmstreifen meist mit Klammern senkrecht in einem staubfreien Raum oder Schrank aufgehängt. Die Entwicklung des Films ist damit abgeschlossen. Im Anschluss können Abzüge des Films angefertigt (Papierbilder) oder einzelne Photos in Diarahmen gesteckt werden. Im letzten Fall enthält man somit Dias, die über einen Diaprojektor betrachtet werden können.

Anmerkung: Das beschriebene Verfahren ist ein recht einfaches, modernes Vorgehen. Die klassische Entwicklung der Photos fand jedoch in einer Dunkelkammer statt, die absolut lichtdicht abgeschlossen war. Das betraf vor allem das Zeitalter der Photographie, als noch mit großen Filmplatten (meist Glasplatten) gearbeitet wurde. In dieser Dunkelkammer gab es dann die 3 Bäder Entwicklerbad, Unterbrechungsbad und Fixierbad. Das waren meist drei Schalen, in die das Bild dann jeweils eingelegt wurde (als Hilfsmittel dienten dabei beispielsweise Pinzetten). Da man in völliger Dunkelheit nicht arbeiten konnte, war es nötig, eine Möglichkeit zur Beleuchtung zu finden, ohne den Entwicklungsvorgang zu stören. Einige Emulsionen waren resistent gegen rotes Licht (langwelliges Licht). Deshalb wurde in solches Kammern Rotlicht verwendet, um die Entwicklung durchzuführen.

Vergleich Analog- und Digitalphotographie[Bearbeiten]

Die Digitalphotographie weist gegenüber der Analogphotographie sowohl zahlreiche Vorteile als auch einige Nachteile auf. In diesem Abschnitt sollen Digital- und Analogphotographie verglichen werden, insbesondere mit Hinblick auf ihre Vor- und Nachteile.

Wie bereits aufgeführt, nimmt die Analogkamera ein Bild auf, indem Licht auf einen lichtempfindlichen Film trifft und diesen verfärbt. Das Photo muss dann in einem Photolabor entwickelt werden und es können Abzüge (Positive) erstellt werden. In der Digitalphotographie nimmt ein Sensor das Bild auf und speichert es sofort als digitale Datei.

Der Vorteil von Digitalkameras ist vor allem, dass man die Bilder nach der Aufnahme sofort beurteilen lassen, man mit heutigen Speicherchips fast unbegrenzt viele Aufnahmen speichern kann und Film- und Entwicklungskosten entfallen (und der mit der Entwicklung entstehende Aufwand). Digitalphotographie ist damit vor allem für experimentelle Photographie und für Anfänger ideal - es können beliebig viele Photos aufgenommen und beurteilt werden, ohne dass größere Kosten anfallen. Da kein Film verwendet wird, ist auch eine "Unterbrechung" deutlich seltener (im Allgemeinen 24 oder 36 Fotos bei der Analogphotographie gegenüber mehreren hundert Photos bei der Digitalphotographie, in Abhängigkeit von Speicherkapazität und Akkulaufzeit) - das macht sich vor allem bei Unterwasseraufnahmen, Photo-Shootings und Serienaufnahmen bemerkbar.

Ein Nachteil der Digitalkameras ergibt sich daraus allerdings auch - ein einmal verschmutzter oder fehlerhafter Sensor wird weiterverwendet, bis er gereinigt, beziehungsweise repariert ist. Bei Filmmaterial ist das Problem zumeist mit der nächsten Aufnahme oder dem nächsten Film bereits behoben. Die Filmebene der analogen Kameras läßt sich auch deutlich leichter reinigen als die Bildsensoren der Digitalkameras. In der Praxis wird heute gleich die ganze Kamera getauscht, wenn man mit der Qualität des Bildsensors nicht zufrieden ist. Bei analogen Kameras hat man eher das Filmmaterial getauscht, wobei analoge Kameras wegen fehlendem Sensor und fehlendem Monitor meist sogar noch deutlich günstiger sind als vergleichbare digitale Kameras.

Da Digitalkameras von keinem Film abhängig sind, lassen sich ISO-Wert und Weißabgleich bei jedem Foto individuell einstellen, während man sich bei der Analogphotographie zuvor auf einen ISO-Wert und eine Farbtemperatur festlegen muss.

Digitalkameras verwenden interne Programme, die verschiedene Artefakte verhindern und Photos optimieren kann, aber auch Bilder 'glattbügeln' kann, also eine 'Optimierung' auf Kosten der Auflösung und des Kontrastes von Bildern durchführen kann. Die meisten Digitalkameras bieten auch viele Motivprogramme, die insbesondere Einsteigern zu anspruchsvollen Photos verhelfen soll, sowie Videofunktionen und Ton.

Sollen Photos für Präsentationen, E-Mails, Webanwendungen etc. verwendet werden, ist die Digitalphotographie ebenfalls komfortabler, da die Photos dann nicht erst noch eingescannt werden müssen. Auch die Nachbearbeitung wird damit leichter. Anders als analoge Kameras lassen sich Kompaktkameras auch an Fernsehgeräte, mobile Drucker etc. anschließen.

Digitale Photos lassen sich einfacher und ohne Kostenaufwand vervielfältigen - Kopie und Original sind dabei nicht unterscheidbar (kopieren ohne Verlust). Dies erleichtert auch das digitale Archivieren der Bilder. Hier besteht allerdings wiederum das Problem, dass Speichermedien für digitale Daten nicht so lange haltbar sind wie gut gepflegte Negative oder Dias. Das Archivieren von digitalen Daten erfordert also wiederum unbedingt auch das fortgesetzte Kopieren. Ähnlich wie vor der Erfindung der Schrift ist man hier also wieder auf eine lückenlose Übermittlung der Information angewiesen, man kann digitale Daten bislang nicht über viele Jahrzehnte ruhen lassen, man muß sich alle paar Jahre damit beschäftigen, um sie der Nachwelt zu erhalten. Ein weiteres Problem ergibt sich dabei auch durch die verwendeten Dateiformate und die Kodierung und Dekodierung derselben. Insbesondere wenn es sich bei den Formaten nicht um internationale Standards handelt, die nicht von sehr vielen Programmen interpretiert werden können, droht immer auch, daß man solche Daten auf neuen Rechnern nicht mehr lesen kann, wo alte Programme nicht mehr funktionieren und der Hersteller oder Rechteinhaber des Formates keine neuen Programme mehr anbietet. In der Praxis hat sich gezeigt, dass dies bei digitalen Daten ein ähnlich großes Problem darstellt wie die begrenzte Haltbarkeit der Speichermedien. Es reicht also im Zweifelsfalle nicht, die Dateien einfach auf neue Speichermedien zu kopieren, gegebenenfalls muß man auch abschätzen, wie lange das verwendete Dateiformat noch überleben wird und dann rechtzeitig in ein anderes Format konvertieren. Gibt es zu einem Format mehrere Versionen eines Standards, beherrschen die meisten Programme auch allenfalls eine Version davon, neue Programme eher eine neue Version. Von daher ist auch nicht unbedingt gewährleistet, dass alte Dokumente, die einer alten Standardversion folgen noch mit Programmen richtig dargestellt werden, die einer neuen Standardversion folgen. Der digitale Archivar muß also immer wachsam sein und sich gut informieren.

Anders als Digitalkameras neigen Analogkameras weniger zu Bildrauschen bei Dunkelheit, weil sie keinen Sensor besitzen, der sich aufheizt (bei Filmen mit hohem ISO-Wert tritt Bildrauschen jedoch ebenfalls auf). Allerdings hat die verwendete Sensortechnik ein größeres Potential, höhere Empfindlichkeiten zu erreichen, tendenziell ist die sogenannte Quanteneffizienz von Bildsensoren viel höher als von Filmmaterial. Bedingt durch den Aufbau der Sensoren und die nebeneinander liegenden Farbpixel wird derzeit allerdings noch längst nicht das volle Potential dieser Technik genutzt, während die Filmtechnik ausgereizt ist.

Die Einstiegskosten in die Digitalphotographie sind größer, auch wenn sie sich über die Jahre rentabilisieren. Digitalkameras der unteren Preiskategorie scheinen zudem eine geringere 'meantime to failure' (Zeit bis zum Ausfall/Defekt) zu besitzen als Analogkameras. Aufgrund des Fortschrittes bei der Bildsensortechnik und anderer Verbesserungen oder effizient beworbener Veränderungen an neuen Kameramodellen wird jedoch oft ohnehin schnell der Bedarf an einer neuen Kamera geweckt, was dann wieder dazu führen kann, dass die Kosten pro Bild bei Digitalkameras ähnlich hoch sind wie die laufenden Kosten bei analogen Kameras. Zudem ist die Akkulaufzeit bei Digitalkameras deutlich geringer.

Die Bildqualität ist in der Analogphotographie im Grunde besser, da selbst 12-MP-Sensoren noch nicht an das Auflösungsvermögen von Kleinbildfilm herankommen, geschweige denn an Mittel- oder gar Großbildformat. Für hochauflösende Großbildaufnahmen, oder für große Ausschnittvergrößerungen besitzt die Analogphotographie hier Vorteile, zumal auch recht einfach auf einen für die jeweilige Anwendung optimierten Film gewechselt werden kann. Zudem wird man selbst bei größter Vergrößerung keine Pixel erkennen können, da die Silberkristalle ("Pixel der Analogphotographie") keine quadratische, sondern eine unregelmäßige Form haben. Statt der Pixel sieht mal also die unregelmäßige, zufällige Verteilung dieser Körnung statt regelmäßig angeordneter Pixel. Das wird meist als deutlich weniger störendes Artefakt wahrgenommen.

Digitalphotographie kann zu Massenphotographie führen. Als Folge kann es passieren, dass man die Übersicht über Photos verliert. Da man sich über misslungene Bilder keine Gedanken mehr machen muss, kann es ebenso passieren, dass die klassischen Prinzipien der Photographie, wie etwa Belichtung, Fokussierung und Komposition vernachlässigt werden (viele Schnappschüsse in der Digitalphotographie gegenüber wenigen, aber qualitativ besseren Photos in der Analogfotografie). Allerdings bietet dies auch eine Chance, zu experimentieren und durch Versuch und Irrtum zu guten Resultaten zu kommen, ein Vorgehen, welches bei den Analogkameras sehr mühsam wäre, weil man die Resultate nicht gleich nach der Aufnahme angucken kann. Die mit der Digitalphotographie zusammenhängende Massenphotographie führt auch zur massenhaften, zum Teil kaum mehr überschaubaren Veröffentlichung von Photos. Da die 'Wahrheit' oder der 'Kern' eines Motivs allerdings oft nicht in einem Bild verewigt werden kann, bieten lange Photoserien mit verschiedenen Abbildungen desselben Motivs natürlich auch eine Chance für den Betrachter, mehr über das Motiv zu erfahren, als wenn er dazu gezwungen wäre, dem Blickwinkel des Photographen bei nur einer Aufnahme zu folgen.

Fehlerhafte Bedienung von Digitalkameras kann verheerender sein als in der Analogphotographie. Mit wenigen Klicks lassen sich auf Digitalkameras alle Bilder vollständig löschen. Speicher- und Formatierungsfehler, wie sie grundsätzlich auftreten können, können ebenso getätigte Aufnahmen zerstören - in der Analogphotographie tritt dieses Problem bei ordnungsgemäß eingelegten Film weniger auf, allenfalls beim Öffnen des Kameragehäuses. Die vielen Einstellmöglichkeiten können Benutzer auch überfordern, oder dazu führen, dass ungewünschte Einstellungen (zum Beispiel eine geringe Auflösung, ein hoher ISO-Wert) versehentlich vorgenommen oder beibehalten werden. Die Einarbeitung in die Funktionsweise einer Digitalkamera ist damit deutlich aufwendiger.

Die Analogphotographie hat teilweise ihre eigene Stile, was künstlerische Gestaltung und Nachbearbeitung betrifft (zum Beispiel Mehrfachbelichtung oder Farbgestaltung bei der Filmentwicklung). Obwohl die Digitalphotographie und digitale Nachbearbeitung dies ebenfalls ermöglicht, handelt es sich hierbei um zwei völlig verschiedene Techniken mit unterschiedlichen Vor- und Nachteilen.

Im Vergleich zu Digital-Kompaktkameras ergeben sich noch ein paar weitere Vorteile der Analogphotographie: Kontrast und Farbdynamik sind meist größer.

Typen von Kameras[Bearbeiten]

Kompaktkameras[Bearbeiten]

Kompaktkamera.

Die Kompaktkamera ist eine kleine, handliche Kamera im unteren oder mittleren Preissektor. Einfache Modelle beginnen bereits bei etwa 40 Euro, gute Modelle können aber bis etwa 300 Euro oder gar mehr kosten. Kompaktkameras können sowohl Analog- als auch Digitalkameras sein, im Handel werden heute meist Digitalkameras angeboten.

Der Fokus liegt bei Kompaktkameras auf Robustheit, geringe Abmaße, geringes Volumen, geringes Gewicht. Da die Kameras besonders flach sein sollen, gibt es oft nur eingeschränkten optischen Zoom (meist dreifach oder vierfach). Meist wird ein recht klein dimensioniertes, lichtschwaches Objektiv nach vorne ausgefahren, bevor Aufnahmen gemacht werden können. Kompaktkameras sind Einsteigerkameras; sie bieten meist wenig manuelle Einstellungsmöglichkeiten (wie Belichtung, Blende, ISO-Wert, Manueller Fokus etc.), haben dafür aber zahlreiche vorgefertigte Programme und Hilfestellungen, so dass Einsteiger und selbst Kinder problemlos Photos aufnehmen können. Auch die generellen Einstellungsmöglichkeiten wie Brennweite, Blende und Belichtung sind oft begrenzt; für anspruchsvolle Szenen und experimentelles oder kreatives Photographieren sind zumindest die Kameras der untersten Preisklasse (bis ca. 100 Euro) weniger geeignet.

Bedingt durch die kompakte Bauweise sind die in digitalen Kompaktkameras verwendeten Bildsensoren meist sehr klein und haben dementsprechend nur relativ kleine Pixel. Solche Kameras sind daher nicht besonders lichtempfindlich und arbeiten oft auch wegen der lichtschwachen Objektive an der Beugungsgrenze.

Die Begriffe Kompaktkamera und Kleinbildkamera (KB-Kamera) sind sehr ähnlich, der Begriff Kleinbildkamera bezieht sich aber eher auf das Filmformat, während Kompaktkamera sich auf die Gehäusegröße der Kamera bezieht.


Bridge-Kamera[Bearbeiten]

Typische Bridge-Kamera.

Die Bridge-Kamera (auch: Prosumerkamera, manchmal auch Hybridkamera) steht technisch gesehen zwischen der recht einfachen Kompaktkamera und der recht komplexen, anspruchsvollen Systemkamera. Sie ist einerseits noch immer recht handlich und im Volumen nur etwas größer als herkömmliche Kompaktkameras, kommt vom Leistungsumfang her jedoch oft nah an einfache Systemkameras heran. Der Vorteil dieser Kameras ist, dass man hier die Möglichkeit zu anspruchsvollen Aufnahmen hat, die Kamera aber gleichzeitig noch relativ klein ist und sich, wie die Kompaktkamera, gut für unterwegs eignet.

Oft ist hier eine höherwertige, lichtstärkere Optik verbaut, die auch einen größeren Zoom-Bereich aufweist. Verglichen mit dem Kleinbildformat sind die eingebauten Bildsensoren aber ebenfalls als klein anzusehen.

Systemkameras[Bearbeiten]

Systemkameras sind Kameras, die aus einem Gehäuse und einer Vielzahl von wechselbarem Zubehör, insbesondere wechselbaren Objektiven bestehen.

Spiegellose Systemkameras[Bearbeiten]

Gegenüber den Spiegelreflexkameras wird bei spiegellosen Systemkameras (DSLM, englisch: Digital Single Lens Mirrorless) der optische Sucher wie bei digitalen Videokameras durch einen Monitor und/oder einen elektronischen Sucher (EVF, englisch: electronic view finder) ersetzt. Im Allgemeinen wird ein kleinerer Bildsensor verwendet. Das ermöglicht eine kompaktere Bauweise als bei Spiegelreflexkameras.

Sofern man auf die Vorzüge eines optischen Suchers und die hohe Empfindlichkeit großer Sensoren verzichten kann (bei gleicher Bauweise trifft auf einen großen Sensor proportional zur Fläche mehr Licht) und eine Ausrüstung mit weniger Gewicht und Volumen bevorzugt, ohne insbesondere auf Wechselobjektive verzichten zu wollen, können Systemkameras bereits eine sinnvolle Wahl sein.

In solch einem System ist es also möglich, verschiedene Objektive, Blitzgeräte und Kameras miteinander zu kombinieren, um je nach Aufnahmesituation eine gute Ausrüstung nutzen zu können. Das macht die Kamera meist weniger sperrig, bei gleichzeitig hohem Leistungsvermögen. Nachteilig gegenüber Kompaktkameras sind lediglich die deutlich höheren Anschaffungskosten, das höhere Gewicht und das mehr oder minder aufwendige Wechseln von Zubehörteilen.

Digitale Spiegelreflexkamera[Bearbeiten]

Typische Spiegelreflexkamera.

Das wesentliche Merkmal der Spiegelreflexkamera (oft auch SR-Kamera oder SLR/DSLR, englisch: digital single lens reflex) ist, wie schon erwähnt, der Vorzug, dass man im optischen Sucher genau das sieht, was die Kamera aufnehmen wird. Zudem gibt es Kameras mit großen, lichtempfindliche Sensoren wie dem Kleinbildformat oder dem Mittelformat praktisch nur als Spiegelreflexkameras. Wie die anderen Digitalkameras auch haben digitale Spiegelreflexkameras mit "Live-View" auch einen Monitor als elektronischen Sucher. Ältere digitale Spiegelreflexkameras benutzen den Monitor nur zur Betrachtung bereits abgespeicherter Bilder und zum Darstellen der Kameraeinstellungen. Bei modernen digitalen Spiegelreflexkameras kann der Photograph kann also im Bedarfsfalle wählen.

Die Bildsensoren gibt es bei Spiegelreflexkameras in unterschiedlichen Größen, jedenfalls immer größer als bei Kompaktkameras und in der Regel auch größer als bei spiegellosen Systemkameras. Hersteller bieten die Kameras meist so an, dass man von vorne herein Objektive kaufen kann, die sowohl mit kleinen als auch großen Bildsensoren verwendbar sind. So kann man im Bedarfsfalle recht einfach von einer Kamera mit kleinem Sensor zu einem im Kleinbildformat wechseln, um höhere Empfindlichkeit oder Auflösung zu erzielen.

Auch wenn die spiegellosen Systemkameras bezüglich der verfügbaren Objektive aufgeholt haben, gibt es zu den etablierten Spiegelreflexkameras ein kaum zu überschauendes Angebot von Zubehör. Dazu ist anzumerken, dass es für spezielle Sparten der Photographie bis etwa zum Ende des letzten Jahrhunderts für die analogen Spiegelreflexkameras noch deutlich mehr Zubehör gibt, so dass es immer wieder Anleitungen gibt, wie man altes Zubehör an neuen Kameras einsetzen kann, um auch Bereiche optimal abzudecken, die heute nicht mehr im Mittelpunkt des kommerziellen Interesses der Hersteller liegen.

Spiegelreflexkameras bieten also meist eine Vielzahl an manuellen Einstellungsmöglichkeiten und eine professionelle (erweiterbare) Ausstattung, oft mit Superweitwinkel- oder Supertelebrennweiten, höherwertigeren Bildsensoren, Blitzgeräten, besseren Objektiven etc.

Will man ihreren kompletten Funktionsumfang ausschöpfen, sind Spiegelreflexkameras meist etwas schwerer zu bedienen als die einfacheren Kameras. Wenn es sich aber nicht gerade um ein Profimodell handelt, weisen sie ähnliche Motivprogramme und Automatismen wie die anderen Kameras auch auf. Wer mag, kann sich also auch hier auf die Automatik verlassen und nur vom optischen Sucher, größerem Bildsensor und reichhaltigerem Zubehör profitieren. Da diese Systeme natürlich für große Sensoren ausgelegt sind, wird die Ausrüstung deutlich schwerer und voluminöser, was beim Transport eine Belastung sein kann, beim eigentlichen Photographieren aber auch zu einer ruhigeren Kamerahaltung führen kann. Sie ermöglichen natürlich höherwertigere Aufnahmen und sind vor allem für kreative und experimentelle Aufnahmen hervorragend. Eine Spiegelreflexkamera ist jedoch auch recht teuer; die untersten Modelle beginnen meist zwischen 300 und 400 Euro, professionelle Spiegelreflexkameras können aber bis weit in den vierstelligen Bereich gehen. Hinzuzurechnen sind dann natürlich noch die nicht unerheblichen Kosten für die hochwertigen Wechselobjektive, leistungsfähige Systemblitzgeräte und sonstiges Zubehör wie etwa ein geeignet stabiles Stativ, welches für das Gewicht einer solchen Kamera mit großem Objektiv ausgelegt ist. Oft übersteigt der Preis für ein einfaches Objektiv oder ein brauchbares Stativ bereits den für eine Kompaktkamera oder Bridge-Kamera.

Mittelformatkameras und Großformatkameras[Bearbeiten]

Mittelformatkamera.

Mittelformatkameras sind Kameras, die ein deutlich größeres Aufnahmeformat als Kompaktkameras besitzen. Die Kantenlänge des Films beziehungsweise Bildsensors beträgt etwa 4 bis 10 cm, was eine höhere Emfpindlichkeit oder Auflösung ermöglicht. Typische Mittelformate in der Analogphotographie sind beispielsweise 6 cm x 6 cm oder 6 cm x 7 cm. Die relativ große Abmessung hat lange Brennweiten zur Folge und damit ein hohes Gewicht. Aus diesem Grund eignen sich Mittelformatkameras besonders, um damit im Studio zu arbeiten oder wenn die Ausrüstung zu einem festgelegten Aufnahmeort transportiert wird. Die komplette Ausrüstung wäre für Wanderungen und lange Fußmärsche wohl auf Dauer etwas schwer.

Mittelformatkameras sind oft Systemkameras (und oft auch Spiegelreflexkameras), ihr Zubehör ist jedoch begrenzt, weil es für die recht teuren Kameras weniger Käufer gibt als etwa für die Spiegelreflexkameras im Kleinbildformat. Allerdings ist es bei einigen Kameras möglich, die Kamerarückwand zu tauschen, um vom Film zum digitalen Bildsensor und zurück zu wechseln. Es ist also nicht unbedingt notwendig, das komplette System zu wechseln. Auch ein Wechsel des Sensors zu höherer Empfindlichkeit oder Auflösung hin ist somit möglich.

Großformatkameras verwenden noch größere Formate, meist 12,5 cm x 10 cm, 25 cm x 20 cm oder einzelne Filmplatten. Die Auflösung sowie die Objektbrennweite sind entsprechend noch größer. Großformatkameras wurden vor allem in den Anfängen der Photographie verwendet.

Spezialkameras[Bearbeiten]

Spezialkameras sind Kameratypen, die meist zu einem ganz bestimmten Zweck verwendet werden oder in einem ganz bestimmten Bereich zum Einsatz kommen. Sie sind im Allgemeinen Spezialformen der oben aufgeführten Kameraarten.

Einige Beispiele sind:

  • Einwegkamera: Kleinbildkamera, die bereits zu Beginn einen Film enthält (meist 27 Bilder) und nur einmal verwendet werden kann. Ist der Film voll, wird die gesamte Kamera dem Labor übergeben. Die Einwegkamera ist sehr preiswert und meist von extrem einfacher Ausstattung (meist feste Brennweite, kaum Möglichkeiten für manuelle Eingriffe, kein Blitz etc.). Sie bietet sich als "Notlösung" an, wenn man beispielsweise seine Kamera vergessen hat (im Urlaub etc.), als Reservekamera (zum Beispiel im Auto) oder für Kinder, denen man möglicherweise kein hochwertiges Gerät zum Photographieren anvertrauen möchte. Mit der Einführung preiswerter Digitalkameras wurde die Einwegkamera weitgehend verdrängt.
  • Sofortbildkamera: Diese Kamera ist mit Photopapier und Chemikalien ausgestattet und erzeugt sofort nach der Aufnahme ein Bild. Die Polaroid-Kamera war die wohl bekannteste Sofortbildkamera. Ihr Vorteil, dass man sofort ein Abbild erhält (wenn auch nur in geringer Qualität) rückte mit dem Aufstieg der Digitalphotographie allmählich in den Schatten.
  • Unterwasserkamera: Spezielle Kamera, um Unterwasseraufnahmen tätigen zu können. Es gibt auch für etliche Kameras Unterwassergehäuse zu kaufen, so dass diese dann als Unterwasserkamera verwendet werden können.
  • Minikameras: Kameras minimaler Abmessung, meist für Spionage- und Geheimdienstzwecke verwendet.
  • Stereokameras: Kameras zum Aufnehmen von 3D-Bildern beziehungsweise Bildern mit 3D-Effekt.
  • Panorama-Kameras Diese Art von Kameras bietet einen sehr breiten Bildwinkel (zum Beispiel 120° oder mehr), um Panoramaaufnahmen anfertigen zu können. Manche Panorama-Kameras besitzen auch einen rotierenden Kopf, der 360°-Aufnahmen ermöglicht.
  • Spezialversionen ohne Schutzfilter für die Astrophotographie - oft möchte der Photograph da gerne selbst bestimmen, in welchen Wellenlängenbereich seine Kamera empfindlich ist. Eingebaute Infrafot- oder UV-Filter sind da eher unerwünscht, teils auch die Möglichkeit der Farbaufnahmen, weil das Empfindlichkeit kostet.
  • Spezialkameras für Infrarotaufnahmen - weil die üblichen Sensoren an sich auch im Infrarotbereich empfindlich sind, reicht es da oft beim Bildsensor andere Filter einzubauen.


Daneben gibt es noch eine Reihe von Geräten, die nicht primär zum Photographieren hergestellt werden, jedoch oft eine Photofunktion besitzen:

  • Mobiltelephon: Diese enthalten heute oft eine Kamerafunktion, meist jedoch mit geringer Auflösung, fester Brennweite und sehr wenig Einstellungsmöglichkeiten. Sie sind für Schnappschüsse und Alltagsaufnahmen konzipiert. Wenige bieten unterdessen auch höhere Auflösungen und eine für Alltagszwecke recht gute Qualität.
  • Webcam im Notebook: Die meisten Notebooks haben heute solch eine Kamera eingebaut, neben Videos mit bescheidener Auflösung lassen sich dabei auch Aufnahmen mit bescheidener Auflösung machen. Teilweise wird bei Bildern sogar der Monitor des Rechners gezielt als Lichtquelle für die Aufnahme auf maximale Helligkeit gestellt. Durch den direkten Anschluß an den Rechner lassen sich solche Bilder jedenfalls praktisch in Echtzeit verbreiten.
  • Digitale Camcorder: Digitale Camcorder dienen eigentlichen zum Erstellen von Videos, sie ermöglichen aber auch das Aufnehmen einzelner Photos. Die Qualität der Photos ist dabei deutlich besser als beim Mobiltelephon, ein Problem ist jedoch, dass auch Camcorder oft nur niedrige bis mittleren Pixelzahlen und kleine Sensoren verwenden (ca. 1 bis 4 MP).
  • Digitale Mikroskope Je nach Modell bieten diese die Möglichkeit mit einem allerdings recht kleinen Sensor recht kleine Objekte aufzunehmen. Mit einigen lassen sich daneben aber auch 'normale Aufnahmen' von weiter entfernten Motiven machen.

Kameras bewerten[Bearbeiten]

Wahl der Kamera[Bearbeiten]

Wer sich eine Kamera zulegen möchte, muss zunächst wissen, welche Erwartungen an die Kamera gestellt werden, das heißt wofür die Kamera letztlich verwendet werden soll. Für Schnappschüsse und einfache Aufnehmen sind die Einstiegsmodelle der Kompaktkameras vermutlich bereits eine brauchbare Lösung. Die Anschaffungskosten sind gering, die Bedienung einfach, die Qualität meist ausreichend, insbesondere wenn die Bilder ohnehin nur selten oder gar nicht wieder angesehen werden. Wer Photographie kreativ erleben möchte oder das in diesem Buch vermittelte theoretische Wissen praktisch ausprobieren möchte, kann als Einstieg eine Kompakt- beziehungsweise Bridge-Kamera wählen, die mehr manuelle Einstellungsmöglichkeiten besitzt. Kompaktkameras der mittleren und höheren Preisklasse bieten dies oft; viele ermöglichen sogar 10-fach oder 12-fach Zoom und sind damit bereits für viele Zwecke gut einsetzbar und sind vom Gewicht her auch noch nebenbei tragbar.
Statistisch gesehen, werden die meisten guten Fotos derzeit mit digitalen Spiegelreflexkameras (DSLR) gemacht. Sie bieten die beste technische Bildqualität im Verhältnis zum Preis. Siehe auch in Anhang: Hinweise zum Kauf einer ersten Kamera

Parameter[Bearbeiten]

Die folgende Tabelle gibt einen groben Überblick über die Bewertungsparameter einer Kompaktkamera in den unterschiedlichen Preisklassen. Alle Angaben sind lediglich Richtwerte, da die einzelnen Modelle in den einzelnen Preisklassen doch sehr unterschiedlich sind.

Merkmal Ziel aus Sicht des Anwenders Untere Preisklasse Mittlere Preisklasse Höhere Preisklasse / Bridge-Kameras
Anschaffungskosten So preiswert wie möglich. 40 bis 100 Euro 100 bis 200 Euro Über 200 Euro
Auflösung So hoch wie möglich. 4 bis 12 MP, manchmal auch bis 24 MP 12 bis 24 MP 16 bis 50 MP
Pixelgröße So groß wie möglich. ~2 Mikrometer ~2 Mikrometer 2-4 Mikrometer
Sensorgröße So groß wie möglich. 1/3.2" 2/3" 2/3", Four Thirds, Foveon (s.o.)
Abmessung So klein wie möglich. Sehr klein Sehr klein bis klein Klein bis mittel
Displaygröße So groß wie möglich. Klein bis mittel (manchmal auch groß) Mittel bis groß
Optischer Zoom So groß wie möglich.° Meist 3-fach, manchmal 4-fach 3-fach bis 5-fach, vereinzelt höher 3-fach bis 14-fach; oft 8-fach oder höher
Niedrigste Brennweite°° So niedrig wie möglich meist 32 bis 38 mm meist 28 bis 38 mm meist 24 bis 35 mm
Größte Brennweite°° So groß wie möglich ~100 mm ~200 mm ~300 mm
Maximale Belichtungsdauer: So lang wie möglich Meist 1 bis 2 Sekunden Meist zwischen 2 und 30 Sekunden, stark modellabhängig
Blendenbereich: So groß wie möglich. Meist zwischen 2.8 und 5.6, manchmal bis 8.0
Manuelle Einstellungsmöglichkeiten Unterschiedlich Sehr wenig; Blitz, Format, Auflösung, Fokus, eventuell Filter Wenig bis viel: Blitz, Format, Auflösung, Filter, Belichtung, Blende, ISO-Wert, Belichtungskorrektur, Fokus, Belichtungsmessung etc.
Verfügbares Zubehör: So viel wie möglich. Stativ, Trageriemen, Speicherkarte etc., sonst aber meist kein Zubehör Stativ, Trageriemen, Speicherkarte etc., manchmal zusätzliches Blitzgerät, Unterwassergehäuse

° Ein großer Zoombereich verringert allerdings meist die Abbildungsqualität des Objektivs
°° Jeweils das 'Äquivalent' zum Kleinbildformat

Aufgrund der Wechseloptik und der deutlich größeren Sensoren lassen sich diese einfacheren Kompaktkameras kaum mit Systemkameras oder Spiegelreflexkameras vergleichen. Prinzipiell muß man sich bei diesen dann endgültig die Frage stellen, ob man bereit ist, mit umfangreicherem Zubehör durch die Gegend zu ziehen und dann auch in größerem Umfange zu investieren, um tiefer in die Photographie einsteigen zu können. So oder so bringt es dem kompletten Anfänger meist schon einmal allerhand, erstmal mit einer Kompaktkamera oder einer Bridge-Kamera zu relativ geringen Kosten die ersten Erfahrungen zu sammeln. Dann wird meist schnell deutlich, ob die Anschaffung einer umfangreicheren Ausrüstung lohnt, welche Motive man bevorzugt und welche Ausrüstung dafür gut geeignet ist. Und selbst wenn man sich dann später eine ganze Ausrüstung zulegt, so wird es doch immer wieder Situationen geben, wo man nicht mit einem schweren Photorucksack und teurer Ausrüstung durch die Gegend ziehen mag oder einfach unauffällig mit kleiner Kamera agieren will - und da ist es dann gut, wenn man noch eine kleine, günstige Kamera in Reserve hat.

Ein sinnvolles Kriterium zur Abschätzung der passenden Ausrüstung kann auch sein, wieviel Aufnahmen man pro Jahr zu machen gedenkt - oder in den vergangenen Jahren vielleicht bereits gemacht hat. Wenn man einige Jahre braucht, um die Kosten pro Bild unter einen Euro zu bringen, hat man vermutlich eine zu teure Ausrüstung angeschafft.

Kamerazubehör[Bearbeiten]

Grundlagen[Bearbeiten]

Für jede Kamera gibt es eine bestimmte Menge an Zubehör, das separat erworben werden kann; ein Teil des verfügbaren Zubehörs ist manchmal auch bereits im Lieferumfang enthalten. In diesem Abschnitt sollen einige Zubehörteile vorgestellt werden. Standard-Zubehör wie Stativ, Tasche und Speicherkarte können zu jeder Kamera erworben werden. Spezielles Zubehör gibt es hingegen nur für Kameras der mittleren und höheren Preisklasse.


Einfaches Zubehör[Bearbeiten]

Da Digitalkameras einen sehr hohen Energieverbrauch haben, bietet es sich meist an, einen Ersatzakku zu kaufen und diesen auf Phototouren mitzunehmen. Auf Reisen sollte man dabei auf keinen Fall das entsprechende Ladegerät vergessen, da ein kameraspezifisches Ladegerät auf Reisen wohl nur schwer oder gar nicht aufzutreiben sein wird.

Insbesondere für Spiegelreflexkameras gibt es auch sogenannte Batteriegriffe, die an die Kamera montiert werden und welche es dann erlauben, zusätzliches Akkus oder Batterien zur Energieversorgung zu verwenden. Damit erübrigt sich dann oft der Wechsel des Akkus auch bei langen und intensiven Photositzungen. Daneben bieten die Batteriegriffe - daher der Name - auch noch einen verbesserten Griffkomfort besonders für Hochformataufnahmen und zumeist dafür auch noch einen gesonderten Auslöser an diesem Griff.

Obwohl die heutigen Speicherkarten eine relativ hohe Kapazität besitzen, kann es bei intensiven Phototouren auch sinnvoll sein, eine zweite Karte (Ersatzkarte) mitzunehmen. Für Reisen gibt es zudem mobile Festplatten, die oft speziell für Photographen ausgelegt sind ("Image Tanks"). Diese bieten meist mehrere 100 GB Speicher. Alternativ gibt es auch mobile DVD-Brenner, so dass Photos unterwegs auf DVD gebrannt werden können – dies ist jedoch entsprechend aufwendiger bei gleichzeitig geringerer Kapazität. Wer einen MP3-Player mit ausreichender Kapazität besitzt, kann auch diesen als vorübergehenden Speicher verwenden.

Ebenso bietet es sich auf Reisen an, ein A/V-Kabel mitzunehmen, um die Photos auf einem Fernseher betrachten zu können. Wer ohnehin einen Laptop mitnimmt, kann mit dem USB-Kabel die Photos direkt auf den Rechner übertragen und die Photos noch vor der Heimreise bearbeiten und archivieren.

Im Fachhandel werden auch Kartenleser angeboten, welche die Daten direkt von der Speicherkarte auslesen und an einen Computer übertragen. Einige Computer besitzen auch integrierte Kartenleser (meist nur für SD-Karten) – das Übertragen der Photos mittels USB-Kabel ist aber kaum komplizierter, es kann allerdings bedingt durch Kommunikationsprobleme der Kamera mit dem Rechner je nach verwendetem Protokoll, Betriebssystem und Programm zu Problemen kommen, weswegen die relativ preisgünstigen Kartenleser oft die bessere Wahl sind. Es sollte nur darauf geachtet werden, dass der Typ des Anschlusses zu dem des Rechners paßt, um eine maximale Datenrate zu ermöglichen.


Objektive[Bearbeiten]

Objektive für verschiedene Brennweiten[Bearbeiten]

Vor allem Spiegelreflexkameras, Systemkameras und Mittelformatkameras bieten verschiedene Wechselobjektive, das heißt man kann das Objektiv herausschrauben und durch ein anderes Objektiv ersetzen. Es gibt Objektive mit verschiedenen Brennweiten, also (Super-) Weitwinkelobjektive, Normalobjektive und (Super-) Telewinkelobjektive. Diese kann es auch mit verschiedenen Lichtstärken geben und in verschiedener Ausführungsqualität. Daneben kann es auch Objektive für Spezialanwendungen geben.

Fischaugen und Superweitwinkel[Bearbeiten]

Ein mit Fischaugen-Objektiv aufgenommener Platz - Die für diesen Objektivtyp typischen Abbildungseigenschaften sind besonders an den Rändern deutlich zu erkennen.

Das Fischaugen-Objektiv ist ein Spezialobjektiv. Es besitzt oft eine Brennweite noch unterhalb eines Super-Weitwinkelobjektivs, meist 8 mm bis 15 mm. Mit einem Fischaugen-Objektiv können Bildwinkel bis etwa 180° aufgenommen werden.

Da bei Superweitwinkelobjektiven und mehr noch bei Fischaugenobjektiven ein sehr großer Bildwinkel auf dem fest eingebauten, ebenen Bildsensor abgebildet werden sollen, ergeben sich durch diese extreme Art der Abbildung immer Abbildungseigenschaften, die deutlich von unseren normalen Sehgewohnheiten abweichen. Bei einem Fischaugenobjektiv besteht offenbar gar die Aufgabe darin, eine Schärfeebene unendlicher Ausdehnung auf einen ebenen Bildsensor abzubilden, welcher endlich weit vom Objektiv entfernt ist. Auch bei Superweitwinkelobjektiven muß der aufgenommene Bildwinkel extrem gestaucht werden, damit er auf den Bildsensor abgebildet werden kann.

Für die beiden Typen von Objektiven werden jedenfalls jeweils andere Abbildungsverfahren umgesetzt, um diesen Anforderungen gerecht zu werden. Beim Fischaugenobjektiv wird versucht, möglichst flächentreu abzubilden. Objekte mit gleichgroßer Fläche im gleichen Abstand aber unter anderem Blickwinkel sollen also auch möglichst gleichgroß abgebildet werden. Das führt dann zu dem charakteristischen Effekt, dass gerade Linien des Motivs zumeist auf Bögen abgebildet werden. Die Abbildung wirkt also gekrümmt. Beim Superweitwinkel wird hingegen versucht die Abbildung so umzusetzen, dass parallele Linien, die in der Schärfebene oder einer Ebene parallel dazu verlaufen, auch als parallele Linien abgebildet werden. Das führt dann meist zu dem Effekt, dass Objekte am Bildrand breiter (oder höher) dargestellt werden als in der Mitte des Bildes. Zum Beispiel Personen am Bildrand werden mit falschen Aspektverhältnis dargestellt, also fetter oder schlanker als man sie mit eigenen Augen sieht.

Je nach Objektivkonstruktion kann sich auch eine Mischung aus beiden Abbildungsarten ergeben, wo dann versucht wird, beide Effekte zu reduzieren, wobei man dann zwangsläufig wieder etwas vom Effekt des anderen Konstruktionstyps zu sehen bekommt.

Es gibt Fischaugen-Objektive, die lediglich über die Bildiagonale einen Bildwinkel von 180° aufweisen, diese werden Vollformat-Fischaugen-Objektive genannt. Für das Kleinbildformat haben diese eine Brennweite von etwa 15mm. Der andere Typ bildet in jeder Richtung einen Bildwinkel von 180° ab, es wird also ein kreisrundes Bild erzeugt. Der Rest des Bildes bleibt dann schwarz und unbelichtet.

Es gibt auch Sonderbauformen, etwa von Nikon, die einen Bildwinkel von deutlich über 180° aufweisen. Von Canon gibt es ein Fischaugen-Zoomobjektiv. Im Kleinbildformat läßt sich damit stufenlos vom Vollformat zum runden Bild zoomen, bei den kleineren Bildsensoren läßt sich zumindest die passende Brennweite für das Vollformat auswählen.

Spezielle Objektive[Bearbeiten]

Nicht alle Zusatzobjektive haben das Ziel, eine spezielle Brennweite zu bieten. Lichtstarke Objektive sind beispielsweise Objektive, die einen sehr kleinen Blendenwert haben (zum Beispiel 1,2 oder 1,4 beim Normalobjektiv). Sie ermöglichen damit Aufnahmen in der Dämmerung, ohne dass ein Stativ benötigt wird. Zudem ermöglichen sie bei normalen Lichtverhältnissen extrem kurze Verschlusszeiten, so dass Bewegungen aller Art eingefroren werden können. Aufgrund der kleinen Blendenwerte ermöglichen sie zudem, mit selektiver Schärfe zu arbeiten. Es ist konstruktiv allerdings sehr schwierig, Objektive mit Lichtstärken wie 1,0 oder 1,2 zu realisieren, die bei offener Blende eine hohe Auflösung bieten.

Shift-Objektive ermöglichen es, einen verschobenen Bildausschnitt aufzunehmen. Es kommt oft vor, dass man ein Gebäude trotz Weitwinkel zunächst nicht vollständig abbilden kann und dann üblicherweise die Kamera nach oben richtet, bis es vollständig auf dem Bild erscheint. Dabei entsteht eine perspektivische Verzerrung, die sich vor allem in stürzenden Linien äußert. Beim Shift-Objektiv läßt sich die vordere Linsengruppen auf- oder abwärts verschieben. Dies ermöglicht es, ein solches Gebäude "normal" abzubilden, ohne dass stürzende Linien auftreten.

Tilt-Objektive ermöglichen es mit Schärfebenen zu arbeiten, die nicht parallel zum Bildsensor liegen. Dazu wird die vordere Linsengruppen gegenüber der Achse zum Bildsensor verkippt. Flächige Motive, die schräg zur Aufnahmerichtung angeordnet sind, lassen sich so durchgehend scharf abbilden, im Bedarfsfalle auch bei offener Blende. Verkippt man in die andere Richtung, läßt sich umgedreht auch ein Effekt ähnlich dem der selektiven Schärfe erreichen.

Meist werden beide Funktionalitäten Tilt und Shift im selben Objektiv angeboten. Besonders für Mittelformatkameras wird dies manchmal auch mit Balgengeräten erreicht, wo sich Objektiv und Kamera dann unabhängig voneinander verschwenken und verschieben lassen. Der Auszug des Balgengerätes bestimmt dann die Fokussierung.

Makroobjektive ermöglichen es, Objekte aus nächster Nähe scharf abzubilden. Sie bieten damit meist einen Abbildungsmaßstab von 1:1 (dazu später mehr). Eine Extremform ist das Lupenobjektiv mit extrem großem Auszug, welches noch stärkere Vergrößerungen ermöglicht.

Spezielles Objektivzubehör[Bearbeiten]

Konverter[Bearbeiten]

Ein Weitwinkelkonverter ist eine Art Objektiv, das auf ein vorhandenes Objektiv gesteckt wird. Es ermöglicht niedrigere Brennweiten. Ein Faktor gibt dabei an, um das wieviel-fache die Brennweite reduziert wird. Ein 0,5-Weitwinkelkonverter, der auf ein 28-mm-Objektiv gesetzt wird, erzeugt demnach eine Brennweite von 14 mm. Entsprechend gibt es auch Telekonverter, welche die Brennweite verlängern. Hier würde ein Faktor 2 bedeuten, dass ein Objektiv mit 35 bis 140 mm Brennweite in ein Objektiv mit 70 bis 280 mm Brennweite überführt wird. Die Qualität der Bilder mit solchen Konvertern ist natürlich begrenzt. Daher sind die Weitwinkelkonverter eher keine Option für Systeme mit wechselbaren Objektiven, zumal der Konverter immer für das jeweilige Objektiv optimiert werden muß, um brauchbare Ergebnisse zu liefern. Anbieter von Bridgekameras bieten gelegentlich solche Konverter für spezifische Kameras an.

Telekonverter gibt es hingegen auch für Systeme mit wechselbaren Objektiven. Die Qualität der Bilder ist natürlich auch hier von Anbieter zu Anbieter verschieden und muß nicht zwangsläufig vom Anbieter des Objektivs optimal sein, wenn der Konverter nicht spezielle auf ein ganz bestimmtes Objektiv zugeschnitten ist. Generell ist jedenfalls mit dem Einsatz solcher Konverter immer eine Qualitätseinbuße zu verzeichnen. Weil die Konverter aber relativ klein und preisgünstig sind, werden sie gerne verwendet, wenn man nur gelegentlich eine sehr lange Brennweite braucht. Die effektive Lichtstärke wird dabei proportional zum Verlängerungsfaktor des Telekonverters vergrößert, was Einfluß auf die Funktion des Autofokus haben kann.

Makrozubehör[Bearbeiten]

Alternativ zu Makroobjekiven gibt es auch Nahlinsen, die wie eine Art Lupe auf das Objektiv geschraubt werden, sowie Zwischenringe oder Balgengeräte, welche zwischen Objektiv und Kameragehäuse eingefügt werden; alle Varianten ermöglichen ebenfalls eine stärkere Vergrößerung als sie der Auszug des Objektives alleine anbietet.

Die Nahlinse ist dabei passend zum Objektiv zu wählen, sowohl hinsichtlich des Durchmessers als auch der Brennweite. Brauchbar sind hier meist Achromate, da einfache Einzellinsen meist zu deutlichen Farbfehlern führen. Die Nahlinse als Optik weist immer eigene Linsenfehler auf, beeinflußt/verschlechtert daher eher die Abbildungsqualität. Von daher ist ein Makroobjektiv also hinsichtlich der Qualität sicherlich die bessere Wahl, weswegen Nahlinsen eher einen Einstieg in die Makrophotographie ermöglichen oder aber bei Kompaktkameras sinnvoll sind, bei denen man das Objektiv nicht wechseln kann.

Zwischenringe hingegen verlängern nur den Auszug, weisen also keine eigenen Linsenfehler auf und beeinflussen die Abbildungsqualität nicht direkt. Daher hält sich hartnäckig das Gerücht, dass das Bildergebnis hier nur von der Auszugsverlängerung des jeweiligen Zwischenringes abhänge, nicht aber etwa von der Verarbeitung des Produktes. Allerdings, wenn der Anschluß klapprig ist, stimmt die optische Achse nicht mehr exakt. Mehr Einfluß kann aber noch haben, wenn im Zwischenring Streulicht durch Reflexion entsteht und auf den Sensor fällt. Dies ist stark von der Verarbeitung des Produktes abhängig und solches Streulicht kann Aufnahmen komplett unbrauchbar machen, kann also großen Einfluß auf das Bildergebnis haben. Erfahrene Hersteller werden also auf ausreichend große Innendurchmesser und Streulichtfallen und eine stabile Ausführung setzen, um qualitativ brauchbare Zwischenringe anbieten zu können. Entsprechend volumniös und mit Streulichtfallen ausgestattet sind auch gute Balgengeräte, wo es auch wiederum Modelle gibt, bei welchen man die optische Achse gezielt verkippen kann, um spezielle Effekte zu erzielen. Allerdings sind die Balgen empfindlicher gegenüber mechanischer Beanspruchung und sind aufgrund der Größe und Handhabung kaum ohne Stativ einzusetzen.

Ein weiterer Ansatz wird verfolgt mit sogenannten Umkehrringen. Bei Objektiven 'normaler' Bauform - wozu im Allgemeinen nicht die Bauform von Superweitwinkelobjektiven gehört - kann es für Makroaufnahmen sinnvoll sein, das Objektiv herumzudrehen, insbesondere wenn der Abstand zwischen Motiv und Objektiv kleiner wird als der zwischen Objektiv und Sensor, weil dann die Abbildungsleistung des Objektivs für solche Nahaufnahmen steigt. Aufgrund des kleinen Abstandes zum Motiv ergibt sich dann meist auch ein großer Abbildungsmaßstab. Bei Makroobjektiven oder Lupenobjektiven ist dieses Vorgehen nicht sinnvoll, weil diese bereits für den Nahbereich optimiert sind. Um geeignete Objektive jedenfalls verkehrt herum an die Kamera zu montieren, werden die Umkehrringe benötigt. In der einfachen Variante wird ein Adapter benötigt, welcher auf der einen Seite an die Kamera anzuschließen ist und auf der anderen an das Filtergewinde des Objektivs. Sämtliche Anschlüsse des Objektivs gucken dann also zum Motiv, folglich sind alle Einstellungen manuell vorzunehmen. In einer komfortableren Variante wird ein weiterer Adapter auf diese Anschlußseite gesetzt und mit dem Adapter an der Kamera verbunden, so daß das Objektiv wieder komplett an die Kamera angeschlossen ist und eine Automatik verwendet werden kann. Probleme bei diesem Ansatz liegen darin, daß es leicht zu Abschattungen des Motivs durch das Objektiv kommen kann und diese Seite des Objektivs samt der Anschlüsse nicht darauf ausgelegt ist, auf der Motivseite den normalen Umwelteinflüssen ausgesetzt zu sein. Daher ist dieser Ansatz eher als kostengünstiger Einstieg in den Bereich starker Vergrößerungen zu verstehen. Der Einsatz von speziellen Lupenobjektiven ist meist unproblematischer und vermeidet die genannten Probleme.

Masken[Bearbeiten]

Masken sind Objektivaufsätze, die dafür sorgen, dass das Bild nicht mehr rechteckig erscheint, sondern eine bestimmte Form annimmt (zum Beispiel Herz, Kreis, Schlüssel etc.). Der Rest des Bildes ist dann schwarz. Solche Maskeneffekte lassen sich aber auch mit einigen digitalen Bildbearbeitungsprogrammen erzeugen oder mit etwas Geschick auch selber basteln.

Filter[Bearbeiten]

Filter sind spezielle Objektivaufsätze, die einen bestimmten künstlerischen Effekt erzielen oder die einfach unerwünschte Wellenlängen aus dem Licht filtern. Solche Filter lassen sich ebenfalls oft mit Bildbearbeitungsprogrammen im Nachhinein erzeugen, jedoch nicht ausnahmslos. Manche Filter erzeugen einen bemerkenswert künstlerischen Eindruck, andere sorgen hingegen nur für subtile Veränderungen. Wird ein Photo mit Filter aufgenommen, so muss die Belichtungszeit stets erhöht werden, da jeder Filter zur Folge hat, dass weniger Licht ins Objektiv fällt.

Langzeitbelichtung ist manchmal notwendig, um Bewegung auszudrücken. Um Wasserfälle zu photographieren, werden meist Belichtungszeiten zwischen 1/8 und 1/30 Sekunde verwendet, bei Tageslicht würde damit das Bild jedoch stark überbelichtet werden. Der Graufilter schafft hier Abhilfe.

Bekannte Filter sind:

  • Graufilter (ND-Filter): Ein einfacher Filter, der die einfallende Lichtmenge reduziert. Dieser wird verwendet, wenn man aus bestimmten Gründen eine längere Belichtungsdauer anstrebt (zum Beispiel um Bewegung festzuhalten oder um bei Blitzlichtaufnahmen das normale Tageslicht weniger zu gewichten). Das Verwenden einer großen Blendenzahl und niedrigen Lichtempfindlichkeit (ISO) ist manchmal eine gewisse Alternative, falls man keinen Graufilter zur Hand hat – an zu hellen Tagen wird man in verschiedenen Situationen an einem solchen Filter jedoch nicht vorbeikommen. Der ND-Filter wird meist über einen Verlängerungsfaktor X charakterisiert. Dieser gibt im Verhältnis 1/X an, wie viel Licht der Filter noch durchlässt beziehungsweise um wie viele Belichtungsschritte X das Bild abgedunkelt wird. ND-8 bedeutet damit, dass der Filter nur noch 1/8 der Lichtmenge (12,5 %) durchlässt und das Bild für eine korrekte Belichtung jetzt 8 mal länger belichtet werden muss (z.B. 1/25 Sekunde statt 1/200 Sekunde). Analog heißt dies, dass das Bild um 3 Blendenschritte (3 Blendenschritte sind 2^3 = 8 Belichtungsschritte) abgedunkelt wird.
  • Polarisationsfilter (Polfilter): Filter, der Reflexionen auf glatten Oberflächen, Fensterscheiben, Wasser etc. eliminiert oder reduziert. Auch ist es damit möglich einen wolkenlosen Himmel (z.B. bei Landschaftsaufnahmen) dunkler und somit blauer erscheinen zu lassen. Bei einfallendem unpolarisiertem wird folglich zudem die Lichtmenge auf die Hälfte reduziert, bei polarisiertem Licht je nach Polarisation zwischen 0 und 100%. Daher läßt sich der Polarisationsfilter so relativ zum Objektiv drehen, dass nur die gewünschte Polarisationsrichtung durchgelassen wird.
  • Sternfilter: Filter, der punktförmige Lichtquellen in einem Bild in Sterne verwandelt. Dieser bietet sich vor allem für kreative Nachtaufnahmen in Städten an.
  • UV-Sperrfilter (Dunstfilter): Verhindert einen zu starken Blaustich in Gebirgen oder in der Küstengegend indem er das UV-Licht reduziert. Auch bei Blüten von Pflanzen kann der Filter oder das Fehlen desselben verblüffende Effekte haben. Digitale Kameras benötigen keinen UV-Sperrfilter.
  • IR-Sperrfilter: Entsprechend dem UV-Filter wird hier der infrarote Anteil des Lichtes reduziert. Umgedreht gibt es auch Filter, die nur infrarotes Licht durchlassen und sichtbares Licht sperren. Je nachdem, welche Filter bereits in der Kamera vor dem Bildsensor sind, können sich unterschiedliche Effekte ergeben. Hat die Kamera selbst keinen IR-Sperrfilter eingebaut, kann man mit dem Bildsensor auch Infrarotaufnahmen machen, wenn man das sichtbare Licht sperrt, umgedreht sorgt der IR-Sperrfilter dafür, dass der Bildsensor nicht heiße oder warme Objekte als auffällig rot aufnimmt.
  • Verlaufsfilter (Gradiationsfilter): Filter, der zur Hälfte eingefärbt ist. Die andere Hälfte ist durchsichtig und erzielt keinen Effekt. Verlaufsfilter werden v.a. in der Landschaftsfotografie verwendet, um den Bereich unter dem Horizont oder über dem Horizont eine andere Färbung bzw. Helligkeit zu verleihen.


Beim Kauf eines Filters muss man zunächst überprüfen, ob die eigene Kamera überhaupt ein Filtergewinde besitzt (das heißt ob die Möglichkeit zum Anschrauben oder Aufstecken von Filtern gegeben ist). Ferner muß der Objektivdurchmesser beziehungsweise der Filtergewindedurchmesser des Objektivs bekannt sein. Dieser steht meist im Handbuch oder auf dem Objektiv (zum Beispiel 58 mm). Es können dann nur Filter verwendet werden, welche diesen Objektivdurchmesser besitzen. Da Filter oft recht teuer sind, sollte man auch genau überlegen, welche Filter man wirklich verwenden möchte beziehungsweise für sinnvoll erachtet -- jeder Filter bringt auf irgendeine Weise einen bestimmten Vorteil, doch in den meisten Fällen kommt man auch problemlos ohne Filter aus und kann mit der digitalen Bildbearbeitung die Effekte einiger Filter auch im Nachhinein simulieren. Größere Filter kann man auch problemlos mittels günstiger Adapter auf Objektive mit kleinerem Durchmesser schrauben, umgedreht kommt es schnell zu einer Randabdunklung des Bildes durch die Filterfassung. Für Weitwinkelobjektive gibt es zudem spezielle Filter mit einer Fassung sehr geringer Bauhöhe, um ebenfalls Abschattungen zu vermeiden. Bei speziellen Objektiven mag es auch Steckfilter geben oder Folienfilterhalter, dann wird der Filter im Stahlengang untergebracht und nicht vor das Objektiv geschraubt.

Sonstiges Zubehör[Bearbeiten]

Für einige Kameras werden auch zusätzliche Blitzgeräte angeboten, die flexibler und vor allem leistungsstärker als die in den Kameras standardmäßig eingebauten Blitzgeräte sind. Werden für eine Kamera keine zusätzlichen Blitzgeräte angeboten, so gibt es auch externe Blitzgeräte auf dem Markt, die mit dem eingebauten Blitz der Kamera auslösen.

Fernauslöser werden zu einigen Kameras angeboten, um das Auslösen von einem anderen Standort zu ermöglichen. Es gibt sie als Drahtauslöser (hier besteht eine direkte Verbindung zur Kamera und per Knopfdruck wird der Auslöser an der Kamera betätigt), elektronische Auslöser per Kabel, Infrarotauslöser und Funkauslöser. Mechanische Drahauslöser kommen oft bei mechanischen, analogen Kameras zum Einsatz. Elektronische Auslöser werden verwendet bei Kameras, die einen Mikroprozessor haben, um das Auslösesignal zu verarbeiten. Infrarotauslöser reagieren auf ein Infrarotsignal und Funkauslöser auf Funksignale. Aufgrund der deutlich unterschiedlichen Wellenlängen der Signale funktionieren Funksignale meist über größere Distanzen und um Ecken herum.

Der Fernauslöser ermöglicht mehr Freiraum als der Selbstauslöser – der Photograph kann in einem unbeobachteten Moment gezielt auslösen und besitzt damit eine bessere Möglichkeit, authentische beziehungsweise ungestellte Aufnahmen zu machen. Auch bei Tieraufnahmen ergibt sich die Möglichkeit, sich unabhängig vom Standort der Kamera zu positionieren, um die aufzunehmenden Tiere nicht durch die eigene Anwesenheit zu beunruhigen.

Für Kameramonitore gibt es im Fachhandel Bildschirmblenden zu kaufen, welche den Bildschirm bei starkem Sonnenlicht abdunkeln, so dass es besser gesehen werden kann. Die Bildqualität des Displays hat sich in den letzten Jahren jedoch enorm verbessert, so dass man meist auch ohne zusätzliche Bildschirmblenden auskommen wird.

Vergleich zweier Aufnahmen bei Sonnenlicht - ohne Streulichtblende (oben) und mit Streulichtblende (unten)

Ein weiterhin bekanntes Zubehör ist die Streulichtblende (auch: Gegenlichtblende, Sonnenblende), die vor allem bei größeren Objektiven große Bedeutung hat und manchmal auch bereits im Lieferumfang des Objektivs enthalten ist. Form und Größe der Streulichtblende hängen vom Objektivdurchmesser und der Brennweite ab. Ungeeignete Streulichtblenden reduzieren entweder das Streulicht nicht optimal oder führen zu einer Randabschattung des Bildes. Die Streulichtblende erinnert auf den ersten Blick an einen Filter, die Öffnung ist aber vollständig frei, so dass sie nicht zu den Filtern gerechnet wird (obgleich sie ähnlich einem Filter auf das Objektiv gesteckt wird). Ihr Einsatz ist vor allem bei Sonnenlicht empfohlen, wo bei größeren Objektiven Seitenlicht auf den Film oder Bildsensor fallen kann, was dann zu unschönen farblichen Kreisen oder Ringen führt und das Bild zudem matter und weniger kontrastreich erscheinen lassen kann. Der oft verwendete Begriff "Gegenlichtblende" ist aus photographischer Sicht irreführend, da die Streulichtblende Artefakte durch Seitenlicht verhindert - bei direkten Gegenlichtaufnahmen (zum Beispiel Sonnenuntergängen) hat sie nicht die gewünschte Wirkung. Zudem bietet sie keinen Schutz für Lichtreflexe, die durch Leuchtquellen innerhalb des aufgenommenen Bildes entstehen.

Tulpenförmige Streulichtblende.

Bei Streulichtblenden spielt die Länge eine wichtige Rolle. Je kleiner die Brennweite ist, umso kürzer muss die Streulichtblende sein, um eine Abschattung (Vignettierung) zu verhindern. Hierbei würde sonst das Bild zu den Rändern hin dunkler werden, da die zu lange Streulichtblende gewissermaßen Schatten auf den Rand des Bildes werfen würde. Für größere Brennweiten sind längere Streulichtblenden erforderlich, um effektiv vor den Lichteffekten zu schützen. Um eine Vignettierung grundsätzlich zu vermeiden, sind Streulichtblenden für Zoomobjekte somit immer für die kleinste Brennweite ausgelegt. Bei größeren Brennweiten ist ihr Schutz möglicherweise nicht mehr optimal, dafür wird sie jedoch keine Abschattung erzeugen.

Das Fotografieren[Bearbeiten]

Einleitung[Bearbeiten]

In diesem Abschnitt werden die Grundlagen des Photographierens vermittelt, das heißt die Methoden zum Aufnehmen von Photos. Dazu zählen vor allem Wahl der Brennweite, Belichtung, Fokussierung, Schärfentiefe und gegebenenfalls die Beleuchtung des Motivs. An dieser Stelle ist also das Motiv bereits ausgewählt und der Photograph hat die Aufgabe, es optimal abzulichten. Hierzu stehen verschiedene Mittel zur Verfügung, deren Kenntnis und Handhabung maßgeblich zur Qualität des Resultats beitragen - sie werden allesamt in den nachfolgenden Unterabschnitten erläutert.

Dieser Prozess des Photographierens kann unterschiedlich lange dauern. Bei Schnappschüssen wird er noch nicht einmal eine Sekunde betragen - die Kameraautomatik berechnet in Windeseile die entsprechenden Belichtungs- und Schärfeeinstellungen und erzeugt das Photo. Für anspruchsvolle Motive und Szenen ist es aber oft sinnvoll, mehr Zeit (oft mehrere Minuten) in das manuelle Vornehmen der Einstellungen zu investieren, um ein bestmögliches Resultat zu bewirken. Der Monitor der Digitalkamera ist dabei stets eine große Hilfe, da es in Echtzeit anzeigt, wie das Photo am Ende aufgenommen werden wird. Bei großeren Projekten kann sich der Prozess hingegen über Stunden und viele Aufnahmen hinziehen, besonders wenn die Beleuchtung selbst eingestellt wird und sich das Motiv verändert oder in Szene gesetzt wird, etwa bei Portraits. Bei vielen Motiven wird es zudem nicht ein optimales Bild als Resultat geben, sondern ganze Reihe von Bildern mit verschiedenen Ansichten, Ausschnitten, Vergrößerungen etc

In manchen Situationen, zum Beispiel bei einem vorbeifahrenden Zug, Feuerwerk, bei einer Veranstaltung mit interagierenden Personen etc. ist eine lange Sitzung mit Wiederholungen und verschiedenen Versuchen natürlich nicht möglich - hier sollte man sich bereits im Vorfeld Gedanken machen, wie man das veränderliche, einmalige Motiv am besten abbilden könnte. Serienaufnahmen, die alle Digitalkameras unterdessen anbieten, helfen oft, den "richtigen Augenblick" zu treffen oder Parameter der Belichtung automatisch zu variieren, um nachträglich das beste Resultat herauszusuchen.

Nach dem Aufnehmen des Photos ist der Prozess des Photographierens zwar abgeschlossen, bei anspruchsvollen Photos sollte das Ergebnis jedoch noch einmal auf dem Kameramonitor überprüft werden. Scheint es nicht optimal, kann es sinnvoll sein, die Aufnahme zu wiederholen - eventuell mit anderen Einstellungen, anderem Ausschnitt, anderer Ansicht etc.


Die Brennweite[Bearbeiten]

Einleitung[Bearbeiten]

Wenn man ein bestimmtes Photo aufnehmen möchte, ist es oft der erste Schritt, die Brennweite des Objektivs einzustellen oder ein Objektiv passender Brennweite auszuwählen. Hiermit legt man fest, wie groß der Ausschnitt der Umgebung sein soll, der in dem künftigen Bild festgehalten wird, das heißt, mit welchem Winkel die Kamera das Bild einfängt. Dies impliziert dann auch immer eine bestimmte, für die jeweilige Brennweite charakteristische Perspektive. Soll die Kamera möglichst viel von der Szene samt Hintergrund erfassen (Weitwinkel) oder nur einen kleinen Teil (Telewinkel)? Ist aufgrund von örtlichen Gegebenheiten der Aufnahmeabstand vorgegeben und ergibt sich daraus und der Größe des Motivs die Wahl der passenden Brennweite oder kann die Brennweite nach Kriterien der Gestaltung gewählt werden und der Aufnahmeabstand frei gewählt werden, um das Motiv komplett abzubilden?

Die meisten Kompaktkameras besitzen Objektive mit flexibler Brennweite, das heißt die Brennweite kann manuell eingestellt werden. Die Bedeutung und Wirkung der Brennweite wird nun im Folgenden erläutert.


Definition der Brennweite[Bearbeiten]

Unter der Brennweite versteht man den Abstand zwischen einer Linse und ihrem Brennpunkt, also wie weit die Linse des Objektivs vom Brennpunkt entfernt ist. Der Brennpunkt ist der Ort, wo nach der klassischen Optik parallele Lichtstrahlen von der Linse in einem Punkt fokussiert werden. In der Wellenoptik ist dies lediglich der Bereich größter Lichtintensität, die sogenannte Strahltaille. Der Brennpunkt ist also eher ein Fleck, dessen Abmessung an verschiedenen Faktoren hängt, welcher keine scharfen Ränder hat und dessen genaue mathematische Beschreibung etwas aufwendiger wäre.

Ist die Entfernung am Objektiv auf 'unendlich' eingestellt, so liegt der Fleck gerade in der Sensorebene. Ein Objektiv enthält unter anderem zur Kompensation zahlreicher Linsenfehler einige Linsen. Auch solch einer Linsengruppe kann eine Brennweite zugeordnet werden, was dann so gemeint ist, dass man abgesehen von der Kompensation der Linsenfehler und sonstiger konstruktiver Tricks die Linsengruppe durch eine Linse dieser Brennweite ersetzen könnte.

Bildausschnitt, Sensorgröße und Brennweite haben Einfluß aufeinander. Je größer der Sensor beziehungsweise Film ist, umso größer ist die Brennweite zu wählen, um den gleichen Bildausschnitt zu erhalten. Das heißt, eine Kamera mit kleinem Bildsensor verwendet beispielsweise eine Brennweite von 10 mm, um ein bestimmtes Motiv abzubilden, während eine Kamera mit großem Bildsensor zum Beispiel eine Brennweite von 25 mm zur Abbildung desselben Motivs benötigt.

Im letzten Teil wurde bereits über unterschiedliche Filmformate gesprochen. Das Kleinbildformat ermöglicht relativ kleine Kameragehäuse und kleine Objektive. Für die großen Filmformate, die man früher meist verwendet hat, etwa 6 cm x 8 cm oder gar 20 cm x 25 cm (Großbildformat), waren auch entsprechend große Kameras mit großen Objektiven nötig. Die Brennweite war immerhin schon für normale Aufnahmen (Normalwinkel) sehr groß.

Die Normalbrennweite (circa 50°) lässt sich recht einfach berechnen, wenn die Sensorgröße beziehungsweise das Filmformat bekannt ist. Gerechnet wird dabei näherungsweise mit der Diagonalen des Bildes, sofern nicht anders angegeben. Sie ist (a² + b²)1/2, wobei a die Höhe und b die Breite des Sensors beziehungsweise Films ist. Beim Kleinbildformat (24 mm x 36 mm) ist sie demnach (24² + 36²)1/2 mm = 43 mm. Beim Format 6 cm x 9 cm sind es bereits 108 mm, beim Format 12,5 cm x 25 cm sogar 279 mm.

Vergrößert man die Brennweite eines Objektivs bei gleichbleibender Größe des Sensors, wird der Bildwinkel (der Ausschnitt der abgebildeten Umgebung) kleiner. Vermindert man die Brennweite, wird er größer.

Diese Erkenntnis führt zu mehreren allgemeinen Schlussfolgerungen:

  • Je größer der Sensor beziehungsweise Film, umso größer das Objektiv und die Brennweite bei gleichem Bildwinkel.
  • Je größer der Sensor beziehungsweise Film, umso größer, schwerer und teurer dann auch das Objektiv (und damit auch die Kamera).
  • Je größer die Brennweite eines bestimmten Objektivs, umso kleiner der Bildwinkel (Ausschnitt).
  • Da Digitalkameras Sensoren unterschiedlichster Größe verwenden und es für Analogkameras die unterschiedlichsten Filmformate gibt, lässt sich die physikalische Brennweite nicht direkt vergleichen.


Der letzte Punkt meint, dass wenn jemand beispielsweise behauptet, er habe ein Bild mit einer Brennweite von 17 mm aufgenommen, man nicht genau sagen kann, wie groß der Bildwinkel wirklich war. Mit einer anderen Kamera wäre dasselbe Bild möglicherweise mit einer Brennweite von 12 oder 30 mm aufgenommen worden.

Für dieses Problem wurde jedoch eine einheitliche Sprechweise eingeführt. Zu Zeiten der Analogphotographie hat sich das 35-mm-Format (Kleinbildformat) als Standardformat durchgesetzt. Digitale Kompaktkameras haben heute meist deutlich kleinere Sensoren, oft im Bereich um 1 cm. Ihre Brennweite ist damit sehr viel geringer, als die der Kleinbild-Kameras, aber trotzdem rechnet man ihre Brennweite auf das 35-mm-Format um. Das heißt, die Brennweiten-Angaben von Digitalen Kompaktkameras sind oft nicht mehr die echten, physikalischen Angaben, sondern Angaben, die dem Kleinbildformat entsprechen (die Brennweite wird also auf das Kleinbildformat konvertiert). Somit lassen sich die Brennweiten der Kameras vergleichen. Im einigen Details der Abbildung ergeben sich trotzdem Unterschiede. Für einen Vergleich kann es oft auch nützlich sein, sich vorzustellen, man würde mit dem kleinen Sensor nur einen kleinen Ausschnitt dessen sehen, was man mit einem Objektiv gleicher Brennweite im Kleinbildformat aufgenommen hätte. Dieser Vergleich stimmt zumindest genau, falls die Pixelabstände der Sensoren bei dem Vergleich übereinstimmen, die Pixelanzahl des kleinen Sensors also entsprechend der verkleinerten Fläche gegenüber einem Sensor im Kleinbildformat reduziert ist.


Um mit den unterschiedlichen Angaben nicht durcheinander zu kommen, bezeichnet man die tatsächliche, physikalische Brennweite manchmal als Objektivbrennweite. Da Brennweite ein feststehender physikalischer Begriff zur Charakterisierung von Linsen oder Objektiven ist, ganz unabhängig davon, wofür man sie verwenden mag, ist es also stets anzugeben, wenn man eine formale Umrechnung auf das Kleinbildformat durchführt. Daher verwenden viele Kamerahersteller auch Ausdrücke wie "äquivalente Brennweite im KB-Format".

Den Umrechnungsfaktor zum Kleinbildformat (35-mm-Film) nennt man Formatfaktor (manchmal auch Verlängerungsfaktor, englisch meist 'crop', was die Analogie des Abschneidens oder des Ausschnitts mehr betont). Wenn das Objektiv einer digitalen Kompaktkamera zum Beispiel eine Objektivbrennweite von 8 mm hat und dies 36 mm im Kleinbildformat entspricht, so ist der Formatfaktor 4,5 (da 8 * 4,5 = 36). Der Name "Formatfaktor" sagt bereits aus, dass es sich hier um eine lineare Größe handelt. Wenn das ober erwähnte Objektiv beispielsweise auf 24 mm ausgefahren wird, so beträgt die Brennweite im Kleinbildformat dann 24*4,5 mm, also 108 mm.

Ein Beispiel: Die Canon Powershot SX200 IS hat ein Objektiv mit der Angabe 5-60 mm. Das ist der am Objektiv einstellbare Brennweitenbereich des Objektivs. Auf das Kleinbildformat umgerechnet hat die Kamera jedoch eine Brennweite von 28 mm bis 336 mm. Diesen Wert wird man eher im Benutzerhandbuch oder auf der Verpackung der Kamera lesen. Der Formatfaktor ist damit 28 mm / 5 mm = 5.6. Interessant ist an dem Beispiel auch, dass eine typische 35mm-Kleinbildkamera, wie sie noch vor wenigen Jahren üblich war, für den 12-fach Zoom auf immerhin 33,6 cm hätte ausgefahren müssen. Das Objektiv einer Mittelformatkamera hätte man gar auf einen knappen Meter ausfahren müssen, um dasselbe Bild aufzunehmen. Das gilt hingegen nur für klassische Objektivkonstruktionen. Bei den gängigen Objektiven langer Brennweite wird allerdings die Telekonstruktion verwendet, um die Bauweise drastisch zu verkürzen. Entsprechend wird bei starken Weitwinkelobjektiven eine Retrofokuskonstruktion verwendet, um das Objektiv etwas weiter weg vom Sensor anbringen zu können, wenn das notwendig ist, etwa weil man einige Linsen verwendet oder aus sonstigen Gründen mehr Platz zwischen den Linsen und dem Sensor benötigt wie etwa bei Spiegelreflexkamera.

Zoom[Bearbeiten]

Optischer Zoom[Bearbeiten]

Funktionsweise des optischen Zooms

Das Verändern der Brennweite nennt man Zoomen beziehungsweise Zoom. Solche Objektive nennt man Zoom-Objektive oder auch Vario-Objektive. Unter dem Zoomfaktor eines Objektivs versteht man, um das wieviel-fache die Brennweite des Objektivs verlängert werden kann, bezogen auf die minimale Brennweite (Anfangsbrennweite). Die Änderung der Brennweite wird durch Verschiebung von Linsengruppen innerhalb des Objektivs erreicht. Zur Bedienung gibt es außen dafür entweder einen Drehring (Drehzoom) oder man kann einen Ring in Richtung der Objektivachse verschieben (Schiebezoom). Bei Kompaktkameras mit fest eingebautem Objektiv findet man dazu auch oft einen Regler am Gehäuse, oft um den Auslöser herum angeordnet.

Eine Kamera, die eine minimale Brennweite von 35 mm und eine maximale Brennweite von 140 mm besitzt, hat somit 4-fach Zoom, da 35 * 4 = 140. Wer mit 70 mm Brennweite photographiert, verwendet also in diesem Fall 2-fach Zoom an. Der Zoomfaktor ist damit immer auf ein bestimmtes Objektiv bezogen (genauer: auf die Anfangsbrennweite des Objektivs) und damit zwischen verschiedenen Objektiven und Kameras nicht direkt vergleichbar.

Man nennt diese Art des Zooms auch optischen Zoom. Der optische Zoom entsteht also durch Verändern der Brennweite - je größer die Brennweite, umso größer der Zoom (beziehungsweise umso kleiner der abgebildete Ausschnitt). Der digitale Zoom, den Digitalkameras meist bieten, ist davon zu unterscheiden.

Digitaler Zoom[Bearbeiten]

Der digitale Zoom entsteht, indem in das vom Kamerasensor erfasste Bild hineingezoomt wird, genau so, wie wenn man in einem Photobearbeitungsprogramm oder Bildbetrachtungsprogramm mit der Lupenfunktion in das Bild hineinzoomt. Der Wert sagt dabei aus, um das wieviel-fache das Bild gekürzt wird (1/Faktor). Ein digitaler Zoom von 5 besagt also, dass das Bild auf 1/5 seiner Länge und Höhe zugeschnitten wird. Zoomen bedeutet hier immer, ein ursprüngliches Bild zu kürzen, das heißt, den Ausschnitt zu verkleinern. Wie bereits erläutert, könnte man auch den Formatfaktor eines kleineren Sensors gebenüber einem Sensor im Kleinbildformat als solch einen permanenten digitalen Zoom interpretieren.

Der digitale Zoom kann angewendet werden, um den Bildausschnitt weiter zu verkleinern, nachdem die Grenze des optischen Zooms erreicht ist. Er ist für den Extremfall gedacht, wenn der maximale optische Zoom für die gewünschte Aufnahme nicht ausreichend ist - er kann aber zu Qualitätsverlust führen, da er mit der Beschneidung des Photos arbeitet und die Beschneidung von Photos stets eine Verminderung der Pixelzahl zur Folge hat.

Bei Kameras wird der digitale Zoom meist unabhängig vom optischen Zoom angegeben. Der Hersteller beschreibt sein Produkt beispielsweise wie folgt: 3-fach optischer Zoom, 5-fach digitaler Zoom. Das heißt, dass man theoretisch bis (3*5) also 15-fachen Zoom erzeugen kann. Anders ausgedrückt bedeutet dies, dass wenn das Bild mit 3-fach Zoom aufgenommen wird, die Kamera nun noch einmal bis zu 5-fach in das Bild hineinzoomen kann und damit 5-fach digitalen Zoom erzeugt, der zusammen mit dem 3-fach optischen Zoom einen Zoom-Faktor von insgesamt 15 ergibt. Auf dem Monitor der Kamera wird dann aber oft auch der Gesamtzoom angegeben, z.B. "7.5x" bei 3-fach optischen + 2.5-fach digitalen Zoom.

Es wird oft behauptet, der digitale Zoom führt zu Qualitätsverlust und ist kein "echter Zoom", was vom Prinzip her erst einmal korrekt ist. Es wird im Nachfolgenden aber gezeigt, dass der digitale Zoom nicht zwangsweise einen Qualitätsverlust bringt, sofern man nicht die volle Pixelzahl des Sensors benötigt.

Nehmen wir einmal an, der Kamerasensor habe 4000x3000 Bildpunkte (12 MP). Nehmen wir das größte Aufnahmeformat, eben 4000x3000, und verwenden den digitalen Zoom (zum Beispiel 2-fach digitaler Zoom), dann führt dies sofort zum Qualitätsverlust. Die Kamera nimmt das Photo also in 4000x3000 auf und vergrößert das Bild um einen Faktor 2, indem sie links und rechts 1000 Pixel und oben und unten 750 Pixel abschneidet. Die mittleren 2000x1500 Pixel bleiben übrig. Das Photo ist nun tatsächlich um Faktor 2 vergrößert, hat also 2-fach digitalen Zoom erfahren. Die Pixelzahl ist aber nur noch 3 MP, also bereits deutlich geringer als zuvor. Bei 4-fach digitalen Zoom wäre sie jetzt nur noch 1000x750. Das ist weniger als 1 MP und keine gute Qualität mehr. Der digitale Zoom hat in dem Fall also wirklich einen erheblichen Qualitätsverlust (drastische Reduzierung der Auflösung) bewirkt.

Photographiert man nun jedoch ohnehin mit einer niedrigeren Auflösung, zum Beispiel 2000x1500, was für den Alltag durchaus okay sein mag, so kann 2-fach digitaler Zoom angewendet werden, ohne dass ein Verlust zu befürchten ist. Die Kamera nimmt das Photo dann erst einmal im Format 4000x3000 auf und beschneidet es wie bereits erläutert. Es liegt dann im Format 2000x1500 vor, also so wie auch vom Benutzer gewünscht ist, ist aber bereits 2-fach digital vergrößert.

Das Fazit ist damit, dass digitaler Zoom beim Photographieren mit größter Auflösung immer zum Qualitätsverlust führt, beim Photographieren mit geringerer Auflösung jedoch ein Spielraum besteht, in dem digitaler Zoom keinen Qualitätsverlust bewirkt. Viele Kameras zeigen beim digitalen Zoomen durch unterschiedliche Farbbalken an, bis wohin der digitale Zoom verlustfrei ist (in unserem letzten Beispiel wäre das bis 2.0x) beziehungsweise ab wann er zum Qualitätsverlust führt (in unserem Beispiel wäre das über 2.0x).

Geht man von einem 12-MP-Sensor aus, so kann man sagen, dass alles bis 2-fach digitalem Zoom noch okay sein mag, da ein 3-MP-Bild für den normalen Gebrauch völlig ausreichend ist. Damit ließe sich der optische Zoom, wie groß auch immer er sein mag, verdoppeln.

Da sich der Effekt allerdings auch immer sehr einfach unabhängig von der Kamera bei der Nachbearbeitung erreichen läßt, ist es bei erfahrenen Photographen durchaus üblich, den digitalen Zoom komplett zu deaktivieren und Bilder immer mit der maximal möglichen Anzahl von Pixeln abzuspeichern, um dann bei der Nachbearbeitung den Ausschnitt optimal festzulegen - denn dieser muß ja nicht immer mittig optimal sein, wie die Kamera das Bild automatisch zuschneiden würde. Bearbeitet man seine Bilder also ohnehin nach, empfiehlt es sich sicherlich, auf den digitalen Zoom komplett zu verzichten.


Einteilung der Brennweiten[Bearbeiten]

Überblick[Bearbeiten]

Änderung der Brennweite vom Weitwinkel zum Super-Telewinkel und zurück.

Brennweiten (Kleinbildformat) lassen sich in unterschiedliche Gruppen einteilen:

  • Super-Weitwinkel: 12 bis 21 mm
  • Weitwinkel: 24 bis 38 mm
  • Normalwinkel: 50 mm
  • Telewinkel: 70 .. 300 mm
  • Super-Telewinkel: 300 .. 600 mm, manchmal auch mehr


Wie zu erkennen ist, fehlen einige Bereiche. Diese liegen dann in Übergangsbereiche, das heißt 60 mm Brennweite liegt beispielsweise im Übergangsbereich vom Normalwinkel zum Telewinkel.

Dazu gibt es auch noch spezielle Objektive mit sehr kurzer Brennweite mit besonderen Abbildungseigenschaften, die bereits zuvor erläuterten Fischaugenobjektive. Bei einem Fischauge mit kreisförmigen 180 Grad Bildwinkel liegt die Brennweite meist bei etwa 8mm, bei einem diagonalen Bildwinkel von 180 Grad (Vollformatfischauge) liegt die Brennweite bei etwa 15mm.


Normalwinkel[Bearbeiten]

Der Normalwinkel (circa 45° bis 50°) war einst das klassische Bildformat, mit denen Photos gängigerweise aufgenommen wurden. Es hat den Vorteil, dass das Bild sehr natürlich wirkt, da Menschen mit einem Blickwinkel von etwa 45° sehen und das Bild daher einen Ausschnitt in der Form zeigt, wie ihn auch Menschen sehen.

Dennoch wird der Normalwinkel heute eher seltener verwendet. Die meisten Kompaktkameras haben heute Anfangsbrennweiten von 28 bis 35 mm, welche häufiger verwendet werden als die klassischen 50 mm, eventuell auch weil die Anwender die Zoomfunktion nicht verstanden haben. Manchmal versteht man heute unter dem Normalwinkel aber auch den Bereich von etwa 35 bis 70 mm.

In dem Bereich findet man allerdings häufig auch besonders lichtstarke Objektive, die es also erlauben, Aufnahmen mit geringer Schärfentiefe aufzunehmen oder aber auch bei wenig Licht noch qualitativ gute Aufnahmen ohne Blitzgerät zu realisieren.


Weitwinkel und Super-Weitwinkel[Bearbeiten]

Perspektivänderung mit verschiedenen Weitwinkeln, links größter Winkel, rechts kleinster Winkel

Der Weitwinkel wird häufig verwendet, um besonders viel vom Umfeld einer Szene auf das Bild zu bekommen oder bei begrenztem Platzangebot trotzdem ein größeres Motiv komplett abbilden zu können.

Häufig verwendete Brennweiten liegen im Bereich zwischen 24 und 38 mm, aber durchaus auch bis 14 mm (Super-Weitwinkel), was einem sehr großen Ausschnitt einer Szenerie entspricht. Der Weitwinkel wird vor allem in der Landschaftsphotographie und Architekturphotographie verwendet. Besonders für Innenaufnahmen ist er von hoher Bedeutung, um somit die Aufnahme eines großen Ausschnitts des Raums zu ermöglichen. Konstruktionsbedingt ergeben sich allerdings besonders bei den Superweitwinkelobjektiven Verzerrungen besonders am Randbereich des Bildes. Bei diesen Objektiven werden zwar näherungsweise immer noch parallele Linien, die in einer Ebene parallel zum Sensor verlaufen parallel darauf abgebildet, aber etwa am Rand des Bildausschnitts stehende Personen und Gegenstände wirken auffällig verzerrt. Je kürzer die Brennweite, desto auffälliger sind solche Effekte. Beim Einsatz von Superweitwinkelobjektiven ist also besondere Sorgfalt geboten und es ist auf viele Details zu achten.

Beim Weitwinkel entsteht eine gewisse Betonung der räumlichen Tiefe, da ein größerer Ausschnitt der Umgebung auf dasselbe Bildformat abgebildet wird. Das hat zur Folge, dass Objekte im Vordergrund hervorgehoben werden (das heißt sie erscheinen größer, als sie eigentlich sind), während Objekte im Hintergrund weniger auffallen (sie erscheinen kleiner als sie eigentlich sind). Mit dem Weitwinkel wird somit eine Distanz zwischen Vordergrund und Hintergrund aufgebaut. Aus diesem Grund ist der Weitwinkel für Porträt-Aufnahmen ungeeignet, da hier Nase und andere Auffälligkeiten im Gesicht (Vordergrund) zu sehr hervorstechen würden. Möchte man jedoch Entfernungen darstellen oder Weite ausdrücken, ist der Weitwinkel eine ideale Methode. Zudem haben Weitwinkelobjektive eine große Schärfentiefe (dazu später mehr).

Der vermutlich größte Vorteil des Weitwinkels ist, dass man große Objekte (zum Beispiel Kirchen, hohe Bäume) auch dann aufnehmen kann, wenn sie relativ nah sind und man keine größere Entfernung herstellen kann. Ein Nachteil ist hingegen, dass das Bild mit zunehmend kleinerer Brennweite unnatürlich wirkt, da das menschliche Auge die Welt eigentlich aus einem kleineren Winkel sieht. Aber natürlich muss ein Photo nicht immer natürlich wirken. Weiterhin muss man darauf achten, die Kamera gerade zu halten, da schon leichtes Kippen zu den bekannten "stürzenden Linien" führt (dazu im nächsten Teil des Buches mehr).

Da Weitwinkel-Photos den Vordergrund betonen, ist es oft empfohlen (vor allem bei Landschaftsaufnahmen), ihn mit einem interessanten Motiv zu bestücken, da der Vordergrund (und faktisch auch das Bild) sonst schnell leer wirken. Das Finden eines geeigneten Motivs zum Füllen des Vordergrunds ist dabei nicht immer einfach.


Telewinkel und Super-Telewinkel[Bearbeiten]

Der Telewinkel umfasst eine Brennweite von rund 70 mm bis 300 mm, das heißt einen recht engen Winkel. Er wird unter anderem dann verwendet, wenn man ein Motiv nah aufnehmen möchte, jedoch aus verschiedenen Gründen nicht so nah an das Motiv herangelangt. Das betrifft zum Beispiel Architekturdetails, Sportler, Tiere, Segelboote auf See etc. Manchmal kann man sich einem Motiv auch nicht nähern, weil es zu gefährlich wäre (zum Beispiel Vulkan, wilde Tiere etc.). Auch hier sind Telewinkel eine Alternative. Vom Super-Telewinkel spricht man bei Brennweiten von über 300 mm. Mit so großen Brennweiten arbeiten meist Profis, um Objekte, Tiere und Personen aus noch größerer Entfernung in voller Größe abbilden zu können. Der Winkel beträgt dann nur wenige Grad.

Der Telewinkel wirkt gelegentlich auffällig, da das menschliche Auge in der Natur einen größeren Winkel wahrnimmt.

Beim Telewinkel rücken Vordergrund und Hintergrund zusammen, das heißt im Gegensatz zum Weitwinkel wird mit dem Tele-Winkel keine Distanz aufgebaut, sondern Distanz wird vielmehr reduziert. Bei größeren Brennweiten lassen sich Distanzen oft gar nicht mehr abschätzen und auch das Größenverhältnis zwischen Objekten im Vordergrund und Hintergrund lässt sich nur noch schwer beurteilen.

Porträts werden oft im unteren bis mittleren Bereich des Telewinkels aufgenommen, meist zwischen 80 und 150 mm. Wie bereits erwähnt, rücken hier Vordergrund und Hintergrund näher zusammen. Das Gesicht nimmt eine weiche, glatte Form an; Extremitäten wie die Nase stechen nicht so sehr hervor wie beim Normal- oder Weitwinkel. Zudem nimmt mit zunehmender Brennweite die Schärfentiefe ab und es wird möglich, einen besonders unscharfen Hintergrund zu erzeugen. Ein Teleobjektiv eignet sich also hervorragend, um ein Motiv von seiner Umgebung abzuheben, die dann nur noch unbedeutend unscharf wiedergegeben wird. Um dies zu erreichen, wird dann gerne mit offener Blende gearbeitet, womit es dann gelingt, irrelevante Nebensächlichkeiten im Hintergrund in der Unschärfe verschwinden zu lassen und den Betrachter stärker auf das eigentliche Motiv zu konzentrieren. Die geringe Schärfentiefe ermöglicht bei einigen Motiven auch einen ganz anderen Zugang zur Erzeugung eines Tiefeneindruckes, wenn bei einem Motiv der Schärfeverlauf kontinuierlich auf den Hauptgegenstand hin zunimmt und danach wieder schnell abnimmt.

Auch für kreative Aufnahmen kann der Telewinkel vielseitig verwendet werden. Besitzt die Kamera einen hohen Zoomfaktor (zum Beispiel 8 oder höher), so kann man eine Vielzahl an Objekten heranzoomen und wird womöglich interessante Aufnahmen zaubern (insbesondere auch im abstrakten Bereich). Beispiele hierfür sind vielleicht: Bäume, die untergehende Sonne (jedoch niemals ins Tageslicht der Sonne photographieren/blicken!), Wolken, das Meer, Mauerwerk und sicher viele weitere Sachen.

Beim Telewinkel hat man den Nachteil, dass mit zunehmender Brennweite die Verwacklungsgefahr größer wird. Wie bei einem Fernglas führt eine ganz leichte Bewegung bereits dazu, dass sich das Bild stark verändert und im Fall der Aufnahme dann auch stark verwackeln würde. Gleichzeitig benötigt man bei großen Brennweiten automatisch auch eine längere Belichtungszeit, da längere Brennweiten meist eine größere Blendenzahl als Anfangsblende zur Folge haben. Bei größeren Brennweiten kann es daher notwendig sein, mit hoher Empfindlichkeit des Sensors oder mit einem Stativ zu arbeiten (mehr zu dem Thema Brennweite/Verwacklung gibt es im Abschnitt "Belichtung").

Je größer die Brennweite ist, umso größer muss auch das Objektiv sein beziehungsweise umso weiter muss es ausgefahren werden. Größere Kameras (zum Beispiel Mittelformatkameras) verwenden für den Super-Telewinkel daher oft Objektivbrennweiten von einem halben Meter oder länger. Die Kamera kann dann nur noch auf einem Stativ sicher bedient werden. Bei extrem langen Objektiven gibt es sogar Stative für das Objektiv selbst. Das kann man manchmal auch auf Darstellungen von historischen Kameras sehen, die meist Mittel- oder Großformatkameras waren und damit automatisch eine lange Brennweite besaßen.

Eine spezielle Bauform liegt mit den Spiegellinsenobjektiven vor. Bei diesen werden neben den üblichen Linsen auch Spiegel verbaut. Durch sie wird der Strahlengang geknickt, die Baulänge kann damit dramatisch verkürzt werden. Gängig sind diese Konstruktionen vor allem bei astronomischen Teleskopen, sie sind aber auch für die Photographie erhältlich. Mittig auf der Frontlinse ist bei diesen Objektiven ein Spiegel montiert, was dann die einfallende Lichtmenge reduziert und oft dazu führt, dass diese Objektive wegen des mehrfach geknickten Strahlenganges ohne Blende betrieben werden.

Abbildungsmaßstab und Vergrößerung[Bearbeiten]

Der Abbildungsmaßstab bezeichnet das Größenverhältnis zwischen der abgebildeten Größe eines Objekts auf der Filmebene (also auf dem Film beziehungsweise dem Kamerasensor) und der tatsächlichen Größe des Objektes. Kleinbildkameras verwenden ein Filmformat von 36 mm x 24 mm. Wird nun etwa ein 36 mm langes Insekt so aufgenommen, welches das Bild also voll ausfüllt, so ist der Abbildungsmaßstab 1:1. Wäre das Tier nur 18 mm lang und wird auf die 36 mm abgebildet, so wäre der Abbildungsmaßstab 2:1 (2-fache Vergrößerung), wäre es 360 mm (36 cm), wäre der Abbildungsmaßstab 1:10.

Der Abbildungsmaßstab X:Y ist also das Verhältnis Größe der Abbildung eines Objektes auf dem Films oder Sensor zur Objektgröße beziehungsweise Motivgröße. Die damit angedeutete Division kann auch einfach ausgeführt werden, den Wert nennt man dann einfach Vergrößerung.

Der Abbildungsmaßstab wird größer, wenn man sich dem Objekt nähert oder die Brennweite vergrößert. Er lässt sich mit vorgegebenem Objektiv jedoch nicht grenzenlos vergrößern, da jedes Objektiv einen maximalen Abbildungsmaßstab besitzt, bis zu dem es korrekt fokussieren kann. Überschreitet man diese Grenze, ist man zu nah an dem abzubildenden Objekt und die Kamera kann es nicht mehr scharf abbilden. In dem Falle wäre also ein anderes Objektiv zu verwenden, auszugsverlängerndes Zubehör zwischen Kamera und Objektiv zu bauen oder eine Nahlinse zu verwenden, um den gewünschten größeren Abbildungsmaßstab erzielen zu können.

Der Abbildungsmaßstab spielt in der Makrophotographie eine wichtige Rolle. Hier wird meist ein Abbildungsmaßstab zwischen 1:4 und 2:1 verwendet, nach DIN sogar zwischen 1:10 und 10:1.

Auch außerhalb der Makrophotographie hat der Abbildungsmaßstab dann eine besondere Bedeutung, wenn aufgrund der Pixelgröße auf dem Bild abgeschätzt werden soll, wie groß das Motiv ist. Dazu muß natürlich die Größe eines Pixelabstandes des Sensors bekannt sein. Ein 20 Meter hoher Baum, der als Motiv dient, hätte bei der 35-mm-Kamera einen Abbildungsmaßstab von 35 : 20.000, also rund 1:571. Das gleiche Bild mit einer Digitalkamera aufgenommen, deren Sensor etwa 0,5 cm misst, würde einen Abbildungsmaßstab von 5 : 20.000, also 1:4.000 ergeben.

Das Fokussieren[Bearbeiten]

Grundlagen[Bearbeiten]

Funktionsweise des Fokussierens[Bearbeiten]

Das Fokussieren oder Scharfstellen ist einer der wichtigsten Schritte vor dem Aufnehmen eines Photos. Damit wird eingestellt, in welcher Enfernung eine Ebene parallel zum Bildsensor scharf abgebildet werden soll. Anders als bei Lochkameras können Linsenkameras nicht den ganzen Raum gleichscharf abbilden. Jede Abbildung mit einer Linse kann, technisch bedingt, nur in einer Ebene (an einem Ort) scharf sein; alles davor und dahinter erscheint allmählich unscharf, wobei der Grad der Unschärfe mit zunehmender Entfernung zu dieser Ebene zunimmt. Diese Ebene nennt man auch Schärfeebene. Objektpunkte vor oder hinter der Schärfebene kann man sich dargestellt denken als Kreisscheibchen, die größer sind als die der Punkte in der Schärfeebene. Diese Scheibchen werden auch Zerstreuungskreise genannt.

Solange ein Zerstreuungskreis eines Objektpunktes kleiner als der Pixelabstand auf dem Sensor ist, ergibt sich beim Bild selbst kein signifikanter Unterschied hinsichtlich der Schärfe. Bei einer Darstellung eines Bildes kann das Auge des Betrachters je nach Betrachtungsabstand ebenfalls nur Objekte auflösen, die größer als eine minimale Größe sind. Diejenigen dargestellten Objektpunkte, deren Zerstreuungskreise kleiner sind als diese Auflösung des Auges, werden ebenfalls als scharf wahrgenommen. Von weit weg betrachtet erscheint also beim selben Bild die Schärfe größer zu sein, es sind allerdings insgesamt weniger Details erkennbar.

Auch die Schärfeebene ist an sich nicht vollständig scharf, da ein Lichtbündel selbst im Fokus (Schärfeebene) eine endliche Breite aufweist und nicht, wie es idealerweise wäre, punktförmig ist. Je weiter sich Punkte vor oder hinter der Schärfeebene befinden, umso mehr werden sie als genannte Zerstreuungskreise und nicht mehr als Punkte dargestellt, und umso mehr werden sie damit unscharf erscheinen.

Ein wichtiger Grund hierfür ist das begrenzte Auflösungsvermögen des Auges, das zur Folge hat, dass wir Bilder nur bis zu einem bestimmten Grad auflösen können. Als Faustformel ergibt sich für jenen Betrachtungsabstand, bei dem ein Bild komplett von einer Ecke zur anderen überschaut werden kann, dass das menschliche Auge auf der Bilddiagonale bis maximal 1500 Punkte unterscheiden (also "auflösen") kann. Strukturen, die kleiner als 1/1500 der Diagonale sind, werden vom Auge nicht weiter aufgelöst und somit automatisch als scharfe Punkte betrachtet. Übersteigt der Grad der Unschärfe 1/1500 der Diagonale nicht, nehmen wir also ein scharfes Bild wahr - auch wenn es eigentlich leichte Unschärfe aufweist. Die Situation ändert sich, wenn der Betrachter den Betrachtungsabstand verringert. Er kann dann mehr Details auflösen und daher ehemals als scharf vermutete Teile des Bildes als unscharf wahrnehmen.

Der Schärfeeindruck wird zudem auch durch den Pixelabstand des Sensors (das heißt den Abstand der einzelnen Pixel im Sensor) beziehungsweise der Körnung des Films bestimmt. Bei geringem Betrachtungsabstand können eventuell die Pixel oder die Körnung vom Auge selbst aufgelöst werden. Allerdings können Zerstreuungskreise kleiner als der Pixelabstand oder die Körnung auch nicht kleiner oder schärfer erscheinen als diese Grundstrukturen des Bildes.

Ein Beispiel: Ein Photo mit einer Pixelzahl von 10 MP hat etwa eine Bilddiagonale von rund 4500 Pixeln. Wird es mit einem Betrachtungsabstand angesehen, bei dem man gerade das ganze Bild überblicken kann, so ist die Auflösung aufgrund der Pixelzahl also 3-mal größer als das Auflösungsvermögen des Auges. Das Bild kann durchaus unscharf sein; übersteigt die Unschärfe jedoch nicht mehr als 3 Pixel, so würde das Bild immer noch als scharf erscheinen (4500 / 3 = 1500 = das Auflösungsvermögen).

Wenn die Zerstreuungskreise also eine gewisse Größe nicht überschreiten, werden sie vom Menschen als Punkte aufgefasst und erscheinen scharf. Es gibt in der Photographie gewisse Techniken, die Größe der Zerstreuungskreise zu reduzieren oder zu erhöhen, um bewusst Unschärfe aufzubauen oder zu reduzieren. Während man Bilder in der Nachbearbeitung mit Filtern immer nahezu beliebig unscharf werden lassen kann, kann man sie allerdings nur in begrenzten Umfange nachschärfen, wodurch aber natürlich auch nicht mehr Details dargestellt werden können, als in der unscharfen Originalaufnahme aufgelöst wurden, die erscheinen nur mit größerem Kontrast.

Somit erscheint ein gewisser Teil vor und hinter der Schärfeebene als scharf und es entsteht auf dem Bild ein für den Menschen scharfer Bereich. Diesen Bereich nennt man Schärfentiefe (früher auch irreführend teilweise Tiefenschärfe). Er kann unendlich sein (das gesamte Bild erscheint jenseits eines Mindestabstandes scharf), mäßig oder klein. Manchmal ist der Bereich der Schärfentiefe auch nur wenige Millimeter groß, das heißt das Bild ist nur in einem sehr kleinen Bereich scharf – alles davor und dahinter wirkt unscharf. In der Makro- oder Mikrophotographie schrumpft die Schärfentiefe in der Regel sogar auf Bruchteile von Millimetern. Dabei ist zudem zu beachten, dass zwei benachbarte Objekte nicht unterscheidbar sind, wenn sie dichter zusammenstehen als die halbe Wellenlänge des zur Betrachtung verwendeten Lichtes. Es wird einem also mit sichtbarem Licht nicht gelingen, Details aufzulösen, die deutlich kleiner als 200 Nanometer sind, egal mit welcher Vergrößerung das Bild aufgenommen wurde.

Auf die Schärfe des Bildes haben auch noch andere Faktoren einen Einfluß - die Auflösung des Objektivs und Beugungseffekte bei kleiner Blendenöffnung sind zwei weitere wichtige Faktoren.

Auf die Schärfentiefe wird später noch ausführlicher eingegangen.

Photographische Bedeutung[Bearbeiten]

Die Schärfe (Fokus) ist, wie Belichtung, Blende oder Brennweite, ein Mittel um ein Photo künstlerisch zu gestalten. Sie bestimmt aber auch, wieviele Details, wieviel Information mit einem Bild dargestellt werden kann. In der Landschafts- und Architekturphotographie möchte man oft, dass das gesamte Bild scharf erscheint, also vom Vordergrund bis zum Hintergrund; die Schärfentiefe soll unendlich sein. Bei Porträts und in der Sachphotographie möchte man hingegen oft, dass nur das Hauptmotiv scharf wirkt und insbesondere der Hintergrund unscharf ist, weil Vorder- und Hintergrund nichts zur gewünschten Information des Hauptmotivs beitragen oder sogar von dieser ablenken würden. Hier soll die Schärfentiefe also gering sein, um das Hauptmotiv besonders hervorzuheben.

Nahezu alle Kameras bieten heute einen Autofokus, das heißt der Benutzer muss die Fokussierung nicht von Hand vornehmen, sondern die Kamera berechnet, wo sich die Schärfeebene befinden soll. Von sehr einfachen Kameras abgesehen, wird aber auch eine manuelle Einstellmöglichkeit geboten, das heißt, der Benutzer kann den Fokus selbst bestimmen. Der Autofokus der Kamera kann natürlich nicht wissen, welche Teile des Bildes scharf dargestellt werden sollen, insbesonders von wo bis wo die Schärfentiefe reichen soll. Der Autofokus stellt also auf ein bestimmtes Motivdetail scharf und wählt nicht gezielt eine Entfernung vor, bei der alle relevanten Teile eines Bildes im Bereich der Schärfentiefe liegen. Bei genannter Landschafts- und Architekturphotographie wird der erfahrene Photograph bei Abblendung also den Fokus weiter nach vorne legen, solange die Schärfentiefe ohnehin bis unendlich reicht.

Eine falsche Fokussierung ist neben dem Verwackeln die häufigste Ursache für unscharfe Photos. Ein unscharfes Photo (das heißt ein Photo, das an dem Punkt unscharf ist, wo es eigentlich scharf erscheinen sollte) gilt meist als verdorben und kann, bei starker Unschärfe, auch nicht mehr mit Photobearbeitungsprogrammen korrigiert werden. Die Bedeutung der Fokussierung ist daher sehr groß.

Der Autofokus[Bearbeiten]

Grundlagen[Bearbeiten]

Der Autofokus (AF), den jede Digitalkamera besitzt, bestimmt die optimale Schärfeebene von selbst. Man unterscheidet dabei zwei Arten: Den aktiven Autofokus, der über Infrarot-Messung durchgeführt wird, sowie den passiven Autofokus, der von der Kamera durch Bildanalyse oder mit zusätzlichen Sensoren berechnet wird, daher gibt es für den passiven Autofokus wiederum mehrere, mindestens zwei Verfahren.

Der Autofokus wird in vielen Fällen ein makellos scharfes Bild ergeben, er funktioniert aber nicht ausnahmslos fehlerfrei. Vor allem bei künstlerisch-kreativen Aufnahmen, wo die Schärfe auf einem ganz bestimmten Punkt liegen soll, schlägt der Autofokus oft fehl. Es muss dann der manuelle Fokus verwendet werden.


Aktiver Autofokus[Bearbeiten]

Vor dem Aufstieg der Digitalphotographie wurde meist der aktive Autofokus verwendet. Hierbei besitzt die Kamera einen Infrarotsender und Infrarotempfänger. Vor dem Aufnehmen eines Photos wird dann ein Infrarotsignal vom Sender ausgestrahlt, vom Motiv (zum Beispiel einer Person) reflektiert und von dem Sender wieder eingefangen. Durch Triangulation, selten anhand der Zeit, die zwischen Senden und Empfangen verstrichen ist, kann die Kamera die Entfernung des Motivs ausmachen. Sie weiß dann, auf welche Entfernung sie scharfstellen muss. Die Messung der Lichtlaufzeit ist anspruchsvoller, denn da entsprechen 30 cm einer Nanosekunde und für Technik im Umfange einer Kamera ist es relativ schwierig, Zeiten unterhalb von einer Nanosekunde aufzulösen oder auch nur Lichtpulse zu erzeugen, die kürzer als eine Nanosekunde sind. Die Triangulationsmethode kann heute noch zum Beispiel bei Laserentfernungsmessern nachvollzogen werden.

Der aktive Autofokus arbeitet auch in extremer Dunkelheit, denn das Aussenden des Infrarot-Signals wird durch Licht und Dunkelheit nicht gestört. Seine Reichweite ist mit rund 5 Metern meist gering, die Kamera stellt jedoch automatisch auf unendlich, falls sich das Motiv außerhalb der Reichweite befindet (das heißt falls das Signal nicht zum Sender zurückgeworfen wird). Alternativ kann die Kamera auch die Information über die Blendenzahl nutzen, um auf einen endlichen Wert scharfzustellen, bei dem die Schärfentiefe bis unendlich reicht (auch Fixfokus-Einstellung genannt). Insofern wird dann (fast) das gesamte Bild scharf erscheinen.

Der Nachteil des aktiven Autofokus ist, dass die Bestimmung der Schärfeebene relativ einfach geschieht. Anders als beim passiven Autofokus wird nicht das gesamte Bild analysiert, sondern lediglich der Abstand zu einem bestimmten Motiv gemessen und allein auf dieser Basis die Fokussierung vorgenommen. Sollen mehrere Motive scharf abgebildet werden, hat der Autofokus ein Problem und auch das Photographieren durch Glasscheiben wird sich als schwierig erweisen, weil die Glasscheibe die Infrarotstrahlen teilweise reflektiert, damit als Motiv erkannt wird und die Kamera den Fokus dann auf den Nahbereich stellen wird.


Passiver Autofokus[Bearbeiten]

Der passive Autofokus wird heute von nahezu allen digitalen Kompaktkameras und auch der Digital-SLRs verwendet. Bei einer Methode (Kantenkontrastmessung) analysiert die Kamera beziehungsweise eine Programm Daten vom Aufnahmesensor vor der Aufnahme und verändert die Schärfeebene so lange (auch pumpen genannt), bis das Programm glaubt, die optimale Ebene gefunden zu haben. Zumeist bei den Spiegelreflexkameras, sofern sich nicht im 'LiveView' betrieben werden, gibt es stattdessen eigene Sensoren für den Autofokus, welche zur Analyse verwendet werden (Phasenvergleich über Liniensensoren und Kreuzsensoren).

Der Phasenvergleich braucht prinzipiell weniger Rechenleistung und weniger Versuche als die Kantenkontrastmessung, zudem muß für erstere nicht bereits der Bildsensor belichtet und ausgelesen werden. Von daher ist der Phasenvergleich meist schneller als die Kantenkontrastmessung, weil letztere aber meist bei Kameras mit kleinerem Bildsensor eingesetzt wird, können Kameras mit hoher Rechenleistung heute durchaus mit dem Phasenvergleich konkurrieren. In der gleichen (Spiegelreflex-)Kamera ist hingegen der Phasenvergleich immer schneller und treffsicherer als die Kantenkontrastmessung im 'LiveView'.

Ein Bild erscheint scharf, wenn es einen hohen Kontrast aufweist und an Farbübergängen schmale, schwarze Linien auftreten – es wirkt unscharf, wenn jene Linien breiter sind und einzelne farbliche Abstufungen (zum Beispiel einzelne Grautöne) aufweisen.

Der passive Autofokus arbeitet also vom Prinzip her wie der Photograph selbst, indem er die Schärfe so lange reguliert, bis ein scharfes Bild erscheint. Er konzentriert sich dabei auf die gesamte Szene und nicht nur auf ein bestimmten Motiv. Zudem kann er auf alle Entfernungen gute Resultate bringen – er ist nicht nur auf wenige Meter Reichweite beschränkt.

Je nach Kameratyp und Modus wird zur Scharfstellung entweder der zentrale Bereich des Bildes fokussiert oder die Kamera fokussiert auf das der Kamera nächste Objekt in der weiteren Umgebung der Mitte. Oft gibt es dann eine Anzeige, welcher Bereich als relevant für die Scharfstellung angenommen wurde. Liegt das gewünschte Motiv außerhalb der Mitte oder seitlich hinter einem dominierenden Vordergrund, kann es Probleme mit dem Autofokus geben. Das analysierende Programm ist ja nicht intelligent, kann also allenfalls in sehr begrenztem Umfang beurteilen, was dem Photographen wichtig ist, also auf jeden Fall scharf dargestellt werden soll.

Ein Nachteil des passiven Autofokus ist, dass er Licht benötigt. In der Dunkelheit funktioniert er ohne Hilfsmittel nicht, in der Dämmerung funktioniert er meist nur suboptimal. Die Kamera kann eben das aufzunehmende Bild nicht auf Schärfe beziehungsweise Kontrast überprüfen, wenn es zu dunkel ist. Eine Lösung, die viele Kameras unterdessen bieten, ist AF-Hilfslicht, das jedoch vor Verwendung meist in den Einstellungen der Kamera aktiviert werden muss. Bei Aktivierung sendet die Kamera dann während der Fokussierung ein paar leichte (oft rote oder infrarote also kaum oder nicht sichtbare) Blitze aus, um das Motiv etwas zu beleuchten und somit die Schärfeebene besser berechnen zu können. Natürlich greift die Kamera nur darauf zurück, wenn es dämmrig oder dunkel ist, und natürlich wird während der Aufnahme selbst kein Blitz durchgeführt (es sei denn, dies wurde vom Benutzer gewünscht). Einige fortschrittlichere Blitzgeräte können sogar als Hilfslicht ein infrarotes Strichgitter über das Motiv legen, um eine noch bessere Autofokussierung zu erreichen.

Es gibt zwei Modi des passiven Autofokus, die viele Kameras unterstützen. Im ersten Modus fixiert die Kamera die Fokussierung, sobald der Auslöser halb gedrückt wird. Man kann dann die Kameraposition ändern und einen anderen Ausschnitt aufnehmen, ohne dass sich der Fokus ändert (mehr dazu im nächsten Abschnitt). Im zweiten Modus berechnet die Kamera die Schärfeebene immer wieder neu, auch wenn der Auslöser halb gedrückt ist. Diesen Modus nennt man Automatische Schärfenachführung, auch CAF, manchmal auch Servo-AF. Sie bietet sich bei Motiven an, die sich schnell bewegen (zum Beispiel Fahrzeug, Sprinter, Gepard). Hier muss die Schärfe immer wieder sofort neu berechnet werden, denn schon eine halbe Sekunde nach erfolgreicher Fokussierung kann das Bild unscharf wirken, da das Motiv näher an der Kamera ist beziehungsweise sich weiter weg befindet. Der Servo-AF wird bei alltäglichen Aufnahmen jedoch kaum verwendet und muss, falls die Kamera die Funktion überhaupt bietet, meist in einem Menü separat aktiviert (und danach gegebenfalls wieder deaktiviert) werden. Dabei kann durchaus auch ein Algorithmus verwendet werden, der abzuschätzen versucht, wohin sich ein einmal erkanntes Motiv bewegt und anhand der Schätzung eine schnellere Fokussierung prognostiziert und dann nur noch wenig korrigieren muß. Manchmal gibt es auch einen dritten Modus, bei dem versucht die Kamera selbst herauszufinden, ob es sich um ein bewegtes Hauptmotiv handelt oder nicht, ob die Schärfe also nachgeführt werden muß oder nicht.

Die meisten Kameras blockieren zumindest im ersten Modus die Auslösung, bis scharfgestellt wurde, in den anderen beiden Modi kann man hingegen jederzeit auslösen, ähnlich wie bei manuellen Fokus.

Ein generelles Problem des Autofokus liegt darin, dass es damit in der Regel nicht möglich ist, den Schärfebereich gezielt so zu legen, dass mehrere, unterschiedlich weit entfernte Objekte scharf abgebildet werden. Mit manueller Einstellung kann der erfahrene Photograph durch eine geeignete Wahl des Punktes der maximalen Schärfe den Schärfebereich so legen, dass alle relevanten Objekte im Schärfebereich liegen, indem er etwa auf einen Abstand grob mittig oder gezielt betont vorne oder hinten scharfstellt und nicht nur auf ein bestimmtes Objekt aus der Gruppe. Solch komplexe Situationen kann der Autofokus nicht überschauen, kann also durch seine Wahl des Schärfepunktes Schärfentiefe verschenken, die für die Aufnahme wichtig gewesen wäre.

Verwirrung stiften beim Autofokus auch regelmäßig Objekte wie Zweige, Zäune oder reflektierende Fenster zwischen der Kamera und dem Motiv. Die Kamera neigt dann dazu, diese Objekte für wichtig genug zu halten, um darauf zu fokussieren.

Einige Autofokus-Systeme bieten die Option Mehrfeldmessung an, das heißt sie prüfen das Bild nicht nur in der Mitte, sondern an verschiedenen Stellen des Bildes, vor allem auch am Rand. Hier ist eine manuelle Fokussierung unter Umständen nicht notwendig, falls sich das Motiv außerhalb der Mitte befindet. Es werden allerdings auch wieder Objekte im Vordergrund bevorzugt, was auch wieder zu Problemen führen kann, wenn seitlich vorn neben dem eigentlichen Hauptmotiv ein Objekt vom Autofokus als relevanter eingestuft wird.

Manueller Fokus[Bearbeiten]

Da der Autofokus nicht immer die optimale Schärfeebene bestimmen kann, ermöglichen fast alle Kameras auch eine manuelle Einstellung. Der passive Autofokus orientiert sich vor allem an der Bildmitte und an Objekten im Vordergrund; ein Objekt das nicht mittig ist und sich womöglich im Hintergrund befindet, wird von dem Autofokus oft nicht als Hauptmotiv erkannt und damit nicht fokussiert. Hier ist die Verwendung des Manuellen Fokus (MF) zu empfehlen.

Die meisten Kameras bieten einen einfachen Weg zur quasi-manuellen oder teilweise manuellen Fokussierung: Man richtet die Kamera mittig auf das Objekt, das man gern scharf haben möchte und die Kamera wird dieses Objekt scharf darstellen (unter Verwendung des Autofokus). Nun drückt man den Auslöser halb nach unten und die Schärfeeinstellungen werden gespeichert (AF-Speicherung). Man kann nun die Kamera beliebig schwenken, die Schärfeeinstellung bleibt jedoch erhalten solange man den Auslöser halb gedrückt lässt (jedoch meist auch die Belichtungseinstellung, falls diese automatisch geschieht). Dieses Verfahren funktioniert jedoch nicht, wenn die Automatische Schärfenachführung der Kamera aktiviert ist (siehe vorheriger Abschnitt).

Einige Kameras bieten auch im rein manuellen Modus eine Hilfe an, indem sie während der manuellen Einstellung signalisieren, wenn der Autofokus die Situation für scharf hält. Die von Kameras ohne Autofokus gut bekannten Hilfsmittel Schnittbildindikator und Mikroprismenring sind bei Kameras mit Autofokus nicht mehr anzutreffen. Spiegelreflexkameras bieten dafür oft auf der gesamten Mattscheibe Mikroprismen an, um die Scharfstellung zu erleichtern. Im 'LiveView' oder allgemein bei Scharfstellung über den Bildschirm der Kamera kann zumeist eine Vergrößerung des zentralen Bereiches als Hilfe zur Fokussierung verwendet werden.

Wer öfter manuell fokussieren will, sollte vor dem Kauf besonders bei Kompaktkameras und Bridge-Kameras mit fest eingebauten Objektive gut ausprobieren, wie effektiv dies ist. Sofern für die manuelle Fokussierung der gleiche Schneckenvortrieb wie für den Autofokus verwendet wird, kann man den Fokus zwar mit großer Stelltoleranz einstellen, allerdings dauert es auch recht lange, bis man die Fokussierung auf den gewünschten Entfernungsbereich eingestellt hat, was dann für den praktischen Einsatz nicht sehr sinnvoll ist.


Die Schärfentiefe[Bearbeiten]

Grundlagen[Bearbeiten]

Beispiel für geringe Schärfentiefe - nur ein schmaler Streifen erscheint scharf.

Die Schärfentiefe ist der (vertikale) Bereich eines Photos, der für den Menschen scharf erscheint. Oft möchte man, dass dieser Bereich groß ist, möglichst unendlich - das Bild soll von vorn bis hinten scharf erscheinen. Das betrifft vor allem die Landschaftsphotographie.

Konzentriert man sich jedoch auf ein ganz bestimmtes Motiv, etwa eine Person, ein Tier, einen bestimmten Gegenstand etc., so ist oft eine geringe Schärfentiefe gewünscht - nur das Motiv selbst soll scharf sein, der Hintergrund soll unscharf wirken, um das Motiv hervorzuheben, beziehungsweise um nicht vom Motiv abzulenken. Manchmal ist ein verschwommener Hintergrund auch insofern notwendig, wenn Motiv und Hintergrund eine ähnliche oder gar gleiche Farbe besitzen, etwa ein Schneemann vor einer weißen Hauswand - ohne einen stark verschwommenen Hintergrund würde der Schneemann eventuell kaum erkannt werden. Ein unscharfer Hintergrund oder Vordergrund bietet sich auch dann an, wenn dieser allgemein uninteressant oder unschön ist. In diesen Fällen ist also oft eine geringere Schärfentiefe gewünscht. Das gezielte Reduzieren der Schärfentiefe nennt man auch Selektivschärfe.

Schematische Darstellung der Tiefenschärfe (Depth of Field)

Bei den normalen, verkleinernden Abbildungen reicht die Schärfentiefe etwa doppelt soweit hinter die Schärfeebene wie davor. Wird etwa auf 5 Meter fokussiert, so könnte die Schärfentiefe zum Beispiel von 4,5 bis 6 Meter oder 4 bis 7 Meter reichen. Das sind natürlich nur grobe Richtwerte, man kann somit aber etwa ausrechnen, auf welche Distanz man fokussieren sollte, wenn man einen bestimmten Bereich scharf abbilden möchte. Befindet sich das Motiv also zwischen 4 und 7 Metern (zum Beispiel ein Klettergerüst), sollte man etwa auf 5 Meter fokussieren, damit es gleichmäßig im Bereich der Schärfentiefe liegt (diese muss dann aber auch wenigstens 3 Meter umfassen, sonst würde der vordere und hintere Teil bereits unscharf wirken). Sollen 2 Gegenstände scharf abgebildet werden, der eine in 4 Metern Entfernung und der andere in 7 Metern Entfernung, so sollte man ebenfalls auf etwa 5 Meter fokussieren. Dies ist ein recht wesentlicher Punkt in der Photographie - sollen 2 unterschiedlich weit entfernte Objekte scharf dargestellt werden, darf die Schärfeebene nicht auf einem der Motive liegen, sondern dazwischen (auch wenn dort vielleicht nichts Spannendes zu sehen ist). Wie bereits beschrieben, wird dies zumeist den Autofokus überfordern, der die Absichten des Photographen nicht verstehen kann, man muß also damit entweder ein Objektiv in richtigen Abstand fokussieren lassen oder den Autofokus abschalten.

Gezieltes Vermindern der Schärfentiefe wird vor allem eingesetzt, um ein bestimmtes Motiv hervorzuheben.

Ab einer bestimmten Blendenzahl und Brennweite wird die Schärfentiefe unendlich, das heißt alles vom Vordergrund bis in den Hintergrund erscheint scharf. Das menschliche Auge zusammen mit dem Gehirn hat einen enorm großen Eindruck von Schärfentiefe, weil der Fokus immer wieder variiert wird und daraus erst im Gehirn ein Gesamtergebnis bestimmt wird. Ein realistisch wirkendes Bild sollte daher ebenfalls einen hohen Grad an Schärfentiefe aufweisen. Bilder mit geringer Schärfentiefe haben hingegen oft einen sehr künstlerischen Effekt; das bewusste Reduzieren von Schärfentiefe besitzt in der Photographie daher neben dem Fokussieren oft eine hohe Bedeutung.

Die Schärfentiefe ist von 3 wesentlichen Faktoren abhängig:

  • Blende
  • Objektivbrennweite
  • Abbildungsmaßstab (Entfernung zum Motiv)

Mit diesen drei Parametern kann man die Schärfentiefe also gewissermaßen regulieren, wobei für extreme Anpassung mehr als ein Parameter geändert werden muss. Man muss zudem beachten, dass Obkjektivbrennweite, Entfernung und Abbildungsmaßstab eindeutig zusammenhängen.

Bildet man ein Objekt formatfüllend ab oder stellt es im gleichen Abbildungsmaßstab, also in gleicher Größe auf einem Bild dar, so fallen allerdings viele Parameter näherungsweise weg. Diese Näherung gilt recht gut, solange der Bereich der Schärfentiefe sich nicht bis unendlich erstreckt. Unter den Bedingungen ist schlicht die Schärfentiefe proportional zur Blendenzahl und aufgrund der Wahl des immer gleichen Abbildungsmaßstabes unabhängig von der Brennweite oder der Entfernung oder der Größe des Bildsensors. All diese Parameter werden dann implizit dadurch festgelegt, dass man einen festen Abbildungsmaßstab gefordert hat. Nimmt man zum Beispiel das Portrait einer Person (also jeweils den gleichen Bildausschnitt) mit verschiedenen Kamerasensoren und Objektivbrennweiten auf, verwendet aber immer dieselbe Blendenzahl, so ist das Ergebnis hinsichtlich der Schärfentiefe immer das gleiche. Je nach Sensor und Brennweite ändern sich nur jeweils Aufnahmeabstand und Bildwinkel dramatisch - die Bildwirkung ändert sich also, nicht aber die Schärfentiefe.

Die Bedeutung der Blende[Bearbeiten]

Für die Blende gilt: Je größer der Blendenwert, umso größer die Schärfentiefe. In der Landschaftsphotographie photographiert man klassischerweise mit Blende 8 oder höher; da die Blende aber eben nicht der einzige beeinflussende Faktor ist, kann man auch mit Blendenzahl 4 oder weniger ein hohes Maß an Schärfentiefe erzeugen. Für Porträtaufnahmen werden gern kleine Blendenzahlen wie 2 oder 2,8 verwendet.

Bei großen Blendenwerten kommt es allerdings irgendwann zu sichtbaren Beugungseffekten. Zwar wird die Schärfentiefe bei weiterem Abblenden immer noch größer, die gesamte Schärfe des Bildes nimmt aber gleichmäßig ab. Je kleiner die Pixelabstände der Kamera sind, desto eher machen sich die Beugungseffekte in der Aufnahme bemerkbar. Auch bei starken Vergrößerungen treten die Beugungseffekte deutlicher hervor, weswegen es notwendig sein kann, bei starker Vergrößerung weiter aufzublenden.

Die Blende wird oft als Hauptparameter zum Erzeugen beziehungsweise Reduzieren von Schärfentiefe gesehen; das Ändern der Blende hat lediglich Einfluss auf die Belichtungszeit, während das Ändern von Abbildungsmaßstab und Brennweite ein anderes Bild erzeugen, was man oft nicht möchte. Da Digital-Kompaktkameras jedoch allgemein eine hohe Schärfentiefe bieten und die einfachen Objektive meist nur über einen geringen Blendenbereich verfügen (zum Beispiel von 2,8 bis 5,6), ist hier eventuell die Objektivbrennweite von größerem Interesse. Aufgrund der kleinen Pixelabstände sind aufgrund der Beugungseffekte größere Blendenzahlen auch gar nicht sinnvoll. Die recht kompakten Kameras bieten allerdings meist auch keine lichtstarken Objektive, mit denen man Blendenzahlen wie 1.0 oder 1.4 wählen könnte, um Bilder mit selektiver Schärfe zu realisieren. Große Blendenbereiche erschließen sich so oft erst mit Spiegelreflexkameras mit Kleinbildformat oder Mittelformat.


Die Bedeutung der Objektivbrennweite[Bearbeiten]

Für die Schärfentiefe ebenfalls von hoher Bedeutung ist die Brennweite, speziell die Objektivbrennweite (der Formatfaktor hat nur geringe Bedeutung). Hier gilt: Je kleiner die Objektivbrennweite, umso größer die Schärfentiefeeindruck. Die genaue Rechnung zeigt allerdings, dass bei gleichem Bildausschnitt die Schärfentiefe in Metern nahezu unabhängig von der Brennweite ist.

Nimmt man mit einer Kamera ein Photo im Weitwinkel auf, weist dies aufgrund des anderen Bildausschnittes eine höhere Schärfentiefe auf als mit Telewinkel. Mit zunehmend langen Brennweiten sinkt die Schärfentiefe jedoch drastisch ab. Die Verwendung großer Brennweiten ist bei Kompakt-Digitalkameras daher oft ein wirkungsvolleres Mittel zum Reduzieren der Schärfentiefe.

Ein Beispiel: Personen und auch viele andere Motive werden gern im Telewinkel aufgenommen, oft zwischen 100 und 200 mm Brennweite. Das reduziert die Schärfentiefe (nur die Person wirkt scharf, der Hintergrund verschwimmt) und das Gesicht erscheint weicher. Der Effekt hängt bei gleicher Abbildungsgröße des Hauptmotivs vorrangig damit zusammen, dass mit dem Weitwinkel im Hintergrund viele Details des Hintergrundes sichtbar werden, die deutlich neben dem Hauptmotiv liegen. Beim Teleobjektiv ist im Hintergrund hingegen nur ein sehr kleiner Teil der Umgebung grob hinter dem Motiv abgebildet, welcher im Idealfalle also recht weit weg ist und somit zumeist hinreichend unscharf.

Kompakt-Digitalkameras verwenden heute meist sehr kleine Bildsensoren und haben entsprechend niedrige Brennweiten. Diese liegen oft zwischen 5 und 10 mm im Weitwinkel und sind damit noch um ein vielfaches geringer als beim klassischen Kleinbildformat. Entsprechende Objektive für das Kleinbildformat sind Fischaugenobjektive oder Superweitwinkelobjektive, die die gleiche Schärfentiefe bieten, auf den großen Sensoren aber auch viel mehr von der Szenerie vor dem Objektiv abbilden, im Falle des Fischaugenobjektives gar alles vor dem Objektiv.

Digitalkameras besitzen also von Haus aus eine sehr große Schärfentiefe, auch wenn die Pixelanordnung beziehungsweise der Pixelabstand der kleinen Sensoren der Schärfentiefe ein wenig entgegenwirken kann. Für Landschafts- und Alltagsaufnahmen ist das oft erfreulich. Wenn man jedoch bewusst Unschärfe erzeugen möchte, hat man es mit Kompaktkameras entsprechend schwer, insbesondere weil man nicht einfach zu einem lichtstarken Objektiv wechseln kann, welches man weit genug aufblenden kann, um gezielt selektive Schärfe einzusetzen.

Im Gegensatz dazu haben Mittel- und Großformatkameras die Möglichkeit, sehr lichtstarke Objektive einzusetzen und damit die Möglichkeit einer geringen Schärfentiefe. Man sieht oft, dass Reporter relativ sperrige Kameras mit großen (und vor allem langen) Objektiven bei sich haben. Damit gelingt ihnen die Selektivschärfe besser als mit Kompaktkameras - Personen werden sehr scharf dargestellt und bereits ein unweit entfernter Hintergrund wirkt unscharf. Einen solches Effekt wird man mit einfachen Kompaktkameras nicht erzeugen können.


Die Bedeutung des Abbildungsmaßstabs[Bearbeiten]

Die Schärfentiefe nimmt ab, je weiter man sich einem Objekt nähert, das heißt umso geringer der Abstand zwischen Kamera und fokussiertem Motiv ist. Je geringer der Abstand ist, umso größer ist dann auch der Abbildungsmaßstab. Der Abbildungsmaßstab wird natürlich auch durch das Verlängern der Brennweite größer - insofern stehen Abbildungsmaßstab und Brennweite in einem gewissen Bezug.

Bei Kompaktkameras mit Zoomobjektiv ist allerdings meist auch die Naheinstellgrenze von der Brennweite abhängig, man kann also mit langer Brennweite nur weiter entfernte Objekte scharfstellen. Gewöhnlich ergibt sich dabei dann der größte Abbildungsmaßstab bei der kleinsten Brennweite. Dies kann sich recht ungünstig auf das Bildergebnis auswirken. Will man etwa eine Blume auf der Fensterbank aufnehmen, so ist bei einer Kompaktkamera aufgrund der kleinen Brennweite oft noch das ganze Fenster, der Vorgarten und die Straße erkennbar - das Bild wirkt also belanglos und unbrauchbar. Sofern ein Filtergewinde vorhanden ist, kann hier dem Besitzer der Kompaktkamera eine (achromatische) Nahlinse weiterhelfen, um nicht nur die Blume größer abzubilden, sondern auch den Hintergrund in Unschärfe verschwimmen zu lassen.

Bei Systemkameras oder Spiegelreflexkameras kann man hingegen einfach ein Makroobjektiv geeigneter Brennweite verwenden. Dabei handelt es sich meist um ein Teleobjektiv, damit der Aufnahmeabstand etwas größer ist und unwichtiger Hintergrund nicht den Bildeindruck dominiert. Mit der Blende wird dann die gewünschte Schärfentiefe eingestellt.


Zusammenfassung[Bearbeiten]

Für die Erhöhung der Schärfentiefe gibt es folgende Möglichkeiten:

Methode Mögliche Probleme
Blendenzahl erhöhen Führt zu längeren Belichtungszeiten. Bei ungünstigen Lichtverhältnissen könnte das Bild verwackeln beziehungsweise ein Stativ wird benötigt. Zudem haben viele Kompaktkameras nur wenig Spielraum, was die Wahl der Blende betrifft.

Haben sie Spielraum, so werden schnell Beugungseffekte bemerkbar, welche die Gesamtschärfe reduzieren.

Brennweite vermindern / Entfernung zum Motiv erhöhen Mehr vom Bild wird sichtbar, der Bildausschnitt ändert sich. Sehr viel vom eventuell störenden Hintergrund wird sichtbar.


Für die Verminderung der Schärfentiefe gibt es folgende Möglichkeiten:

Methode Mögliche Probleme
Blendenzahl vermindern Führt zu geringeren Belichtungszeiten. Bewegung lässt sich schlechter darstellen, die minimale Belichtungsdauer der Kamera könnte an sehr hellen Tagen überschritten werden, daher kann es notwendig sein, einen Graufilter zu verwenden. Zudem haben viele Kompaktkameras nur wenig Spielraum, was die Wahl der Blende betrifft, die Objektive sind also nicht lichtstark genug.
Brennweite erhöhen / Entfernung zum Motiv vermindern Weniger vom Bild wird sichtbar, der Bildausschnitt ändert sich.

Belichtung[Bearbeiten]

Einführung[Bearbeiten]

Die Belichtung eines Photos ist der zentrale Bereich des Photographierens. Sie geschieht, indem für einen kurzen Augenblick der Verschluss des Objektivs geöffnet wird und Licht auf den lichtempfindlichen Film oder den lichtempfindlichen Kamerasensor trifft. Je mehr Licht dabei durch das Objektiv auf den Sensor trifft, umso heller wird das Bild am Ende, aber natürlich ist dies im Wesentlichen davon abhängig, wieviel Licht überhaupt vorhanden ist.

Nur bei korrekter Belichtung entsteht auch ein korrekt belichtetes Photo - im anderen Fall wird es zu hell oder zu dunkel (beziehungsweise im Extremfall weiß oder schwarz) sein. Photos, die zu kurz belichtet wurden und daher zu dunkel sind, nennt man unterbelichtet. Photos, die zu lange belichtet wurden und daher zu hell sind, nennt man überbelichtet.

Die Belichtungszeit ist ein wesentliches Merkmal zur Steuerung der Belichtung eines Photos. In der Dämmerung wird sie länger sein, denn nur wenig Licht ist vorhanden. An hellen Sommertagen wird sie kürzer sein, da viel Licht vorhanden ist und ein Photo in Bruchteilen einer Sekunde bereits belichtet wird. Die korrekte Belichtung eines Photos ist jedoch von insgesamt vier Parametern abhängig.

Folgende Größen haben Einfluss auf die (korrekte) Belichtungsdauer eines Photos:

  • Vorhandene Lichtintensität
  • Verschlusszeit (Belichtungsdauer)
  • Blende
  • Lichtempfindlichkeit von Film oder Sensor (ISO-Wert)


Hierbei gilt folgendes (bei konstanter Lichtintensität):

  • Je länger die Verschlusszeit, umso heller das Bild.
  • Je kleiner der Blendenwert, umso heller das Bild.
  • Je größer die Lichtempfindlichkeit, umso heller das Bild.


Übrigens: Bei Zoomobjektiven von Kompaktkameras kann auch die Brennweite die Belichtung eines Photos ebenfalls zu einem bestimmten Grad beeinflussen. Mit zunehmend großen Brennweiten steigt bei einigen Zoomobjektiven nämlich die minimal verwendbare Blendenzahl. Bei sehr langen Brennweiten ist dann die Wahl einer sehr kleinen Blendenzahl nicht möglich. Zudem nimmt mit zunehmender Brennweite die Verwacklungsgefahr zu - unabhängig von der Verschlusszeit. Darauf wird später aber noch ausführlicher eingegangen.

Die Elemente der Belichtung[Bearbeiten]

Lichtintensität[Bearbeiten]

Das vom Motiv kommende Licht bestimmt natürlich hauptsächlich, wie eine korrekte Belichtung vorzunehmen ist. In vielen Fällen verwendet der Photgraph das vorgefundene Licht. Er kann jedoch auch mit Schirmen und Reflektoren die Lichtverhältnisse ändern, indem er mehr oder weniger Licht auf das Motiv fallen läßt. Mit Lampen und Blitzgeräten können auch weitere Lichtquellen hinzugefügt werden, die der Photograph gezielt kontrollieren kann.

So oder so ändert sich die Lichtintensität. Das vom Motiv in die Kamera fallende Licht ist also zu messen oder im Falle eigener Lichtquellen gezielt einzustellen, um eine korrekte Belichtung durchführen zu können.


Verschlusszeit[Bearbeiten]

Die Verschlusszeit (auch Belichtungsdauer, Belichtungszeit) gibt an, wie lange das Bild belichtet wird. Sie wird in Sekunden angegeben und meist als Bruch dargestellt, zum Beispiel 1/250 Sekunde. Je länger die Verschlusszeit ist, umso heller wird das Bild. Wird die Verschlusszeit bei zeitlich konstanter Lichtintensität verdoppelt, fällt während der Belichtung doppelt soviel Licht auf den Sensor. Die meisten Kameras bestimmen die Verschlusszeit heute automatisch, viele Modelle (jedoch längst nicht alle) bieten dem Photographen aber auch eine manuelle Einstellung der Belichtungsdauer. Für kreatives und experimentelles Photographieren ist dies ein besonderer Vorzug.

In der Photographie gibt es eine Reihe von typischen einstellbaren Belichtungsdauern, die man als Quasi-Standard bezeichnen könnte. Diese sind typischerweise 1/4000, 1/2000, 1/1000, 1/500, 1/250, 1/125, 1/60, 1/30, 1/15, 1/8, 1/4, 1/2, 1, 2, 4, 8, 15, 30, 60 Sekunden und werden als "Volle Schritte" bezeichnet. Spezialkameras bieten auch Stufen oberhalb beziehungsweise unterhalb dieser Werte, zum Beispiel 1/16000 Sekunde für extrem kurze Belichtung oder mehrere Minuten oder gar Stunden für extreme Langzeitbelichtung. Zudem gibt es meist einen 'bulb'-Modus, bei dem der Verschluß so lange geöffnet bleibt, bis man ihn wieder schließt. Dies kann man dann im Bedarfsfalle auch mit externen Geräten steuern, um auch lange Belichtungszeiten einstellen zu können, wenn die Kamera selbst diese Einstellmöglichkeit nicht mehr bietet.

Wie man sieht, verdoppelt jede Stufe die Belichtungsdauer des Vorgängers. Viele Kameras, die eine manuelle Belichtung erlauben, bieten dem Photographen aber auch eine deutlich feinere Abstufung an (zum Beispiel Drittelstufen: 1/1000, 1/800, 1/640, 1/500, 1/400, 1/320, 1/250, 1/200, 1/160, 1/125, 1/100, 1/80, 1/60, 1/50, 1/40, 1/30, 1/25, 1/20, 1/15, 1/13, 1/10, 1/8, 1/6, 1/5, 1/4 etc.); die vollen Stufen sind aber, wie zu erkennen ist, immer in dieser Reihe enthalten. Im Automatik-Modus kann die Kamera zudem auch eine willkürliche Verschlusszeit verwenden, etwa 1/409 Sekunde.

Je kleiner die Verschlusszeit ist, umso geringer ist die Gefahr des Verwackelns. Für scharfe Bilder werden daher stets geringe Verschlusszeiten angestrebt, insbesondere wenn sich das Motiv bewegt und scharf abgebildet werden soll. Lange Belichtungszeiten bieten sich an, um gezielt Bewegung darzustellen.

Ist die Lichtintensität während der Aufnahme nicht konstant, etwa bei einem Einsatz eines Blitzgerätes, sind die Zusammenhänge natürlich etwas komplizierter. Sofern keine anderen Lichtquellen vorhanden sind, kann man etwa mit Blitzgeräten deutlich kürzere Belichtungszeiten erreichen als mit dem Kamera-Verschluss, was unter anderem auch dazu genutzt werden kann, um Bewegungen einzufrieren, die schneller sind, als man mit der kürzesten Verschlusszeit der Kamera einfrieren kann.

Blende[Bearbeiten]

Die Blende ist eine Öffnung im Objektiv. Sie kann für gewöhnlich unterschiedlich weit geöffnet werden. Wird sie weit geöffnet, fällt in einer Zeiteinheit viel Licht auf Film oder Sensor. Wird sie nicht so weit geöffnet, fällt weniger Licht ein. Die Blende bestimmt damit ebenfalls die Belichtungsdauer.

Größenverhältnis einiger Blendenwerte.

Wie bei der Belichtungsdauer gibt es auch für die Blende eine Größe. Diese heißt Blendenwert oder Blendenzahl, was leider oft mit dem Wort "Blende" abgekürzt wird und daher für Verwirrung sorgen kann. Die Blendenzahl ist das Verhältnis der Brennweite zum effektivem Durchmesser des Objektivs. Mit effektivem Durchmesser ist dabei der gemeint, durch den das Licht durch das Objektiv auf den Sensor fällt, nicht etwa der Außendurchmesser des Objektivs. Weil die offene Fläche quadratisch mit dem Durchmesser ansteigt, die einfallende Lichtmenge aber proportional zur offenen Fläche ist, bedeutet dies also, dass mit doppelter Blendenzahl ein Viertel der Lichtmenge auf den Sensor gelangt.

Unter dem Begriff Blende versteht man in der Alltagssprache somit zwei Dinge: Das Bauteil selbst sowie den Grad der Öffnung (also den Wert).

Zudem muss folgendes beachtet werden: Eine weit geöffnete Blende (viel Licht fällt ein) hat einen kleinen Blendenwert. Eine nur wenig geöffnete Blende (wenig Licht fällt ein) hat einen großen Blendenwert. Spricht man von einer großen Blende (Blende 8 oder höher), bedeutet dies also, dass die Blende nur wenig geöffnet wird und nur wenig Licht hineinfällt. Spricht man von kleinen Blenden (Blende 2,8 oder weniger), ist die Blende weit geöffnet und viel Licht gelangt durch das Objektiv.

Es gilt damit folgendes bei konstanter Lichtintensität: Je größer der Blendenwert, umso länger die Belichtungszeit zur korrekten Belichtung des Photos. Je kleiner der Blendenwert, umso kürzer die Belichtungszeit.

Wie bei den Verschlusszeiten, gibt es ebenfalls "normierte" Blendenwerte . Oft werden volle Schritte verwendet: f/1, f/1,4, f/2, f/2,8, f/4, f/5,6, f/8, f/11, f/16, f/22, f/32, f/45. Dies ist die offizielle Schreibweise, wie man Blenden angibt, zumeist verwendet man aber einfach nur die Zahl. Das f verweist auf den Zusammenhang mit der Brennweite. So sagt man in der Alltagssprache oft "Blende 8" und meint damit f/8.

Die Blendenzahl sagt also aus, wie groß der effektive Durchmesser der Linse ist, das heißt der Bereich, an dem Licht hineinfällt. Dieser lässt sich aus Objektivbrennweite (f) und Blendenzahl berechnen. Ein Beispiel: Die Objektivbrennweite beträgt 10 mm und es wird Blendenzahl f/2 verwendet. Der Wert f/2 sagt bereits, wie man rechnet: 10 mm / 2 = 5 mm. Verwendet man Blendenzahl 4, so hat man einen effektiven Durchmesser von 10 mm / 4 = 2,5 mm. Bei Blendenzahl 8 wären es nur noch 1,25 mm. Das heißt also: Verdoppelt sich die Blendenzahl, so halbiert sich der Durchmesser der Blende, die einfallende Lichtmenge reduziert sich auf ein Viertel.

Objektiv einer Kamera, einmal mit weit geöffneter Blende (2,8) und einmal mit wenig geöffneter Blende (16).

Bezüglich der Belichtung gilt also folgendes: Erhöht man den Blendenwert um eine Stufe (zum Beispiel von 2,8 auf 4), so muss die Belichtungsdauer verdoppelt werden, um das Photo auf gleiche Weise zu belichten. Ein Beispiel: Man möchte eine Landschaft bei Blendenzahl 2,8 aufnehmen. Die Belichtung scheint optimal bei einer Verschlusszeit von 1/1000 Sekunde. Stellt man die Blendenzahl jetzt jedoch auf 4 (nächste Blendenstufe), um zum Beispiel mehr Schärfentiefe zu erzeugen, so muss man die Belichtungsdauer auf 1/500 senken. Das Bild würde dann genauso belichtet werden, wie mit der alten Blendenzahl bei 1/1000 Sekunde Belichtungszeit. Würde man jetzt die Blendenzahl sogar auf 8 stellen, so wäre eine Belichtungsdauer von 1/125 Sekunde notwendig.

Die Verwendung von vollen Blendenzahlen ist relativ grob, so dass viele Kameras zur feineren Abstufung halbe Blendenstufen verwendet oder gar Drittelstufen. Halbe Blendenstufen sind: f/1,0, f/1,2 f/1,4, f/1,7, f/2, f/2,4, f/2,8, f/3,4, f/4,0, f/4,8, f/5,6, f/6,7, f/8, f/9,5, f/13, f19, ...

Drittelstufen sind noch feiner: Hier liegen 2 Abstufungen zwischen den vollen Blenden. Die Stufen sind f/1, f/1,1, f/1,2, f/1,4, f/1,6, f/1,8, f/2, f/2,2, f/2,5, f/2,8, f/3,2, f/3,5, f/4, f/4,5, f/5, f/5,6, f/6,3, f/7,1, f/8, f/9, f/10, f/11, f/13, f/14, f/16, f/18, f/20, f/22, ...

Wichtig ist dabei eigentlich nur, dass man die vollen Stufen kennt und weiß, dass jede weitere volle Stufe die Belichtungszeit verdoppelt (wobei zum Beispiel ein Übergang von f/3,2 nach f/4,5 auch einem vollen Schritt entspricht).

Jedes Objektiv hat einen bestimmten Blendenbereich, also einen Bereich mit verfügbaren Blenden, welche zur Belichtung eingesetzt werden können. Bei Digital-Kompaktkameras ist dieser oft relativ gering, etwa zwischen 2,8 und 5,6 oder bei etwas größeren Pixeln von 2,8 und 8. Mit vielen in Kompaktkameras eingebauten Objektiven erhöht sich mit zunehmender Brennweite auch die minimale mögliche Blendenzahl, da die kleinsten Blendenzahlen bei langen Brennweiten (also weit ausgefahrenem Objektiv) nicht mehr angewendet werden können. Ist die kleinste Blendenzahl beispielsweise 2,8 im Weitwinkel, so ist sie bei maximaler Brennweite (Telewinkel) vielleicht 4,5; auch wenn sich die Blendenzahl also bis 2,8 öffnen lässt, ist dies im Telewinkel nicht möglich.

Unter der Lichtstärke des Objektivs versteht man, wie viel Helligkeit des Motivs auf den Sensor beziehungsweise Film übertragen werden kann - sie entspricht der minimalen Blendenzahl ("Anfangsblendenzahl") und wird mit 1/b angegeben, wobei b die Blendenzahl ist. Da die meisten Objektive von Kompaktkameras eine dynamische Brennweite besitzen und die Anfangsbrennweite somit variiert, wird die Lichtstärke als Bereich angegeben. In dem obigen Beispiel würde die Lichtstärke mit 1/2.8 - 1/4.5 angegeben werden. Unter lichtstarken Objektiven versteht man dabei Objektive mit großer Lichtstärke, zum Beispiel 1/2 bis etwa 1/1. Nur sehr selten gibt es Objektive, die eine Anfangsblendenzahl kleiner als 1 haben.

Hinweis: Die Blendenzahl hat nicht nur Einfluss auf die Belichtungsdauer, sondern auch auf die Schärfentiefe (siehe Abschnitt "Fokussierung"). Dies sollte bei der Belichtung berücksichtigt werden.

Lichtempfindlichkeit (ISO-Wert)[Bearbeiten]

Die Lichtempfindlichkeit (ISO-Wert, früher auch DIN und ASA) gibt an, wie lichtempfindlich ein Film ist, das heißt wie schnell er bei gegebener Lichtmenge belichtet wird. Bei einer hohen Lichtempfindlichkeit wird er schneller belichtet als bei einer niedrigen Lichtempfindlichkeit. Man kann das etwa mit Personen vergleichen, die weniger oder mehr sonnenempfindlich sind – manche bekommen bereits nach wenigen Minuten einen Sonnenbrand (sehr empfindlich), andere erst nach längerer Zeit (weniger empfindlich).

Die Lichtempfindlichkeit wird als ISO-Wert bezeichnet, wobei ISO-100 oft als normalempfindlich gesehen wird. Je größer der Wert ist, umso empfindlicher ist er. Die Werte werden meist verdoppelt, das heißt ISO-200, ISO-400, ISO-800, ISO-1600, ISO-3200 und ISO-6400. Unterhalb von ISO-100 sind ISO-50 und ISO-25 erwähnenswert. ISO-12 und ISO-6 werden selten verwendet.

Bei doppeltem ISO-Wert ist nur halb soviel Licht für einen korrekte Belichtung notwendig.

Bei älteren Kameras findet man auch die Bezeichnung ASA, was daran liegt, dass eine ursprünglich amerikanische Norm (ASA) als internationaler Standard (ISO) übernommen wurde.

Die inzwischen weniger gebräuchliche Norm der DIN verwendet ein ähnliches Wertesystem. Hierbei bezeichnet der Wert 21° die Lichtempfindlichkeit von ISO-100 und 3° mehr bedeutet jeweils die Verdopplung der Empfindlichkeit. Entsprechend bedeuten 3° weniger die Halbierung der Empfindlichkeit.

ISO 25 ISO 50 ISO 100 ISO 200 ISO 400 ISO 800 ISO 1600 ISO 3200
15° 18° 21° 24° 27° 30° 33° 36°


Die meisten Digitalkameras bieten auch das manuelle Einstellen des ISO-Werts an. Das erscheint auf den ersten Blick möglicherweise kurios, da Digitalkameras keinen Film verwenden. Tatsächlich arbeitet der Kamerasensor jedoch ähnlich wie ein Film und kann ebenso eine bestimmte Lichtempfindlichkeit besitzen – die Wirkung ist hierbei sogar der Wirkung des Films recht ähnlich. Anders als bei Filmen, verwenden Kameras oft auch untypische ISO-Werte wie ISO-80 oder ISO-150.

Die Wahl einer hohen Lichtempfindlichkeit hat natürlich den Vorteil, dass die Verschlusszeit damit vermindert wird (das Bild wird schneller belichtet, da der Film empfindlicher ist). Manchmal kann ein hoher ISO-Wert also dafür sorgen, dass man in der Dämmerung noch ohne Stativ Fotos verwacklungsfrei photographieren kann, was mit einem niedrigen ISO-Wert nicht mehr möglich ist. Ein hoher ISO-Wert führt aber insbesondere in der Dämmerung und Nacht zu einem verstärkten Bildrauschen, oft schon ab ISO-400. Das Rauschen wirkt manchmal wie eine unregelmäßige Verpixelung, als ob das Photo in sehr kleiner Auflösung aufgenommen wurden wäre; es bilden sich mehr oder weniger große Flecken, die sehr unschön wirken. Solches Bildrauschen ist ärgerlich und kann bei stärkerer Ausprägung das gesamte Photo zerstören. Man kann geringes Rauschen aber oft recht effektiv mit Bildbearbeitungsprogrammen reduzieren, insbesondere wenn nur ein bestimmter Teil des Bildes (zum Beispiel Himmel) betroffen ist. Oft findet man im Handbuch Hinweise, welche Empfindlichkeit optimal für den Sensor ist. Bei höheren Empfindlichkeiten ist dann verstärkt mit Rauschen zu rechnen. Niedrigere Empfindlichkeiten werden hingegen gegebenenfalls noch vorhandenres Rauschen nicht in dem Maße reduzieren, wie eine Erhöhung der Empfindlichkeit das Rauschen erhöht. Die niedrigen Empfindlichkeiten können aber bei sehr hellen Motiven helfen, eine gewünschte Kombination von Blendenzahl und Verschlußzeit einstellen zu können. Im Zweifelsfall sollte der ISO-Wert also auf den optimalen Wert oder darunter eingestellt sein und bei wenig Licht eine andere Möglichkeit (längere Verschlusszeit, kleinere Blende, Stativ/Ablage) in Betracht gezogen werden.

Der optimale Wert hängt stark von der Pixelgröße und von der im Sensor verbauten Technik ab. Während bei kleinen Pixeln von Kompaktkameras vielleicht ISO-80 oder ISO-100 optimal sind, ist dies vielleicht bei modernen Kleinbildformatkameras mit relativ großen Pixeln eher ISO-400 oder ISO-800.



Zusammenfassung[Bearbeiten]

Die Belichtung ist von den vier vorgestellten Parametern abhängig, wobei man jedoch meist mit Blendenzahl und Belichtungszeit arbeitet. Das liegt auch daran, dass die allermeisten Kameras keine Automatikfunktion haben, bei der Blendenzahl und Belichtungszeit vorgewählt werden können, wonach dann die Empfindlichkeit von der Kamera passend eingestellt wird. Aufgrund dieses Mangels ist der ISO-Wert bei Digitalkameras eher ein "Joker", den man verwenden kann, wenn man mit Blende und Belichtungszeit allein nicht weiterkommt; bei analogen Kameras kann man den ISO-Wert ohnehin nicht uneingeschränkt ändern; man muss sich beim Kaufen des Films für einen ISO-Wert entscheiden und diesen dann (während des Photographierens) akzeptieren.

Ist B die Blendenzahl, T die Verschlußzeit, E die Empfindlichkeit und L ein Maß für jene Lichtintensität, die zu einer korrekten Belichtung führt, so ergibt sich als Gleichung:

L = T E / B²

Man kann die Belichtung also über die drei erläuterten Parameter vornehmen, aber oft lassen sich nicht alle Parameter frei bestimmen, da sie nicht nur zur Belichtung dienen, sondern auch Einfluss auf das Photo haben. Man kann ein Bild beispielsweise mit Blende 11, ISO-50 und 1/4 Sekunde belichten, aber bei solch niedriger Belichtungszeit würde das Photo ohne Stativ verwackeln. Hat man kein Stativ parat, so würde der Photograph versuchen, die Belichtungsdauer zu verkürzen und dafür dann die Blendenzahl zu verkleinern und/oder den ISO-Wert zu erhöhen. Damit wird er aber womöglich an Schärfentiefe einbüßen oder ein verrauschtes Bild riskieren. Bei der Wahl der drei Faktoren muss man also stets Kompromisse eingehen. Um diese wirklich frei wählen zu können, muß man dann zwangsläufig Einfluß auch die Lichtintensität nehmen, was viele besonders professionelle Photographen auch tun, um ihre Bildideen gezielt umzusetzen.

Verwendet man nur das verfügbare Licht, ist die Frage dann oft: "Was ist mir am wichtigsten?" Möchte ich unbedingt Bewegung einfrieren? Dann brauche ich kurze Belichtungszeiten und muss gegebenenfalls eine kleine Blendenzahl verwenden, was zu weniger Schärfentiefe führt. Oder lege ich mehr Wert auf Schärfentiefe? Dann muss ich gegebenenfalls ein leicht verwackeltes Bild in Kauf nehmen. Am meisten Spielraum hat man noch mit dem ISO-Wert, da er nur wenig Einfluss auf das Resultat hat; lediglich das Rauschen bei höheren Werten muss beachtet werden. Sind hingegen sowohl kurze Belichtungsuzeit also auch große Schärfentiefe notwendig und der ISO-Wert ausgereizt, so muss für mehr Licht gesorgt werden, etwa mit zusätzlichen Lampen oder Blitzgeräten.

Die fehlerhafte Belichtung eines Fotos führt nicht immer sofort dazu, dass es ruiniert ist. Die Photographie ist relativ fehlertolerant was Belichtungsfehler angeht, wobei die analoge Photographie auf Negativfilm da mehr Spielraum geboten hat als jene auf Diapositivfilm, was in etwa vergleichbar ist mit den Möglichkeiten guter, technisch ausgereizter digitaler Sensoren. Ein leicht über- oder unterbelichtetes FPhoto kann oft noch mittels Nachbearbeitung korrigiert werden. Dabei stehen die Chancen vor allem gut, wenn das Bild zu dunkel, also unterbelichtet ist. Überbelichtete Photos sind oft schwerer zu beheben, da in den zu hellen Bereichen Konturen verlorengehen können.

Das Histogramm[Bearbeiten]

Das Histogramm ist ein Hilfsmittel, das viele Kameras (und auch die meisten Bildbearbeitungsprogramme) anbieten, um die Belichtung eines Photos beurteilen zu können. Es zeigt dabei auf einer Skala an, wie die Verteilung der dunklen, mittleren und hellen Töne ist. Dazu wird eine Statistik über die vorhandenen Pixel erstellt, welche als Graphik dargestellt wird. Hohe Werte auf der linken Seite bedeuten, dass viele dunkle Töne dominieren, was auf ein unterbelichtetes Photo hindeutet. Hohe Werte auf der rechten Seite weisen hingegen viele helle Stellen hin und das Photo ist vermutlich überbelichtet. Wenn die mittleren Töne dominieren, scheint das Photo hingegen korrekt belichtet zu sein. Je nach Motiv und persönlicher Vorliebe kann es da natürlich recht unterschiedliche Bewertungsmaßstäbe geben. Die 'richtige' Belichtung ist also keine perfekt mit so einem Histogramm objektiv beurteilbare Größe, zumal die Statistik ja über das gesamte Bild erhoben wird, nicht über die vom Photographen als wichtig empfundenen Bereiche. Oft mag sich ein Photograph viel Mühe gegeben haben, etwa mit Spot-Messung oder externem Belichtungsmesser relevante Partien des Bildes in seinem Sinne richtig belichtet zu haben.

Das Histogramm kann also als Unterstützung verstanden werden, wenn man jedoch ausschließlich das Diagramm betrachtet, kann man noch nicht sicher sagen, dass ein Photo wirklich falsch belichtet (das heißt über- oder unterbelichtet) wurde. Am Ende muss der Photograph beim Betrachten des Photos selbst entscheiden, ob es korrekt belichtet wurde. Als grobe Orientierungshilfe ist das Histogramm jedoch allemal geeignet.

Manche Kameras bietet bei der Nachbetrachtung auf dem Monitor auch einen Modus an, bei dem komplett weiße Zonen im Bild anfangen zu blinken - sind das große Bereiche, so liegt dort vermutlich eine Überbelichtung vor, in dem Bild wird man da also auch durch Nachbearbeitung keine Strukturen mehr herausarbeiten können. Dieser minimalistische, aber ortsaufgelöste 'kleine Bruder' dies Histogrammes kann also ebenfalls schnell gute Dienste leisten, zumal die Anzeige direkt im Bild die Interpretation des Histogrammes erübrigt.

Übrigens: Es gibt Szenen, wo das Histogramm scheinbar merkwürdige Werte anzeigt, ohne dass das Photo zwangsläufig falsch belichtet wurde. Treten nur am linken und rechten Rand starke Ausschläge auf und in der Mitte kaum, so kann es sich besipielsweise um eine korrekt belichtete Dämmerungs- oder Nachtaufnahme handeln.


Der Lichtwert[Bearbeiten]

Grundlagen und Bedeutung[Bearbeiten]

Da die Belichtung eines Photos von mehreren Faktoren abhängt, wäre es günstig, man könnte aus diesen Faktoren einen eindeutigen Wert ableiten, der aussagt, wie hell ein bestimmtes Bild in einer bestimmten Situation ist. Die Belichtungsdauer eignet sich hierfür nicht, da sie ja stets von Blende und ISO-Wert abhängig ist.

Der Lichtwert (LW), auch Exposure Value (EV), ist ein solcher Faktor für die vorhandene Lichtintensität. Er kann bei einem korrekt belichteten Bild aus Blende, Belichtungsdauer und Empfindlichkeit berechnet werden.

Grob kann man die Lichtwerte für ein korrekt (!) belichtetes Photo etwa wie folgt deuten:

  • LW ist 0 .. 3: Große Dunkelheit, Nacht
  • LW ist 4.. 7: Dämmerung, wenig Licht
  • LW ist 8 .. 11: Tageslicht mit wenig Licht (bewölkt)
  • LW ist 11 .. 14: Tageslicht mit viel Licht (sonnig)
  • LW ist größer 14: Sehr helle Szene

Auf Handbelichtungsmessern kann man sehen, dass ein Lichtwert von 7 etwa einer Lichtmenge von 700 Lux entspricht. Jede weitere Stufe verdoppelt den Wert (ein Lichtwert von 8 entspricht dann etwa 1400 Lux).

Berechnung des Lichtwerts[Bearbeiten]

Die Berechnung des LW lautet: ld (( Blendenzahl²) / Belichtungsdauer)

Die Blendenzahl (zum Beispiel 5,6) geht also wieder quadratisch in die Berechnung ein, die Belichtungsdauer in Sekunden (zum Beispiel 1/500 bzw. 0,002). Mit ld wird der Logarithmus zur Basis 2 bezeichnet. Ist man nur an einer anderen Einstellung von Blendenzahl und Belichtungszeit bei gleichem Lichtwert LW, also gleicher Lichtintensität interessiert, kann man natürlich auch umstellen:

2LW = Blendenzahl² / Belichtungsdauer

Beispiel: Die Belichtung eines Photos mit Blende 5,6 und 1/500 Sekunde ergibt folgenden Lichtwert: ld ((5,6*5,6) / 0,002) = 13,93. Gern verwendet man zum Schätzen ganze Zahlen beim Lichtwert, man würde dieses Ergebnis also auf 14 runden.

Der Lichtwert ist demnach 14 (der ISO-Wert sei zunächst vernachlässigt). Nun ändert der Photograph die Blende auf f/6,3 (Drittelschritte). Man kann nun ausrechnen, welche Belichtungsdauer notwendig ist, um wieder auf einen Lichtwert von 14 zu gelangen, das heißt um das Bild in gleicher Helligkeit darzustellen. Mit ld ((6,3*6,3) / 0,0025) = 13,95 erkennt man, dass eine Belichtungsdauer von 0,0025 Sekunden (= 1/400) notwendig ist, um das Bild mit selber Helligkeit aufzunehmen. Um den Wert zu berechnen, muss man die Formel natürlich zunächst nach der Belichtungsdauer umstellen.

Nun spielt auch die Lichtempfindlichkeit eine wichtige Rolle. Diese macht die Rechnung jedoch kaum komplizierter. Man addiert hierbei einfachen einen Wert X auf den Lichtwert, wobei X=0 bei ISO 100 gilt. Mit jeder Verdopplung der Empfindlichkeit verringert sich X um eins. Bei ISO-200 gilt X = -1, bei ISO-400 gilt X = -2 etc. Bei Werten unter 100 wird X positiv. Bei ISO-50 gilt somit X = 1, bei ISO-25 gilt X = 2.

Jetzt kann man den Lichtwert korrekt ausrechnen: Wenn ein Bild mit Blende 5,6 bei 1/500 Sekunde aufgenommen wird (obiges Beispiel) und ISO-25 verwendet wurde, so ist der Lichtwert 14 + 2, also 16.

Als Alternativformel ergibt sich also mit B als Blendenzahl, T der Verschlußzeit und E der Empfindlichkeit die Gleichung:

100/2LW = L = T E / B²

Dies entspricht dann wieder oben aufgeführter Formel für die Intensität des einfallende Lichtes L. Die Verdopplung der Blendenzahl kann also durch Vervierfachung der Empfindlichkeit oder der Verschlußzeit ausgelichen werden - oder allgemeiner einer Vervierfachung des Produktes von Empfindlichkeit und Verschlußzeit.

Die Angabe in Lichtwerten ist insofern nützlich, als man bei Verwendung der Standardreihen für Blendenzahl, Verschlußzeit und Empfindlichkeit offenbar den Lichtwert jeweils um 1 ändert, wenn man zum nächsten Wert der Standardreihe wechselt. Entsprechend ist dann einer der beiden anderen Parameter wieder um einen Schritt in der Standardreihe zu ändern, um dies auszugleichen, sofern das erwünscht ist.

Von daher muß man in der Praxis den Lichtwert nicht wirklich ausrechnen, wenn man nur die Parameter der korrekten Belichtung variieren will und bereits einen passenden Parametersatz von der Kamera bekommen hat. Handbelichtungsmesser können indessen (nur) einen Lichtwert ausgeben, woraus der kundige Photograph dann wiederum seine Kombination von Blendenzahl, Belichtungszeit und Empfindlichkeit zusammenstellen kann, um zu einer korrekten Belichtung zu kommen. Oft kann man aber auch diese Rechnung gleich von modernen Handbelichtungsmessern ausführen lassen.


Faustregel zum einfacheren Rechnen mit dem Lichtwert[Bearbeiten]

Da die vorgestellte Formel recht kompliziert ist (insbesondere wenn man gerade keinen Taschenrechner zur Hand hat), gibt es eine einfachere Möglichkeit, den Lichtwert zu schätzen. Man sagt einfach, Blendenzahl 1 hat einen Blendenleitwert von 0, Blendenmzahl 1,4 von 1, Blendenzahl 2 von 2, Blendenzahl 2,8 von 3 etc. Jede weitere Blendenstufe erhöht also den Blendenleitwert um 1. Bei der Belichtung hat eine Dauer von 1 Sekunde den Zeitleitwert 0. 1/2 Sekunde hat einen Zeitleitwert von 1, 1/4 Sekunde hat einen Wert von 2 etc. Analog erhöht sich hier der Zeitleitwert mit jeder Halbierung der Belichtungsdauer (mit jedem vollen Schritt). Bei der ISO-Empfindlichkeit werden die Werte verwendet wie bereits erläutert (also z.B. -2 bei ISO-400). Man addiert nun die 3 Werte zusammen und erhält den Lichtwert.

Ein Beispiel: Die Belichtungsdauer ist 1/250 Sekunde bei Blendenzahl 8 und ISO-400. Wie groß ist der Lichtwert? Statt der komplizierten Formel berechnen wir zunächst den Blendenleitwert. Blendenzahl 8 ist die sechste volle Stufe nach 1. Der Blendenleitwert ist also 6. Dann berechnen wir den Lichtleitwert. 1/250 Sekunde ist die achte volle Stufe nach 1 Sekunde. Der Lichtleitwert ist also 8. Nun berechnen wir die beiden Werte zusammen und haben einen Lichtwert von 14. Hier muss nun noch der ISO-Wert mit berücksichtigt werden. ISO-400 ist die zweite Verdopplung nach ISO-100. Es muss also noch 2 subtrahiert werden. Der Lichtwert ist demnach 6+8-2 = 12. Das ist ein Wert, der in etwa an einem trüben Tag erreicht wird.

Diese Art der Berechnung hat den Nachteil, dass man den Lichtwert nur annähernd schätzen kann. Verwendet man Zwischenstufen (zum Beispiel Blende 6,3 oder 1/320 Sekunde), so muss man runden oder die Kommastelle abschätzen. Für die grobe Berechnung ist es jedoch völlig ausreichend.

Belichtungsarten der Kamera[Bearbeiten]

Jede Digitalkamera besitzt unterdessen Möglichkeiten, die Belichtung automatisch einzustellen, das heißt die Kamera wählt Blende oder Belichtungsdauer automatisch; oft wird dabei auch der ISO-Wert automatisch bestimmt, wobei die Kamera einen kleinen Wert anstreben wird (zum Beispiel ISO-100). Die meisten Kameras sind dabei intelligent genug, zu erkennen, ob sie auf einem Stativ stehen oder von Hand gehalten werden. In der Abenddämmerung wird die Kamera, falls kein Stativ vorhanden ist, kurze Verschlusszeiten durch die Wahl einer kleinen Blende und gegebenenfalls eines hohen ISO-Werts verwenden, um ein Verwackeln zu vermeiden.

Voraussetzung für eine automatische Belichtung ist die Messung des Lichtwertes mit der Belichtungsmessung. Davon ausgehend wird dann je nach Art der Automatik die Kombination von Blende, Verschlußzeit und Empfindlichkeit bestimmt.


Belichtungsmessung[Bearbeiten]

Um die Belichtung durchzuführen, muss die Kamera das Bild zuvor analysieren, um den aus ihrer Sicht korrekten Lichtwert für die Aufnahme zu bestimmen, um dann die richtige Kombination aus Blende, Verschlusszeit und Empfindlichkeit zu ermöglichen. Dies nennt sich Belichtungsmessung.

Es gibt verschiedene Arten der Belichtungsmessung, also für die Kamera zu bestimmen, welche Lichtmenge zu einer korrekten Belichtung gehört - mit welcher Parameterkombination das erreicht wird, wird in den nächsten Abschnitten erklärt. Einige Kameras ermöglichen auch, dass man diese einstellen kann. Beispiele sind:

  • Mittelwertmessung: Dieses Verfahren ist das einfachste. Die Kamera misst die Lichtintensität im gesamten Bildbereich und berechnet den Durchschnittswert, der dann als Lichtwert gilt. Das Verfahren ist okay, wenn das Bild gleichmäßig hell ist; bei größeren Unterschieden, zum Beispiel sonnigen und schattigen Bereichen oder gar Gegenlicht, wird das Bild jedoch möglicherweise falsch belichtet. Es reicht oft nicht aus, einfach den durchschnittlichen Helligkeitswert für die Belichtung zu verwenden, so dass andere Verfahren hier bessere Ergebnisse erzielen. Allerdings läßt sich bei dieser Methode für den Photographen am einfachsten überschauen, was die Kamera tut, eine Korrektur ist also einfacher abzuschätzen als bei anderen Verfahren.
  • Mittenbetonte Messung: Dies ist die Weiterentwicklung der Mittelwertmessung. Die Helligkeit der Szene wird nach wie vor als Durchschnittswert der einzelnen Bildbereiche berechnet, allerdings wird der Mitte des Bildes eine größere Bedeutung zugeordnet. Die Helligkeit der Mitte hat also deutlich mehr Einfluss auf den Endwert, als die Helligkeit an den Randbereichen. Da sich das Hauptmotiv oft irgendwo in der Bildmitte befindet, scheint dieses Verfahren zuverlässiger zu arbeiten als die Mittelwertmessung; wenn sich das Motiv jedoch nicht in der Mitte befindet oder größere Kontraste existieren, kann auch dieses Verfahren schnell versagen. Da die Gewichtung von der Kamera immer gleich durchgeführt wird, kann man auch bei diesem Verfahren im Bedarfsfalle noch Korrekturen sinnvoll abschätzen.
  • Mehrfeldmessung (Matrix-Messung): Dieses Verfahren kann wiederum als Erweiterung der mittenbetonten Messung gesehen werden. Die Kamera teilt nun das Bild in verschiedene Bereiche unterschiedlicher Größe und berechnet zunächst die Helligkeit jedes einzelnen Bereichs (dies geschieht zum Beispiel mit der Mittelwertbildung). Danach wird die Belichtung des gesamten Bildes aus den einzelnen Blöcken berechnet. Die Mehrfeldmessung ist damit fehlertoleranter. Dabei verwendet die Kamera allerdings Programme mit heuristischen Methoden der Hersteller, um zu beurteilen, wie die Felder zueinander gewichtet werden. Das Programm versucht also zu raten, um was für ein Motiv es sich handeln könnte und was darauf besonders wichtig ist. Ergebnisse dieses Verfahrens sind daher nur sehr schwierig nachzuvollziehen und bei Korrekturen nur sehr schwer abzuschätzen. Mehr oder weniger muß man sich also auf die Algorithmen der Hersteller der Kamera verlassen.
  • Spot-Messung: Bei der Spot-Messung wird die Helligkeit des Bildes an bestimmten Punkten gemessen. Aus den Helligkeiten der einzelnen Punkte wird dann der Lichtwert ermittelt. Dieses Verfahren wird von einfachen Kameras meist nicht verwendet und erfordert Erfahrung und mehr Aufwand; es kann aber bei besonderen Lichtverhältnissen deutlich bessere Ergebnisse liefern. Durch den kleinen Meßbereich und die Möglichkeit, Ergebnisse zwischenzuspeichern, hat der Photograph so allerdings weitgehende Kontrolle und Verantwortung, was als für die Belichtung wichtig im Bild identifiziert wird. Korrekturen der Ergebnisse sind meist auch leicht nachvollziehbar durchzuführen. Fehlmessungen durch falsche Positionierung des 'Spots' sind allerdings allein Problem des Photographen.


Egal wie gut manche Verfahren auch sind, sie werden nicht immer den idealen Lichtwert bestimmen. Vor allem bei starken Helligkeitsunterschieden im Bild können sie zu einem falsch belichteten Photo führen. Es muss zudem gesagt werden, dass ein Photo meist nur an einer bestimmten Stelle "korrekt" belichtet werden kann. Eine optimale Belichtung für das gesamte Photo ist somit oft gar nicht möglich. Ausschlaggebend ist daher, dass die wichtigsten Teile des Bildes (normalerweise das Motiv) korrekt belichtet sind. Daher bieten die meisten Kameras Optionen an, das Ergebnis zu korrigieren, man kann dann etwa angeben, daß die Belichtung um ein oder zwei Stufen heller oder dunkler erfolgen soll. Oft gibt es auch eine Option, wo mehrere Bilder automatisch hintereinander mit Korrekturfaktoren gemacht werden können.

Zur Belichtungsmessung geht die Kamera von einer durchschnittlichen Helligkeitsverteilung aus, die etwa einem 18 % Grau entspricht ("Dunkelgrau"), da Farben in der Natur im Mittel etwa diese Helligkeit aufweisen. Je stärker die Szene von der Verteilung jedoch abweicht, umso größer ist die Gefahr der Fehlbelichtung im Automatikmodus. Dies betrifft vor allem sehr helle und dunkle Szenen. Ein typisches Beispiel sind Hochzeitsphotos oder Schneephotos. Das helle Weiß reflektiert deutlich mehr als 18 % des Lichtes, vielleicht sogar bis zu 80 oder 90 % - die Kamera würde hier zu dunkel belichten, weil sie die Situation viel zu hell einschätzt. Als Folge hätte man dann graue, düstere Farben statt weiß. Bei solchen Szenen muss man daher oft die Belichtungskorrektur um 1 oder gar 2 Blendenstufen erhöhen.


Motivprogramme[Bearbeiten]

Fast alle Digitalkameras bieten eine Vielzahl an Motivprogrammen. Hierbei werden Belichtungszeit, Blende und Empfindlichkeit automatisch bestimmt, allerdings orientiert sich die Kamera dabei an der ausgewählten Szene. Dabei werden also Erfahrungswerte für bekannte Motivtypen verwendet, die vom Hersteller fest in die Kamera integriert sind. Neben der Belichtung werden oft auch andere Faktoren wie Weißabgleich und Schärfentiefe berücksichtigt.

Typische Motivprogramme sind:

  • Porträt
  • Landschaft
  • Kinder
  • Nacht- und Dämmerungsaufnahmen
  • (Haus-) Tiere
  • Schnee
  • Strand
  • Laub
  • Sonnenauf- und -untergänge
  • Feuerwerk
  • Sport

Hinter jedem Motivprogramm verbirgt sich ein bestimmter Algorithmus, der versucht, die ideale Belichtungseinstellung zu finden. Bei Kindern und Tieren wird er von starker Bewegung ausgehen und somit kurze Verschlusszeiten anstreben sowie die automatische Schärfenachführung aktivieren. Bei Strand und Schnee wird der Algorithmus davon ausgehen, dass helle Farben stark überwiegen – er wird versuchen, eine Unterbelichtung durch längere Belichtungszeiten zu umgehen und eventuell den Weißabgleich anpassen. In der Landschaftsphotographie wird eine große Schärfentiefe angestrebt, in der Porträtphotographie eine geringe.

Obwohl die Motivprogramme auf bestimmte Szenen optimiert sind, sind sie leider kein Garant für eine optimale Einstellung. In Einzelfällen kann die Belichtung auch hier versagen und eine manuelle Belichtung ist notwendig. Zudem sind die Motivprogramme relativ allgemein gehalten und für Alltagsaufnahmen gedacht - für ausgefallene Motive und Kompositionen eignen sie sich oft nicht. Für den unkundigen Laien können sie immerhin eine gute Hilfe sein. Erfahrene Photographen verwenden meist aber keine Motivprogramme und entscheiden lieber selbst. Auch für diese können die Motivprogramme natürlich gute Anhaltspunkte liefern, wenn sie es einmal mit Motiv-Genres zu tun haben, die sie sonst nicht aufnehmen.

Programmautomatik[Bearbeiten]

Ähnlich wie bei den Motivprogrammen werden hier Blendenzahl und Verschlusszeit automatisch bestimmt, anderen Funktionen unterliegen der Kontrolle des Photographen. Teils können verschiedene Funktionen so zugeschaltet werden, dass sie nur wirksam werden, wenn lange Belichtungszeiten oder sehr große Blendenzahlen für eine korrekte Belichtung notwendig wären - dann könnte etwa der vom Photographen angegebene ISO-Wert automatisch korrigiert werden. Zudem kann der Photograph zumeist die Kombination von Blende und Verschlußzeit einfach bei Beibehaltung desselben Lichtwertes verschieben, wenn der Vorschlag der Kamera nicht gefällt.

Gegenüber den Motivprogrammen werden also weniger Parameter von der Kamera festgelegt. Von dieser wird vorrangig für die Kombination von Blendenzahl und Verschlusszeit eine plausible Kombinationen angestrebt. Etwa wird auch die Brennweite des verwendeten Objektivs berücksichtigt, um möglichst ein Verwackeln zu vermeiden.

Halbautomatische Belichtung[Bearbeiten]

Einige Kameras bieten eine Blendenautomatik und Zeitautomatik. Diese Funktionen können jeweils als halbautomatische Belichtung angesehen werden.

Bei der Blendenautomatik (Zeitvorwahl) stellt der Benutzer eine Belichtungszeit ein und die Kamera ermittelt dann die entsprechende Blendenzahl. Bei der Zeitautomatik (Blendenvorwahl) stellt der Benutzer hingegen eine bestimmte Blende ein und die Kamera berechnet dann die entsprechende Belichtungsdauer. Mit den Begriffen kann man leicht durcheinander geraten, weshalb heute meist die Bezeichnung mit Bezug zur Vorwahl verwendet wird, also Zeitvorwahl (Die gewünschte Belichtungszeit wird eingestellt) oder Blendenvorwahl (die gewünschte Blende wird eingestellt). Auf der Kamera wird die Blendenvorwahl meist mit A oder Av markiert (A für Aperture) und T, Tv oder S für die Zeitvorwahl.

Die Blendenvorwahl ist ein recht nützliches Hilfsmittel, das von vielen Photographen gern verwendet wird, wenn es darauf ankommt, Kontrolle über die Schärfentiefe eine Aufnahme zu haben. Während für Einsteiger der Automatik-Modus oft noch günstiger ist, da er faktisch alles selbst regelt, hat man bei der Blendenvorwahl mehr kreative Freiheit. Man kann die Blendenzahl frei wählen und damit den Schärfebereich verändern und kann auch weitere Einstellungen vornehmen, die im Automatik-Modus meist blockiert sind (zum Beispiel der ISO-Wert).

Die Zeitvorwahl bietet sich an, wenn man eine konkrete Belichtungsdauer verwenden möchte oder wenn man bei Reihenaufnahmen sicherstellen möchte, dass alle Aufnahmen mit derselben Verschlusszeit erstellt werden sollen. Zum Beispiel möchte man die Bewegung eines Sprinters festhalten und wählt die höchste Belichtungsdauer von 1/2000 oder 1/4000 Sekunde. Die Kamera würde dann die entsprechende Blendenzahl berechnen, damit dies nicht der Benutzer erledigen muss. Auch wenn man Verwackeln vermeiden will, aber eine möglichst große Schärfentiefe bekommen will, bietet es sich an, eine Zeit vorzuwählen, bei der Verwackeln vermieden wird. Die Kamera bestimmt dann dazu automatisch die kleinste Blende, die zu einer korrekten Belichtung führt.

Manuelle Belichtung[Bearbeiten]

Obwohl die automatische Belichtung der Kamera oft gut funktioniert und schöne Resultate bringt, gibt es Situationen, wo sie mehr oder weniger versagt und man mit manueller Abstimmung bessere Photos aufnehmen kann. Immerhin berechnet die Kamera die Belichtungseinstellung aus den Mittelwerten verschiedener Messungen und weiß letztlich nicht, worauf der Benutzer wirklich Wert legt. Zudem bietet die manuelle Belichtung eine hohe kreative Freiheit (dazu wird später noch ausführlicher berichtet).

Situationen, wo eine manuelle Belichtung sinnvoll sein könnte, wären:

  • Bei unterschiedlich stark belichteter Szene (zum Beispiel sonnige und schattige Abschnitte, viele dunkle und helle Bereiche etc.).
  • Ebenso bei Dämmerungs- und Nachtaufnahmen, Sonnenuntergängen etc. (entspricht vom Prinzip her dem ersten Punkt).
  • Bei kreativem und experimentellem Photographieren (hier kann man auch bewusst eine zu hohe oder geringe Belichtungsdauer wählen).
  • Aufnahmen mit Blitzgerät - man kann Blendenzahl, Verschlusszeit und Empfindlichkeit passend einstellen und leistungsstarke Blitzgeräte steuern automatisch die passende Lichtmenge bei.
  • Photoserien - ändert sich etwa die Wolkenbedeckung des Himmels von Bild zu Bild, würde dies Automatikprogramme dazu veranlassen, anders zu belichten, was beim nahezu gleich beleuchteten Hauptmotiv auffallen wird, wenn man sich die Bilder der Serie nacheinander ansieht.
  • Wenn der erlaubte Bereich der Kamera für die Belichtungskorrektur nicht ausreicht.

Kameras bieten verschiedene Arten der manuellen Belichtung. Einige Modelle, meist jedoch aus mittlerer oder höherer Preisklasse, ermöglichen das freie Auswählen von Verschlusszeit und Blende. Vor der Aufnahme prüft die Kamera dann trotzdem, ob das Photo zu hell, zu dunkel oder richtig belichtet ist und zeigt dies an (diese Prüfung basiert auf der Basis der automatischen Belichtung). Der Benutzer erkennt damit womöglich, dass er die Belichtung zu gering oder hoch eingestellt hat - doch selbst wenn der eingestellte Wert von dem der Kamera abweicht, kann die Belichtung dennoch korrekt sein.

Manche Kameras bieten leider keine manuellen Einstellungsmöglichkeiten was Blendenzahl und Belichtungsdauer betrifft. Die meisten Kameras ermöglichen jedoch im Automatikmodus eine Art "manuelle Belichtung", die genauso funktioniert wie das bereits vorgestellte manuelle Fokussieren. Hierbei richtet man die Kamera auf einen bestimmten Punkt im Bild, drückt den Auslöser halb und Belichtungsdauer und Blendenzahl werden gespeichert, was als Messwertspeicherung bezeichnet wird. Man kann die Kamera nun auf eine beliebige andere Stelle richten und den Auslöser vollständig herunterdrücken. Die Szene wird dann mit den zuvor gespeicherten Werten aufgenommen.

Ein Beispiel: Man möchte einen Sonnenuntergang photographieren. Für die Kamera erscheint die Szene möglicherweise sehr dunkel und sie wählt eine lange Verschlusszeit – das Bild ist überbelichtet, von den dezenten Farben des Sonnenuntergangs ist kaum etwas zu sehen. Man hält nun die Kamera auf einen helleren Bereich, zum Beispiel auf die Sonne (oder nahe der Sonne) und sofort wird die Kamera die Verschlusszeit vermindern, da sie ein sehr helles Bild wahrnimmt. Hier drückt man den Auslöser halb und schwenkt die Kamera zur ursprünglichen Szene zurück. Wenn die Einstellung angemessen scheint (das klappt möglicherweise nicht beim ersten Mal), kann man den Auslöser vollständig drücken und das Bild wird mit den zuvor gespeicherten Einstellungen aufgenommen.

Ein gewisses Problem ist, dass der Fokus beim halben Drücken meist mit gespeichert wird. Hier muss man aufpassen, dass man dann nicht ein sauber belichtetes, aber falsch fokussiertes Photo aufnimmt. Im Falle des Sonnenuntergangs ist dies aber nicht zu erwarten – egal wohin man die Kamera schwenkt, der Fokus wird auf unendlich eingestellt sein, er ändert sich also nicht.

Ein weiteres Hilfsmittel ist die Belichtungskorrektur. Hierbei handelt es sich um einen Wert, der die Belichtungsdauer gegenüber der automatisch berechneten Dauer vermindert oder reduziert. Er wird in Blendenschritten mit Drittelabstufung angegeben (zum Beispiel von -2 bis +2). Die Kamera belichtet das Bild bei einer Belichtungskorrektur von -1 also um eine Belichtungsstufe niedriger als die Messung eigentlich ergeben hat. Bei +2 würde das Bild um 2 Belichtungsstufen stärker belichtet werden (wie bereits zuvor erläutert ändert dies den Lichtwert um 1, man kann den Lichtwert also um bis zu 2 Werte vermindern oder erhöhen). Die Belichtungskorrektur bietet sich somit an, wenn man weiß, dass die automatische Belichtungsmessung der Kamera das Bild zu hell oder dunkel darstellt. Nach der Aufnahme sollte man den Wert wieder auf 0 setzen, damit man bei weiteren Aufnahmen nicht versehentlich zu hell oder dunkel belichtet (die Belichtungskorrektur ist eher für spezielle Aufnahmen beziehungsweise den Ausnahmefall gedacht; in den meisten Fällen wird die Kamera den korrekten Belichtungswert von selbst finden).

Zuletzt sei noch die Graukarte erwähnt, die ebenfalls zur Kalibrierung der Belichtung verwendet wird. Sie eignet sich, wenn ein Bild nur aus sehr hellen oder dunklen Bereichen besteht. Ein typisches Beispiel ist ein Schneemann im Schnee; hier würde die Kamera, die stets von gleichmäßiger Farbverteilung ausgeht (also hell, mittel, dunkel) das Bild zu dunkel darstellen. Die Graukarte ist eine Karte, deren Farbe 18 % grau ist. Die Kamera wird zunächst auf die Graukarte gerichtet und die Messwertspeicherung vorgenommen. Dann wird sie auf das Motiv gehalten und das Photo aufgenommen – es wird dann in natürlichem Weiß erscheinen. Es ist natürlich darauf zu achten, dass die Graukarte dem gleichen Licht ausgesetzt ist wie das spätere Motiv. Da die Graukarte meist viel kleiner als das Motiv ist, sie aber formatfüllend vor die Kamera gehalten werden muß, ist da besondere Sorgfalt geboten. Auch hier wird man zumeist auf den Autofokus verzichten müssen und manuell fokussieren, um den Schärfebereich korrekt festzulegen.

Belichtungsreihen[Bearbeiten]

Legt man sehr viel Wert auf eine exakte Belichtung, so kann man auch Belichtungsreihen durchführen, das heißt Photos des gleichen Motivs mit unterschiedlichen Belichtungseinstellungen aufnehmen. Das bietet sich vor allem auch dann an, wenn man auf dem kleinen Kameramonitor nicht genau beurteilen kann, welche Einstellung optimal ist. Einige Kameras bieten dazu automatische Belichtungsreihen; die Kamera macht dann in einem Schritt gleich mehrere Aufnahmen mit unterschiedlichen Belichtungszeiten oder Blendenzahlen. Eine automatische Variation der Empfindlichkeit ist leider meist nicht vorgesehen, obgleich das die naheliegenste Möglichkeit wäre, die Belichtung zu varrieren, ohne bildwirksame Einstellungen zu ändern. Später kann man am Computer dann die Aufnahme bestimmen, die am besten belichtet erscheint. Möglich ist damit auch ein Verfahren, bei welchen der Dynamikumfang eines Bildes erhöht wird. Dazu nimmt man zusätzlich zur korrekten Belichtung absichtlich unter- und überbelichtete Bilder mit solch einer Belichtungsreihe auf und verrechnet sie später in der Nachbearbeitung zu einem Bild. So kann es gelingen, sowohl in sehr hellen Teilbereichen eines Bildes als auch in sehr dunklen noch Details darzustellen, die beim einfachen Bild entweder rein schwarz oder rein weiß dargestellt worden wären.

Kreative Belichtung[Bearbeiten]

Wie bereits erwähnt, lassen sich mit der manuellen Steuerung von Blende und Verschlusszeit interessante kreative Aufnahmen schaffen. Einige Effekte sollen hier vorgestellt werden.

Man kann zunächst gezielt ein Photo überbelichten oder unterbelichten. Das Photo kann dann sehr abstrakt wirken; unterbelichtete Photos wirken düster und bedrohlich, überbelichtete erinnern oft an einen grellen Sonnentag. Man spricht bei Photos, die nur helle Töne aufweisen (also im Allgemeinen stärker belichtet sind als normal) als High-Key-Aufnahmen. Diese werden zum Beispiel in der Werbung und in der Mode- und Beautyphotographie verwendet. Helle Photos sprechen Menschen oft stärker an und wirken freundlicher. Große, überbelichtete weiße Flächen können allerdings recht kühl und distanziert wirken. Im Gegensatz dazu sind Low-Key-Aufnahmen Photos, die nur dunkle Töne haben, also potentiell unterbelichtet sind. Sie wirken oft geheimnisvoll und unheimlich.

Mehrfachbelichtung einer Mondfinsternis.

Vor allem in der analogen Photographie war Mehrfachbelichtung ein beliebtes kreatives Verfahren. Hierzu wurde der Film zweimal belichtet. Dabei verschmelzen die beiden Photos gewissermaßen und können erstaunliche und verblüffende Resultate bringen. Die Mehrfachbelichtung ist jedoch technisch bedingt oft nicht ganz einfach; die meisten Analogkameras spulen den Film nach einer Aufnahme automatisch weiter und bieten keine Funktion, ihn noch einmal eine Stelle zurückzuspulen. Wenn das Unterbinden des Weiterspulens möglich ist, können natürlich zwischen den beiden Aufnahmen der Doppelbelichtung keine weiteren anderen 'normalen' Aufnahmen gemacht werden, bis nach der zweiten Aufnahme ist die Kamera also nicht mehr 'normal' nutzbar.

Für Mehrfachbelichtungen bietet sich oft ein schwarzer Hintergrund an, da man dann die Übergänge zwischen den beiden Motiven nicht erkennt. In der Analogphotographie muss man dabei außerdem die Belichtungszeit vermindern, da bei zweifacher Belichtung das Bild sonst insgesamt überbelichtet wäre.

In der digitalen Photographie können Mehrfachbelichtungen einfach in einem Bildbearbeitungsprogramm erstellt werden; diese arbeiten für gewöhnlich mit mehreren Ebenen, so dass man mehrere Bilder überlagern und damit den Effekt der Mehrfachbelichtung erzeugen kann.

Um bei einem sich stark bewegenden Objekt Bewegungsunschärfe zu vermeiden, kann es sinnvoll sein, während der Belichtung die Kamera parallel zur Bewegungsrichtung des Motivs mitzuziehen. Diese als Schwenken bekannte Methode sorgt dafür, dass das Motiv schärfer abgebildet wird. Der Hintergrund verschwimmt dabei, was dem Bild einen dynamischen Effekt verleiht. Es ist dabei wichtig, die Kamera bereits vor dem Auslösen zu schwenken und mit dem Schwenken erst aufzuhören, wenn die Belichtung abgeschlossen ist.

Reißzoom ist eine Möglichkeit, welche nur komplexere Kameras bieten. Hierbei wird während der Belichtung die Brennweite geändert. Es können dann dann künstlerisch ausgefallene Aufnahmen entstehen, zudem vermittelt der Reißzoom meist Bewegung, auch wenn sich das Motiv gar nicht bewegt hat.

Nachts ist es bei bewegten Aufnahmen wie Feuerwerk oder Straßen interessant, mit sehr langen Verschlusszeiten zu arbeiten. Bei Belichtungsdauern von 15 bis 30 Sekunden (Langzeitbelichtung) entstehen die bekannten Lichtstreifen, die durch vorbeifahrende Fahrzeuge verursacht werden. Die unter abgebildeten Photos zeigen, welche weiteren interessanten Aufnahmen mittels Langzeitbelichtung möglich werden.


Das Halten der Kamera[Bearbeiten]

Halten mit der Hand[Bearbeiten]

Bei Tageslicht reicht es für gewöhnlich, die Kamera mit den Händen zu halten, ohne dass das Photo verwackelt. Der menschliche Körper kann die Kamera jedoch niemals ganz ruhig halten, so dass vor allem bei längeren Belichtungszeiten stets ein Verwackeln droht.

Sofern ein Sucher vorhanden ist, empfiehlt es sich, Arme und Kamera dicht am Körper zu halten, das Auge direkt am Sucher. Der eigene Körper, eventuell noch gegen eine Wand oder einen Stuhl gelehnt, kann dann die Gefahr des Verwackelns reduzieren.

Ist nur ein Kameramonitor vorhanden, ist man eher gezwungen, die Kamera mit ausgestreckten Armen vor dem Körper zu halten. Hier ist ein Verwackeln sehr wahrscheintlich, weil die ausgetreckten Arme einen langen Dreharm dargestellen, also kleine Körperbewegungen oder Muskelzittern in den Armen bereits zu deutlichen Bewegungen führen können. Bei solch einer ungünstigen Kamerahaltung sind immer kurze Verschlußzeiten zu empfehlen. Abstützen der Hände mit der Kamera auf oder an einer Mauer oder dergleichen kann den Effekt jedoch drastisch reduzieren. Hat man die Kamera an einem Gurt um den Hals hängen, kann man dessen Länge auch so einstellen, dass man diesen Gurt in der Aufnahmeposition zwischen Nacken und Kamera leicht anspannt, um mehr Stabilität zu bekommen - das leichte Anspannen der Muskeln kann deren Zittern reduzieren. Zuviel anspannen kann jedoch auch wieder einen gegenteiligen Effekt bewirken.

Die Gefahr des Verwackelns hängt zudem sowohl von der Belichtungszeit als auch der Brennweite (Bildwinkel) ab. Je länger die Belichtungszeit und je größer die Brennweite, umso größer die Gefahr des Verwackelns. Insbesondere die Brennweite darf hierbei nicht unterschätzt werden; im Weitwinkel fällt eine leichte Handbewegung während des Aufnehmens kaum ins Gewicht, im Telewinkel hat sie hingegen einen erheblichen Einfluss.

Die Faustregel für erstgenannte Haltung mit Kamera dicht am Körper ist daher die Folgende: Die Belichtungsdauer sollte 1s mm/f nicht überschreiten, wobei f die Brennweite ist (auf Kleinbildformat konvertiert), s Sekunden, mm Millimeter, wird die Brennweite also in mm eingesetzt, bekommt man die Zeit in Sekunden heraus. Wer also mit 28 mm Weitwinkel photographiert, kann bis 1/28 Sekunde die Kamera sicher halten. Zur Vereinfachung und zusätzlichen Sicherheit wird dann oft auf die nächste Stufe gerundet, das heißt in diesem Fall auf 1/30 Sekunde. Bei 50 mm Normalwinkel kann man die Kamera also nur noch bis 1/50 Sekunde sicher halten (beziehungsweise 1/60), bei einem 250 mm Telewinkel nur noch bis 1/250 Sekunde. Wird die Kamera frei am ausgestreckten Arm gehalten, sollte man ein paar Belichtungsstufen kürzer einstellen.

Natürlich sind dies nur Richtwerte; mit entsprechend ruhiger Hand kann man auch unterhalb des Schwellwerts noch scharfe Photos aufnehmen. Zudem besitzen digitale Kompaktkameras heute oft einen Bildstabilisator (Image Stabilizer, IS). Dieser gleicht sanfte Bewegungen aus und verhindert so, dass das Bild bei leichten Bewegungen verwackelt. Mit so ausgestatteten Kameras kann man somit auch noch Photos mit Verschlusszeiten von 1/10 oder 1/15 Sekunde einigermaßen scharf aufnehmen, eine ruhige Hand vorausgesetzt.

Unterschreitet man den Schwellwert deutlich, ist ein Stativ oder eine Ablage erforderlich. Eine weitere Alternative ist, sich hinzusetzen oder hinzulegen, da man hier die Kamera ruhiger hält – für lange Belichtungszeiten ist dies jedoch kaum eine Lösung.


Hilfsmittel[Bearbeiten]

Gewöhnliches Dreibeinstativ

Das klassische Hilfsmittel zum sicheren Halten der Kamera ist ein Stativ. Die meisten Stative sind Dreibeinstative, die auf unterschiedliche Höhe (meist bis auf 1,50 oder 1,80 Meter) ausgefahren werden können. Einfache Stative sind dabei leichter und flexibler, stehen jedoch weniger sicher und erlauben somit nicht unbegrenzt lange Verschlusszeiten.

Einbeinstativ

Neben den Dreibeinstativen gibt es auch die weniger bekannten Einbeinstative. Sie müssen mit den Händen gehalten werden, sorgen aber ebenfalls für etwas mehr Halt. Während die Dreibeinstative die Kamera alleine halten, stützt man sich mit einem Einbeinstativ nur ab, welches sich somit nur eignet, um die Bewegungen des Photographen zu beruhigen, es bietet also nur einen Ruhepunkt. Durch die beiden Beine des Photographen ergibt sich aber gewissermaßen wieder ein Dreibein. Mit guter Körperspannung und -haltung kann das Einbeinstativ also eine gute Hilfe sein. Einbeinstative lassen sich einfacher Ausfahren und nehmen weniger Platz weg – das ist vor allem im Gedränge günstig, wo sperrige Dreibeinstative schnell zur Stolpergefahr für andere Personen werden. Für lange Verschlusszeiten sind sie handlicheren Einbeinstative aber weniger geeignet als die Dreibeinstative, ermöglichen andererseits aber eine schnellere Anpassung der Kameraposition.

Auch Stative sind nicht immer ein Garant für Verwacklungsfreiheit. Bei Wind kann selbst ein Dreibeinstativ zu Verwacklung führen, wenn es auch nur leicht im Wind schwingt. Hier scheint eine stabile Ablage wie eine Mauer, ein Tisch etc. die sicherste Variante. Die Standfestigkeit des Stativs hängt natürlich entscheidend davon ab, wie massiv es selbst aufgebaut ist und wie schwer die Kamera ist und welche Drehmomente wirken, wenn der Schwerpunkt der befestigten Ausrüstung nicht genau über der Mitte des Stativs liegt.

Bei längeren Belichtungsdauern kann selbst das Drücken das Auslösers bereits zum Verwackeln führen, da die Kamera hierbei kurz in Bewegung gerät. Ein alter Trick ist dabei, den Selbstauslöser zu benutzen. Viele Kameras bieten hierfür eine 2-Sekunden-Verzögerung, bei sehr langer Belichtung können auch 10 Sekunden Verzögerung sinnvoll sein, um ganz sicher zu gehen, dass zu Beginn der Belichtung die Kamera in absolut ruhigem Zustand ist. Alternativ zum Selbstauslöser gibt es auch Fernauslöser, heute meist elektronisch, früher mechanisch.

Besonders bei Makroaufnahmen kann es auch relevant sein, dass sich durch die Berührung der Kamera oder das Loslassen der Bildausschnitt verschiebt oder aber auch der Abstand zum Motiv und damit die gewünschte Schärfeebene. Da empfiehlt es sich dann neben der Verwendung kurzer Belichtungszeiten (Blitzgerät!), die Positionierung und Halterung während der Aufnahme möglichst wenig zu ändern. Bei Freihandaufnahmen oder solche mit Stativ, aber Fingern an der Kamera kann das auch darauf hinauslaufen, über ein Atemtraining gezielt zu üben, wann man auslösen sollte. Bei Stativaufnahmen mit Fernauslöser andererseits kann das darauf hinauslaufen, dass man spezielle, feingängige Einstellschlitten verwenden muß, um die Kameraposition sehr fein einzujustieren. Hier kann der 'LiveView' auf dem Bildschirm der Kamera auch recht hilfreich sein, um den Ausschnitt präzise wählen zu können, ohne die Kamera zu berühren. Auch die Vergrößerung des Bildes gilt dabei zumeist als gute Einstellhilfe für die Schärfeebene.


Bei Spiegelreflexkameras kann auch das Umklappen des Spiegels kurz vor der Auslösung bei langen Belichtungszeiten zu Vibrationen führen. Meist bieten diese Kameras eine Spiegelvorauslösung, die Aufnahme erfolgt also erst, wenn die Spiegelbewegung weggedämpft ist.


Verwendung von Blitzlicht[Bearbeiten]

Einführung[Bearbeiten]

Externes Blitzgerät.

Nahezu jede kompakte Digitalkamera ist mit einem integrierten Blitzsystem ausgestattet. Diese Blitzgeräte haben meist eine eher geringe Leistung. Die Reichweite beträgt etwa 0,5 bis 6 Meter. Blitzlicht eignet sich als Alternative für zu lange Verschlusszeiten in der Dämmerung und kann ebenfalls für kreative Aufnahmen eingesetzt werden. Auch wenn Teilbereiche eines Motivs dunkel sind, kann eine geeignete Mischung von normalem Umgebungslicht und Blitzlicht gezielt genutzt werden, um dunkle Bildpartien aufzuhellen.

Blitzlicht kann eine Szene deutlich aufwerten, an manchen Stellen ist Blitzlicht jedoch ungeeignet und kann ein Motiv sogar stark verunstalten. Der Blitz sollte daher stets mit Vorbedacht eingesetzt werden.

Probleme, die sich mit Blitzlicht ergeben könnten sind...

  • Starke Schlagschatten
  • Überbelichtung des Motivs
  • Reflexionen (Spiegelung des Blitzen an Oberflächen)

Der Blitz einer Kamera verbraucht relativ viel Energie. Er sollte daher nur verwendet werden, wenn er nötig erscheint. Zudem ist das Photographieren mit Blitzlicht an manchen Stellen unerwünscht oder verboten (beispielsweise in Ausstellungen, im Theater, Schauhäusern mit Tieren etc.).


Reichweite und Blitzfolgezeit[Bearbeiten]

Die Reichweite des Blitzes ist zunächst von der vorhandenen Lichtmenge abhängig. Bei völliger Dunkelheit wird der Blitz nicht so weit reichen, wie bei helleren Szenen. Da die für eine korrekte Aufnahme benötigte Lichtmenge neben der tatsächlich vorhandenen Lichtintensität auch von Blende und ISO-Einstellung abhängig ist, nimmt die Reichweite des Blitzes also mit kleineren Blendenzahlen und höherer Lichtempfindlichkeit (ISO-Wert) zu.

Die Leitzahl L eines Blitzgerätes gibt dessen maximal verfügbare Lichtmenge an und indirekt damit seine Reichweite. Es gilt: L = A * B, wobei A der Abstand zwischen Blitz und Motiv und B die entsprechende Blendenzahl zur korrekten Belichtung ist.

Kann ein Blitz also bei Blende 4 auf eine Distanz von 5 Metern korrekt belichten, so wäre die Leitzahl 20.

Stellt man die Formel nach A um, so kann man bei gegebener Blende und Leitzahl des Blitzgerätes dessen Reichweite berechnen. Es gilt dann: A = L / B. Ein Blitzgerät mit L = 32 hat bei Blende 8 also eine Distanz von 4 Metern. Bei Blende 4 wären es immerhin schon 8 Meter Reichweite.

Es ist darauf hinzuweisen, dass diese Formel nur für eine Lichtempfindlichkeit von ISO 100 gilt. Ist ein anderer ISO-Wert eingestellt, so muss der Wert noch mit einem von der Empfindlichkeit abhängigen Faktor korrigiert werden. Pro Verdopplung des ISO-Wertes muss der Abstand mit 1,4 (genau Wurzel aus zwei) multipliziert werden. Ist die Reichweite bei ISO-100 also 8 Meter, so ist sie bei ISO-400 gleich 8 * 2 = 16 Meter.

Anhand der Formel ist zu erkennen, dass die Lichtmenge umgekehrt proportional zum Quadrat des Abstandes vom Lichtreflektor abfällt (gilt nur für Abstände deutlich größer als die Abmessungen des Lichtreflektors). Objekte nahe am Reflektor werden also sehr stark belichtet (und drohen überbelichtet zu werden), Objekte weit weg werden weniger stark belichtet (und drohen unterbelichtet zu werden).

Unter der Blitzfolgezeit versteht man die Zeit, die nach dem Auslösen des Blitzes vergeht, bis dieser wieder vollständig geladen ist und erneut verwendet werden kann. Bei Kompaktkameras ist diese relativ lang. Sie hängt aber wiederum auch davon ab, wieviel der verfügbaren Maximalenergie des Blitzgerätes jeweils für den vorherigen Blitz verwendet wurde.


Blitzautomatiken[Bearbeiten]

Die meisten modernen Blitzgeräte haben einen Computer integriert, der einem die Berechnungen zur Reichweite und Blendenzahl abnehmen kann, oder mit dem alternativ auch die Länge des Blitzes eingestellt werden kann, um schnell bewegte Motive aufnehmen zu können. Über einen im Blitzgerät eingebauten Sensor kann ein Blitzgerät mit Automatikfunktion auch bestimmen, wieviel Licht vom Motiv zurückgeworfen wird und bei ausreichend Licht den Blitz vorzeitig beenden. Damit erübrigt sich dann die Berechnung oder Schätzung der Leuchtzeit des Blitzes anhand des Abstandes zwischen Blitz und Motiv.

Die jeweiligen Kamerahersteller haben auch spezielle Techniken entwickelt, mit denen direkt durch das Objektiv eine Messung des Lichtes vorgenommen werden kann (TTL genannt, englisch: through the lens). Bei Kameras mit Filmmaterial wird das vom Film reflektierte Licht verwendet. Die Kamera sendet dann bei ausreichend Licht dem Blitzgerät eine Anweisung, den Blitz vorzeitig abzuschalten. Diese Methode konnte bislang bei digitalen Sensoren nicht umgesetzt werden, daher wird kurz vor der Aufnahme (typisch weniger als eine zehntel Sekunde) ein Testblitz ausgesendet. Dessen beim Kamerasensor ankommendes Licht und der Beitrag des Umgebungslichtes werden verrechnet, um die korrekte Leuchtzeit für den Blitz der eigentlichen Aufnahme festzulegen. Dazu wird dann auch die eingestellte Blende und Empfindlichkeit automatisch bei Kamera und Blitz gleich eingestellt.

Diese TTL-Techniken sind leider alle spezifisch für den jeweiligen Hersteller, einschließlich der externen Anschlüsse zu einem Blitzgerät. Der fehlende Standard hat dann zur Folge, dass immer ein Blitzgerät verwendet werden muß, welches die jeweils verwendete Technik beherrscht und die passenden Anschlüsse hat. Hersteller wie Metz bieten für einige Blitzgeräte auch Adapter an, die es ermöglichen, dasselbe Blitzgerät im TTL-Betrieb zusammen mit Kameras verschiedener Hersteller zu verwenden.

Die Kamera kann an das Blitzgerät auch Informationen über das verwendete Objektiv und die Sensorgröße übermitteln. Da einige Blitzgeräte einen Zoom-Reflektor haben, können sie so den beleuchteten Raumwinkel an Objektiv und Sensorgröße anpassen, um entweder bei Teleobjektiven eine größere Leitzahl zu erhalten und damit eine größere Reichweite zu ermöglichen oder aber bei starken Weitwinkelobjektiven das Bild auch komplett auszuleuchten.


Der Rote-Augen-Effekt[Bearbeiten]

Klassische Erscheinung des Roten-Augen-Effekts.

Einer der bekanntesten negativen Effekte des Blitzes ist der Rote-Augen-Effekt. Dieser entsteht, wenn sich das Blitzlicht auf einer Achse mit dem Objektiv befindet (oder der optischen Achse sehr nahe ist). Der Effekt entsteht durch die Reflexion des Blitzlichts auf der roten Netzhaut des menschlichen Auges. Je größer die Pupillen der Person sind, umso größer ist dabei die Reflexion. Die Pupillen des Auges vergrößern sich mit zunehmender Dunkelheit - je dunkler es ist, umso weiter öffnen sie sich und umso größer wird der Effekt sichtbar. Da meist nur bei Dämmerung und Dunkelheit Blitzlicht eingesetzt wird, ist der Rote-Augen-Effekt ein recht häufig anzutreffendes Problem.

Je weiter das Blitzgerät vom Objektiv entfernt ist, umso geringer wird der Rote-Augen-Effekt jedoch ausfallen. Höherwertige Kameras haben somit einen ausklappbaren Blitz, der sich ein paar wenige Zentimeter über dem Kameragehäuse befindet. Zudem wird der Blitz dann oft am linken oder rechter Rand der Kamera angebracht, damit er möglichst weit von der optischen Achse entfernt ist. Damit allein wird man den Rote-Augen-Effekt jedoch nicht immer verhindern. Manche digitale Kameras wenden daher einen Vorblitz an (nicht zu verwechseln mit jenem der TTL-Messung, der erfolgt zu kurz vor der Aufnahme, als dass er etwas an dem Rote-Augen-Effekt ändern könnte), der die Pupillengröße des Auges reduziert (da dieses mit dem hellen Licht nun geblendet wird und sich sofort verkleinert), so dass die Netzhaut weniger Licht reflektieren kann. Da die Augen jedoch oft gerade der wichtigste Bereich eines Porträts sind, führt der Vorblitz oft für ein weniger befriedigendes Ergebnis - die Augen werden eventuell nicht wie gewünscht dargestellt. Ein Problem ist dabei auch, dass der Vorblitz einerseits so lange vor der Aufnahme gezündet werden kann, daß sich die Pupillengröße bis zur Aufnahme auch wirklich reduzieren kann, andererseits bietet dies oft auch genug Zeit für den Augenschluß-Reflex. Die Menschen reagieren auf den hellen Vorblitz also, indem sie die Augenlider schließen.

Abhilfe für den Effekt schaffen allgemein:

  • Den Blitz weit von der optischen Achse entfernt anbringen.
  • Die Person von der Seite photographieren.
  • Verschiedene zusätzliche Leuchtquellen im Raum verwenden.


Der erste Punkt funktioniert nur mit einem externen Blitzgerät, das man frei im Raum platzieren kann. Die Gefahr von Schlagschatten vergrößert sich hierbei jedoch, ebenso wie beim zweiten Punkt. Der dritte Punkt lässt sich ebenfalls nicht immer realisieren, da man entweder keine weiteren Leuchtquellen zur Verfügung hat oder diese womöglich die Szene zerstören würden.

Moderne Digitalkameras können Rote-Augen-Effekte jedoch mit internen Verarbeitungsmechanismen ein wenig korrigieren. Zudem kann der unschöne Effekt mit einem Bildbearbeitungsprogramm meist recht leicht entfernt werden. Lässt sich der Roten-Augen-Effekt beim Photographieren also nicht verhindern, sollte dies kein Grund sein, die Aufnahme sofort zu löschen.


Der integrierte Blitz[Bearbeiten]

Digitalkameras bieten meist verschiedene Funktionen für den integrierten Blitz an:

  • Blitz ein
  • Blitz aus
  • Blitz automatisch zuschalten
  • Blitz mit Vorblitz zuschalten
  • Blitz automatisch zuschalten und Vorblitz verwenden


Im Automatik-Modus wird die Kamera den Blitz automatisch zuschalten, falls die vorhandene Lichtmenge zu gering ist. Man kann den Blitz aber auch im Automatik-Modus für gewöhnlich abschalten, wenn man auf ihn generell verzichten möchte.

Durch geeignete Wahl von Verschlusszeit und Blendenzahl läßt sich steuern, welchen Anteil das normale Licht an der Aufnahme hat und welchen Anteil der Blitz hat. So hat man Einfluß darauf, wie sehr die vorhandene Lichtstimmung in der Aufnahmen zu erkennen ist oder wie stark im Bedarfsfalle der Blitz diese Lichtstimmung ersetzt. Längere Verschlußzeiten und offene Blende betonen das normal vorhandene Licht.

Externe Blitzgeräte[Bearbeiten]

Kameras der höheren Preisklasse besitzen einen Blitzsynchronanschluss und einen Standard-Mittenkontakt oder Blitzschuh, auf den ein Aufsteckblitz (Zusatzblitz) aufgesteckt werden kann. Der ebenfalls standardisierte Blitzsynchronanschluss wird über ein Zündkabel mit dem Blitzgerät verbunden. Das Blitzgerät wird dann unabhängig von der Kamera aufgestellt. Ähnliche Kabel gibt es auch für den Mittenkontakt, um das Blitzgerät unabhängig von der Kamera positionieren zu können, Stabblitzgeräte verwenden zu können oder um mehrere Blitzgeräte damit anzusteuern. Je nach Hersteller wird der Mittenkontakt heute oft mit nicht standardisierten zusätzlichen Kontakten versehen, die es bei geeigneter Wahl des Blitzgerätes ermöglichen, dass Kamera und Blitz Informationen austauschen, etwa für die bereits genannte TTL-Blitzbelichtungsmessung oder zur automatischen Einstellung des Zoom-Reflektors, der automatischen Einstellung der Empfindlichkeit und Blende.

Der Zusatzblitz arbeitet unabhängig von der Stromversorgung der Kamera und hat damit eine meist kürzere Blitzfolgezeit. Zudem ist die Leitzahl oft größer.

Aufsteckblitze bieten zwei Arten der Belichtung: Direkter und indirekter Blitz. Zum indirekten Blitzen oder für Makroaufnahmen kann der Reflektor des Blitzes verschwenkt werden. Der direkte Blitz ist dieselbe Art wie bei Verwendung des integrierten Kamerablitzes. Das Motiv wird direkt vom Blitzlicht getroffen (der Blitz ist also auf das Motiv gerichtet). Je nach Modell kann der Blitz auch zwei Reflektoren haben, einen verschwenkbaren Hauptreflektor und einen kleinen für einen zusätzlichen direkten Blitz.

Beim indirekten Blitz wird der Blitz auf eine Wand, Decke oder ähnliches gerichtet. Das Licht wird dort gestreut und im ganzen Raum verteilt und fällt somit diffus auf das Motiv.

Der indirekte Blitz bietet einige signifikante Vorteile:

  • Das Licht wirkt weicher und weniger grell.
  • Die Schatten wirken weicher und fallen weniger auf.
  • Der Rote-Augen-Effekt kann nicht auftreten.

Es ist dabei jedoch zu beachten, dass die Reichweite des Blitzes bei indirektem Blitz vermindert wird, da das Licht einen weiteren Weg nimmt und stark gestreut wird. Zudem sollte die Oberfläche des angeblitzten Materials weiß sein - andernfalls könnte das Bild einen Farbstich bekommen.

Wird der Blitz nicht auf die Kamera aufgesteckt, sondern frei positioniert, wird auch die Wortkombination 'entfesseltes Blitzen' verwendet. Es ergeben sich damit viel mehr Gestaltungsmöglichkeiten als mit einem eingebauten Blitz oder einem, der auf die Kamera aufgesteckt wird. Noch mehr Gestaltungsmöglichkeiten ergeben sich durch den Einsatz mehrerer frei positionierter Blitzgeräte. Durch diese Maßnahmen lassen sich Schlagschatten, rote Augen und andere störende Effekte leichter vermeiden. Insbesondere duch Kombination mit der TTL-Technik ergibt sich auch die Möglichkeit, mit solch komplexen Aufbauten immer noch eine automatische Belichtung durchführen zu lassen. Gleichzeitig bieten die Systeme meist auch die Möglichkeit, Gruppen von Blitzgeräten relativ zueinander in der Helligkeit zu gewichten, um ein optimales Resultat zu erzielen.

Verwendet man nicht die für den jeweiligen Hersteller spezifischen Kommunikationstechniken und die dafür geeigneten Blitzgeräte, so ist es notwendig, die korrekte Belichtung selbst zu berechnen oder auszuprobieren.

Zudem gibt es für Makroaufnahmen spezielle Blitzgeräte. Denn bei kurzem Aufnahmeabstand ergibt sich beim eingebauten oder aufgestecktem Blitzgerät das Problem, dass der Blitz am Motiv vorbeileuchtet. Für Makroaufnahmen werden daher die Blitzgeräte gerne frei positioniert oder bei Freihandaufnahmen auch direkt vorne am Objektiv montiert, um zu einer optimalen Belichtung zu gelangen. Das erfordert dann auch wieder eine spezielle Verbindung vom Mittenkontakt zum Blitz. Teils wird auch die kabellose Kommunikation über das eingebaute oder ein aufgestecktes Blitzgerät realisiert, welche dann das Makroblitzgerät als Zweitblitz steuern.


Bei der Entladung des Kondensators im Blitzgerät entstehen Hochspannungspulse. Besonders bei ältere Geräten können diese über das Synchronkabel oder den Mittenkontakt bis zur Kamera gelangen. Moderne Kameras sind allerdings nicht mehr für solche Hochspannungspulse ausgelegt. Gemäß internationalem Standard müssen moderne Blitzgeräte die Spannung daher auf maximal 24V begrenzen, entsprechend müssen Kameras mindestens 24V an den Blitzkontakten vertragen können. Leider ist es nun so, dass besonders bei günstigen Modellen dieser Standard nicht berücksichtigt wird und die Kamera nur für wenige Volt verträglich ausgelegt ist. Zum Glück werden heute meist Computerblitzgeräte eingesetzt, wo die Synchronsation mit der Kamera komplett vom Hochspannungsteil entkoppelt ist, weswegen da keine Probleme auftreten. Bei einfacheren Blitzgeräten und besonders älteren von Fremdherstellen, ist allerdings immer zu prüfen, wie hoch die Spannungspulse des Blitzes sind und wie gut dies mit der Kameraelektronik verträglich ist. Die Handbücher beider Geräte sollten dazu präzise Angaben machen - darauf ist also gleich beim Kauf zu achten, gegebenenfalls ist das jeweilige Gerät als mangelhaft zurückzugeben, falls es die Norm mit den 24V nicht einhält. Für alte Blitzgeräte mit hohen Spannungen gibt es zudem auch Entkopplungsadapter, die man zwischen Blitzgerät und Kamera setzen kann, was dann auch zu raten ist, wenn es keine Angaben zur Spannung und Spannungsverträglichkeit beim Blitz oder bei der Kamera gibt.

Unerwünschte und störende Effekte[Bearbeiten]

Neben den gewünschten Abbildungen des eigentlichen Motives haben Kameras auch diverse, zumeist als unerwünscht empfundene Eigenschaften, häufig auch Fehler genannt, weil diese Eigenschaften es dem Photographen erschweren, eine Abbildung in seinem Sinne zu machen. Weniger wertend handelt es sich dabei einfach um Eigenschaften oder Eigenheiten des technischen Gerätes, die teils unvermeidbar sind oder wo bestenfalls eine geeignete Gewichtung all dieser Eingeschaften erreicht werden kann, damit diese sich im Ergebnis nicht allzu störend oder dominant bemerkbar machen. Aus einer anderen Perspektive können die so durch die Eigenschaften des technischen Gerätes entstandenen Artefakte aber auch als Bestandteil des Photographierens verstanden werden, mit denen ein Photograph umgehen können sollte, weil es kein perfektes System in dem Sinne gibt, dass es immer exakt die Abbildung bewerkstelligt, die der Photograph gerade im Sinn haben mag.

Bildfehler[Bearbeiten]

Trotz leistungsfähiger Sensoren können bei jeder Aufnahme gewisse Bildfehler auftreten, selbst dann, wenn eine korrekte Belichtung und Fokussierung vorgenommen wurde. In diesem Abschnitt werden einige typische Bildfehler vorgestellt, die in der Digitalphotographie auftreten können.

Bildrauschen[Bearbeiten]

Vor allem in der Dämmerungs- und Nachtphotographie gefürchtet: Das Bildrauschen.

Das Bildrauschen ist möglicherweise der verbreitetste Bildfehler. Er ähnelt dem Rauschen in der Analogphotographie (Grobkörnigkeit des Films), hat jedoch eine andere Ursache. Die Pixel des Kamerasensors sind bei den sehr kleinen Sensoren extrem dicht angeordnet. Da nur eine gewisse Lichtmenge durch das Objektiv fällt und die Pixel insgesamt nur sehr wenig Licht abbekommen, wird das empfangene Signal verstärkt, um ein korrektes Bild erzeugen zu können.

Das dabei beobachtete Rauschen liegt zunächst einmal an den Eigenschaften des Lichtes selbst (Photonenrauschen, Poissonstatistik). Das Signal-zu-Rausch-Verhältnis hat bei der Art von Licht, wie sie für die Photographie relevant ist, eine obere Schranke (Wurzel aus der Anzahl der detektierten Photonen) und ist somit nach oben physikalisch limitiert. Das Auslesen und Verstärken der Signale bewirkt, je nach Qualität der Kameraelektronik, einen weiteren Beitrag (Ausleserauschen, thermisches Rauschen) zum Bildrauschen. Bei heutigen (2013) Bildsensoren (sehr kleine Pixel, gute Elektronik) ist das Photonenrauschen bei niedriger eingestellter Lichtempfindlichkeit bereits der dominierende Faktor für das Bildrauschen. Diese physikalische Grenze lässt sich somit nur noch durch eine bessere Quanteneffizient der Sensoren (CCD, CMOS) oder größere Pixel ausreizen. Meist wird jedoch aus Kostengründen und zur Verkaufsförderung eine in die Kamera intergrierte scheinbare Rauschnunterdrückung durch Programme bevorzugt, bei gleichzeitig hohen Pixelzahlen. Diese Rauschunterdrückung findet aber nur Anwendung bei den JPEG/JFIF-Bildern, nicht bei den Rohdatenbildern, die der Photograph selbst nachbearbeiten kann. Nachteil einer solchen Glättung des Bildergebnisses ist, dass auch tatsächlich vorhandene Strukturen weggemittelt werden, die Auflösung der Bilder also signifikant sinkt, die hohe Pixelzahl also gar nicht mehr voll genutzt werden kann. Das Bildergebnis entfernt sich bei stärkerer Glättung immer weiter weg von einem Photo hin zu einer Computergraphik.

Jede Kamera hat also ein gewisses Grundrauschen, das heißt im Grunde ist jedes Photo von Anfang an verrauscht. Bis zu einem bestimmten Grad ist dieses jedoch nicht wahrnehmbar.

Besonders dunkle Bereiche sind anfällig für Rauschen, zum Beispiel schattige Aufnahmen oder Aufnahmen bei Nacht. Aufhellung solcher Bereiche mit einem Bildbearbeitungsprogramm verstärkt dabei das sichtbare Rauschen.

Das Bildrauschen nimmt zu bei...

  • Erhöhung des ISO-Werts (jenseits des optimalen Bereichs, bei Kameras oft bereits bei mehr als ISO-100)
  • Langzeitbelichtungen (etwa 0,5 s oder höher)
  • Warmer Umgebungstemperatur
  • Bildvergrößerung (digitaler Zoom oder nachträgliches Vergrößern)


Der Hauptgrund ist oft ein hoher ISO-Wert. Dieser ermöglicht zwar kürzere Verschlusszeiten und damit die Möglichkeit für Freihandaufnahmen, technisch gesehen entspricht die Erhöhung des ISO-Werts jedoch die Erhöhung der Signalverstärkung. Je mehr die Signale verstärkt werden, umso stärker ist aber auch das Bildrauschen. Ebenso erwärmt sich der Sensor umso stärker, je länger belichtet wird. Lange Belichtungszeiten führen daher ebenfalls oft zu einem wahrnehmbaren Rauschen. Bei warmer Umgebungstemperatur kann das Rauschen ebenfalls verstärkt werden, da der Sensor dann bereits eine gewisse "Grundwärme" besitzt.

Vorschau für eine Rauschreduzierung mit Hilfe eines Nachbearbeitungsprogramms.

Auf Grund des Auflösungsvermögens des Auges wird Rauschen erst ab einer bestimmten Stärke sichtbar. Vergrößerung eines Photos, was automatisch zur Verminderung der Auflösung führt, kann somit Rauschen sichtbar machen, das vorher noch nicht bemerkt wurde. Bildvergrößerung und Nachbearbeitung (zum Beispiel Aufhellung, Nachschärfen) ist also auch eine mögliche Ursache für Rauschen.

Es muss zudem gesagt werden, dass sich der Bildsensor bei Verwendung des elektronischen Suchers schon vor der Aufnahme aufwärmt, denn die Kamera zeigt im elektronischen Sucher permanent das aktuelle Bild an, was einer "Daueraufnahme" entspricht. Ist ein optischer Sucher vorhanden, so ist es in kritischen Situationen überlegenswert, den Monitor auszuschalten und damit den Sensor zu schonen. Im anderen Fall wäre eine Alternative, nicht zuviel Zeit zwischen Einschalten der Kamera und Auslösen verstreichen zu lassen.

Mit Hilf der digitalen Bildbearbeitung lässt sich Rauschen reduzieren, der Erfolg ist im Allgemeinen von der Stärke des Rauschens und den betroffenen Bildbereichen (ganzes Bild oder nur bestimmte Flächen) abhängig. Nicht durch das Rauschen bedingte Details werden damit allerdings ebenfalls weggemittelt, oder wie man auch gern im Fachjargon sagt: 'übergebügelt'.

Hot Pixel[Bearbeiten]

Hotpixel bei einer Nachtaufnahme.

Hot Pixel sind einzelne helle Bildpunkte im Bild, die in der Szene selbst nicht vorhanden waren. Sie können bei Langzeitbelichtung und Belichtung mit hohem ISO-Wert auftreten.

Hot Pixel dürfen nicht mit Stuck-Pixel verwechselt werden, die generell einen fehlerhaften Farbwert (oft schwarz) besitzen. Solche Pixel sind defekte Pixel auf dem Sensor - das Hot Pixel tritt hingegen nur bei Extrembedingungen auf, so dass ein Pixel des Sensors einen falschen Farbwert übermittelt.

Hot Pixel lassen sich meist schnell und einfach mit einem Bildbearbeitungsprogramm beheben. Bei einigen betroffenen Kameras ist es auch schon gelungen, durch eine Aktualisierung der Programme der Kamera (genannt Firmware) eine Verbesserung zu erzielen.

Farbstich[Bearbeiten]

Bei Farbstichen dominiert eine bestimmte Farbe im Bild, die nicht in der Szene selbst dominierte beziehungsweise nicht dem Seheindruck von Auge und Gehirn entspricht, weil diese solche Farbstiche beim eigenen Seheindruck einer Szene weitgehend kompensieren, bei der Betrachtung von Bildern von Kameras jedoch nicht. Blau ist der wohl häufigste Stich, der vor allem im Gebirge und in Meeresnähe auftreten kann. Hauptursache für einen Farbstich ist dabei ein fehlerhafter Weißabgleich (dazu später mehr). Farbstiche lassen sich mit Bildbearbeitungsprogrammen beheben, es könnte aber schwer sein, die "originale" Farbe der Szene wiederherzustellen.

Auch die besondere Stimmung von Sonnenauf- beziehungsweise untergang ist letztlich ein Farbstich im gelb/roten Bereich.

Ein anderes Beispiel sind Unterwasseraufnahmen - rotes Licht wird schneller vom Wasser absorbiert als grünes oder blaues. Daher sieht Wasser auch von außerhalb je nach Tiefe oft grün, türkis oder blau aus. Ohne Zusatzlicht verlieren sich also rote und gelbe Farben schnell im Wasser und es entsteht wieder der Eindruck eines Farbstiches.

Damit handelt es sich also weniger um einen Fehler der Kamera, sondern vielmehr um einen eigentlich realistischen Eindruck vom vorhandenen Licht. Weil das Gehirn sie allerdings praktisch automatisch ausgleicht, fallen sie uns erst auf Aufnahmen auf, die diesen Ausgleich nicht leisten.

Blooming und Smear[Bearbeiten]

Blooming-Effekt.

Blooming ist ein Effekt, bei dem von sehr hellen Leuchtquellen im Bild, etwa der Sonne, weiße Streifen herausragen. Dieses Phänomen trat vor allem bei älteren CCD-Sensoren auf. Die Ursache ist, dass ein einzelnes Pixel nur eine bestimmte Ladungsmenge verarbeiten kann. Bei zu hellem Licht wird diese Ladungsmenge überschritten und der überschüssige Teil dabei an das nachfolgende Pixel weitergegeben. Dieses hat aber ebenfalls nur eine begrenzte Ladungskapazität und gibt die überschüssige Ladung an das nächste Pixel weiter etc. Somit können unschöne Streifen entstehen.

Davon zu unterscheiden ist ein Effekt der Streuung der Sonnenstrahlen an den Lamellen der Blende, die Sonne bekommt dann gerne soviele Strahlen mit Drehsymmetrie, wie die Blende Lamellen aufweist. Dieser Effekt wird also von der Blende hervorgerufen und nicht vom Bildsensor. Während sich die Streifen des 'Blooming' an der Ausrichtung der Pixel orientieren, richten sich die drehsymmetrischen Streueffekte natürlich an der Ausrichtung der Blendenlamellen - je nach Blendenöffnung können die also insbesondere verdreht sein.

Smear-Effekt.

Ähnlich wie das 'Blooming' ist der Smear-Effekt, der ebenfalls bei CCD-Sensoren auftreten kann. Hierbei handelt es sich um eine schmale, senkrecht verlaufende helle Linie, die von der Leuchtquelle bis zum Bildrand verläuft.

Blooming- und Smear-Effekt treten bei heutigen Kameras eher seltener auf. Das Entfernen solcher störenden Effekte mit Bildbearbeitungsprogrammen ist jedoch deutlich aufwendiger als das Beheben der vorangegangenen Artefakte.

Kameras, welche nur über einen sogenannten elektronischen Verschluß verfügen, sind konstruktionsbedingt anfälliger für diese Effekte als Kameras, die einen mechanischen Verschluß haben, so dass der Bildsensor nur für die eigentliche Belichtungszeit beleuchtet wird, während dieser beim elektronischen Verschluß längere Zeit beleuchtet wird. Entsprechend sind hier auch Spiegelreflexkameras im Vorteil, bei denen die Spiegeltechnik von vorne herein eine längere Beleuchtung von Verschluß oder Sensor verhindern. Diese Artefakte und erhöhtes Sensorrauschen sind die primären Gründe, warum sich elektronische Verschlüsse bei Profikameras nicht durchgesetzt haben und allenfalls zusätzlich zum mechanischen Verschluß eingebaut werden.

Abbildungsfehler[Bearbeiten]

Das Objektiv oder das gesamte optische System einer Kamera dient der Abbildung des Motivs auf den Sensor oder Film. Im Idealfalle soll dabei ein gedachter Punkt des Motivs auf einen Punkt oder Pixel auf dem Sensor oder Film abgebildet werden. Zudem ist es oft wünschenswert, dass bei der Abbildung zum Beispiel Verhältnisse von Strecken zueinander erhalten bleiben oder parallele Linien wieder auf parallele Linien abgebildet werden. Abweichungen von diesen Idealvorstellungen werden Abbildungsfehler des optischen Systems genannt. Die Forderungen lassen sich nicht alle gleichzeitig erfüllen oder mit einem realen System zu vertretbaren Kosten nicht perfekt umsetzen, weswegen Abbildungsfehler oder spezielle Abbildungseigenschaften oder -eigenheiten bei einem optischen System immer anzutreffen sind. Im Folgenden werden einige Abbildungsfehler kurz erklärt.

Sphärische Aberration[Bearbeiten]

Sphärische Aberration bei einer Einzellinse

Asphärische Linse, in der Skizze wird angedeutet. welchem spärischen Radius sich die Linse zur optischen Achse hin annähert

Linsen im optischen System haben eine endliche Größe, um eine für die Belichtung ausreichende Lichtmenge auf den Sensor zu bekommen. Licht, welches zu einem Bildpunkt gehört, geht somit durch all jene Teile der Linsenfläche, für die der Weg des Lichtes nicht mit einer Blende abgedeckt sind. Bei sphärischen Linsen, wo also Vorder- und Rückseite aus Kugelsegmenten bestehen, variiert die Brennweite leicht mit dem Radius, an welchem das Licht durch die Linse geht. Dies führt zu einer verminderten Gesamtschärfe, die von der eingestellten Blende abhängt, der Effekt ist also stärker bei offener Blende, wo viel Licht vom Randbereich der Linse zur Belichtung beiträgt.

Der Effekt wird sphärische Aberration genannt und läßt sich durch asphärische Linsen vermeiden. Diese sind allerdings in der Berechnung aufwendig und in der Herstellung deutlich teurer als sphärische Linsen, werden daher nicht so oft verwendet. Bei falscher Rechnung oder mangelhafter Herstellung können bei asphärische Linsen zudem Verzerrungen auftreten, die sich je nach Motiv mehr oder weniger störend bemerkbar machen. Bei sphärischen Linsen kann die sphärische Aberration neben den Kosten ein wesentlicher Grund für die Begrenzung der Lichtstärke von Objektiven sein, denn offenbar macht sich der Effekt bei den lichtstarken Objektiven mit großen Linsen besonders stark bemerkbar. Weil die Schärfe beim Abblenden bedingt durch Beugung an der Blende auch wieder abnimmt, ergibt sich meist bei einer mittleren Blende bei jedem Objektiv ein Maxium an Schärfe und Auflösung.

Verwandte Probleme mit ähnlichen Auswirkungen sind Astigmatismus und Koma. Diese Effekte führen letztlich dazu, dass man für einen gedachten Objektpunkt statt des ideal erwarteten runden Beugungsmusters ein breiteres, asymmetrisches Muster erhält, das Bild also teilweise oder insgesamt weniger scharf ist, als man es ohne diese Fehler erwarten würde. Derartige oder ähnliche Effekte können sich auch verstärkt bemerkbar machen, wenn die Linsen nicht präzise vom Hersteller gegeneinander parallel ausgerichtet wurden oder nicht zur optischen Achse hinreichend zentriert sind.

Bildfeldwölbung[Bearbeiten]

Bildfeldwölbung bei einer Einzellinse

Das Problem der Bildfeldwölbung wird besonders auffällig, wenn eine ebene Fläche, die parallel zum Sensor angeordnet ist, auf diesen ebenen Sensor abgebildet werden soll. Tatsächlich bilden Linsen mit diesem Problem die ebene Fläche auf eine gewölbte Fläche ab. Bei einem ebenen Sensor sind also Teilbereiche nicht scharf. Wird etwa auf das Zentrum des Motivs scharfgestellt, erscheint dieses am Rand des Bildes unscharf. Das Problem macht sich besonders bei Nahaufnahmen bemerkbar, weswegen Makroobjektive speziell so konstruiert sind, dass sie eine kleinere Bildfeldwölbung aufweisen als Objektive, die nicht speziell für den Nahbereich ausgelegt sind, sondern zum Beispiel für hohe Lichtstärke.

Verzeichnung[Bearbeiten]

Prinzipskizze Verzeichnung

Verzeichnung bezeichnet das Problem, dass der Abbildungsmaßstab von der Entfernung zur optischen Achse abhängen kann. Der Effekt läßt sich am einfachsten feststellen, wenn ein Quadrat oder ein kariertes Muster als Motiv gewählt wird. Ohne Verzeichnung ergibt sich als Bild wieder ein Quadrat, beziehungsweise ein kariertes Muster. Liegt eine Verzeichnung vor, werden hingegen die geraden Linien zu Kurven verbogen dargestellt. Bei der kissenförmigen Verzeichnung wird der Abbildungsmaßstab nach außen größer, bei der tonnenförmigen Verzeichnung kleiner. Bei einem Quadrat wirkt sich das so aus, dass die Kanten relativ zu den Ecken gesehen zum Zentrum hingebogen erscheinen, wenn die Verzeichnung kissenförmig ist, hingegen vom Zentrum weggebogen, wenn die Verzeichnung tonnenförmig ist. Die Namen ergeben sich zwanglos daraus, dass in dem einen Falle das Quadrat eingefallen wie ein Kissen erscheint oder aufgebläht wie eine Tonne.

Insbesondere bei Superweitwinkelobjektiven kann eine meist tonnenförmige Verzeichnung unvermeidbar sein, um den gewünschten Bildwinkel zu erreichen, beziehungsweise die Vermeidung der Verzeichnung kann zu anderen Abbildungsfehlern führen. Bei Fischaugenobjektiven ist die tonnenförmige Verzeichnung beabsichtigt oder notwendig, um den gewünschten großen Bildwinkel zu erreichen. Allerdings gibt es auch hier verschiedene Abbildungsverfahren.

Werden schlecht gerechnete asphärische Linsen verwendet, kann die Verzeichnung teilweise kissenförmig sein, teilweise tonnenförmig. Bei geeigneter Motivwahl kann das dann so wirken, als würde vom Zentrum des Motivs eine sphärische Schockwelle einer Explosion ausgehen (oder deutlich unwahrscheinlicher: eine gravitative Verzerrung).

Chromatische Aberration[Bearbeiten]

Chromatische Aberration bei einer Einzellinse, unterschiedliche Wellenlängen führen zu verschiedenen Brennpunkten
Chromatische Aberration, beim hell-dunkel-Übergang entstehen Farbränder

Die Brennweite einer einzelnen Linse hängt praktisch immer von der Wellenlänge des Lichtes ab. Das wirkt sich so aus, dass in Richtung der optischen Achse verschiedene Farben desselben Motivpunktes unterschiedlich scharf abgebildet werden, außerhalb der Achse können sie auf verschiedene Bildpunkte abgebildet werden. Dies führt dann dazu, dass etwa kleine weiße Bereiche im Motiv, die von dunklen Flächen umgeben sind, auf dem Bild als Farbverteilung auftreten, benachbarte Pixel also verschiedene Farben des weißen Bereichs aufnehmen, statt eines kleinen weißen Bereiches ergibt sich so eine größere, bunte Fläche. Besonders auffällig wird der Effekt also an Bildmotiven mit einem starken hell-dunkel-Kontrast.

Zur Reduzierung des Effektes werden mehrere Linsen verwendet, insbesondere solche mit unterschiedlicher chromatischer Aberration, die so kombiniert werden, dass sich die Fehler der Einzellinsen näherungsweise gegenseitig aufheben.

Für Nahaufnahmen werden etwa gerne zusätzliche Linsen vor das Objektiv geschraubt, wodurch der Effekt schnell sehr deutlich wird. In diesem Falle ist statt einer einfachen Nahlinse ein Achromat zu empfehlen, bei dem der Effekt mit zwei Linsen drastisch reduziert wird.

Weitere Effekte mit Einfluß auf das Bildergebnis[Bearbeiten]

Neben den Effekten, die direkt etwas mit dem optischen System zu tun haben und denen, die eher dem Sensor zuzuordnen sind, gibt es weitere Effekte, die auf Abbildungen sichtbar werden können und die oft als unerwünscht eingestuft werden.

Beugung[Bearbeiten]

Beugungsmuster einer runden Öffnung

Bedingt durch die endliche Größe von Linsen und Blenden kommt es bei einer Abbildung zwangsläufig immer zu einer Beugung an den Öffnungen, durch welche das Licht in die Kamera bis zum Sensor gelangt. Der Effekt tritt zum Beispiel auch bei Lochkameras ganz ohne optisches System auf. Dies ist also ein fundamentaler Effekt, der auf die Wellenausbreitung des Lichtes zurückzuführen ist. Je kleiner die Öffnung, durch welche das Licht fällt, desto auffälliger der Effekt.

Die Wirkung der Beugung besteht darin, dass ein gedachter Motivpunkt nicht auf einen Bildpunkt abgebildet wird, sondern sich das Licht um diesen Punkt herum in einem meist rotationssymmetrischen Muster verteilt (die Rotationssymmetrie ist natürlich nicht genau gegeben, wenn die relevante Öffnung nicht rotationssymmetrisch ist). Von diesem Muster ist in der Praxis meist nur der innere Bereich mit dem größten Intensitätsanteil relevant, das sogenannte Beugungsscheibchen, welches für eine vereinfachte Betrachtung häufig zur Abschätzung genannt wird. Ist dieses deutlich größer als ein Pixel des Sensors, so wird nicht die mit dem Sensor erreichbare maximale Auflösung erreicht. Ist das Beugungsscheibchen bei der Betrachtung eines Bildes gar größer als die kleinste Struktur, die das Auge des Betrachters auflösen kann, so wirkt das Bild nicht ganz scharf.

Einmal abgesehen von zusätzlichen Komplikationen im Bereich einer Blendenstruktur, welche für die Beugung verantwortlich ist, steigt der Durchmesser des Beugungsscheibchens mit dem Abstand dieser Struktur vom Sensor und mit steigender Blendenzahl. Weil starke Vergrößerungen mit einem entsprechend größeren Abstand zwischen der Struktur und dem Sensor erreicht werden, ist die Beugung bei starker Vergrößerung praktisch immer ein Faktor, welcher bei der Aufnahme berücksichtigt werden muß. Dies kann insbesondere dazu führen, dass bei starken Vergrößerungen (Makro- und Mikrophotographie) nur noch mit offener Blende gearbeitet werden kann, um den Beugungseffekt hinreichend klein zu halten. Mikroskopobjektive werden zum Beispiel gleich so hergestellt, daß sie bei gegebener Vergrößerung maximale Auflösung haben, ein Abblenden ist bei diesen nicht möglich oder sinnvoll.

Streuung und Reflexion[Bearbeiten]

Streulicht - bei dieser Aufnahme (auf dem Mond) wird Streulicht vom intensiven Sonnenlicht sichtbar
Vielfachreflexionen der Sonne trotz Entspiegelung

Unter diesen Begriffen kann eine größere Anzahl von meist unerwünschten Effekten zusammengefaßt werden, die entstehen, wenn Licht von außerhalb des eigentlichen Strahlenganges zwischen Motiv und Sensor durch Spiegelung oder eine Mischung von Absorbtion und Reemission wieder in den Strahlengang gelangt und somit auf den Sensor. Reflexion triff häufig zwischen den Linsen des optischen Systems auf. Diese sind zwar meist entspiegelt, was aber nicht perfekt und für alle Wellenlängen des Lichtes gleich gut möglich ist. So wird ein kleiner Teil des Lichtes mehrfach zwischen den Linsen reflektiert und gelangt so als zusätzliches Licht auf den Sensor. Die Kamera kann allerdings auch reflektierende Filter enthalten und zudem kann die Oberfläche des Sensors selbst Licht zurück ins Linsensystem reflektieren oder streuen, von wo es dann wieder zurück auf den Sensor gelangen kann.

Wirksame Gegenmaßnahmen innerhalb der Kamera müssen die Hersteller treffen, indem sie neben dem eigentlichen Strahlengang absorbierendes Material anordnen oder auch mit speziellen Kanten und Vorsprüngen am Rande des Strahlenganges derartiges Streulicht reduzieren und ausblenden. Allerdings können auch helle Objekte im Motivbereich oder dicht daneben zu diesen Effekten führen. Zumindest wenn solche Objekte nicht selbst im Bildwinkel liegen, kann bei der Aufnahme eine genau passende Streulichtblende verwendet werden, um zu vermeiden, dass derart unerwünschtes Licht überhaupt in die Kamera gelangt. In der Mikroskopie wird dieses Prinzip optimiert: Bei der Köhlerschen Beleuchtung fällt überhaupt nur auf das Motiv Licht und nicht auf Bereiche daneben. Zumindest wenn die Ausleuchtung der Aufnahme selbst vorgenommen wird, kann dieses Prinzip auch bei makroskopischen Motiven verwendet werden.

Entsprechend sind reflektierende Filter immer möglichst weit vorne am Objektiv anzubringen, damit das reflektierte Licht gar nicht erst ins Objektiv gelangt. Absorbierende Filter werden hingegen warm (senden unerwünschtes infrarotes Licht aus) und sind auch deshalb möglichst etwas weiter weg vom Sensor zu montieren.

Randlichtabfall[Bearbeiten]

Aufgrund des Geometrie des selbst leuchtenden Motivs, vor allem aber auch durch eine geometrisch bedingte Abhängigkeit der Lichtmenge, die auf verschiedene Bereiche des Sensors trifft, kann es zu dem Effekt kommen, dass etwa eine ebene, überall gleich hell strahlende Fläche auf dem Sensor als nicht überall gleich hell abgebildet wird. Das Bild wird zum Rand dunkler, dabei handelt es sich um einen Randlichtabfall, der primär durch geeignete Maßnahmen des Objektivherstellers zu reduzieren ist. Eine geeignete kompensierende Ausleuchtung des Motivs ist beinahe immer zu aufwendig, um in akzeptabler Zeit realisierbar zu sein.

Bei Fischaugenobjektiven mit rundem Bild kommt es ganz am Rand des Bildes nahezu zwangsläufig zu einem Randlichtabfall.

Vignettierung[Bearbeiten]

Vignettierung bei einem Fischaugenobjektiv

Bei einer Vignettierung handelt es sich um die Abschattung von Teilen des Sensors durch Strukturen im Objektiv oder aber auch durch Strukturen wie der Streulichtblende oder den Fingern des Photographen vor dem Objektiv.

Die Blende eines Objektivs führt selbst nicht bei Abblendung zur Vignettierung, weil diese im Strahlengang so positioniert ist, dass das Licht, welches in jedem Punkt durch die verbleibende Öffnung gelangt, auch zu jedem Bildpunkt beiträgt. Die Abblendung führt dann nur zu einer Verminderung der Lichtmenge insgesamt und nicht teilweise nur für bestimmte Bildpunkte.

Bei Fischaugenobjektiven mit rundem Bild ist der Effekt der Vignettierung zwangsläufig zu sehen, wenn ein rechteckiger Sensor verwendet wird. Aber auch eine falsch geformte Streulichtblende, ein zu kleiner Filter oder Strukturen, welche einfach an falscher Stelle in den Strahlengang ragen, können nicht nur dazu führen, dass die Gesamthelligkeit für die Aufnahme abnimmt oder dass Streulcht auftritt, sondern sie können auch zu einer partiellen, meist unscharfen Abschattung von Teilen des Sensors führen.

Die Vermeidung ist zum einen konstruktiv durch den Objektivhersteller vorzunehmen, zum anderen muß der Photograph aber auch passendes Zubehör verwenden, insbesondere muß das verwendete Objektiv zur Größe des Sensors passen. Insbesondere Objektive, die nur für kleine Sensoren geeignet sind, führen bei Sensoren im Kleinbildformat schnell zu Vignettierungen.

Bei Fischaugenobjektiven oder Superweitwinkelobjektiven kann auch Schmutz auf der Frontlinse zu Vignettierung führen, was bei anderen Objektiven sonst eher ein zu vernachlässiger Effekt ist. Allerdings haben auch Kameras mit kleinen Sensoren zwangsläufig Objektive mit kurzen Brennweiten, bei denen dies eine Rolle spielen kann.

Licht falscher Wellenlänge[Bearbeiten]

Filme und Sensoren sind oft nicht nur genau für den Bereich empfindlich, der für die Aufnahme als relevant angesehen wird, also meist der sichtbare Bereich des Spektrums. So kann es auch eine Empfindlichkeit für ultraviolettes Licht und infrarotes Licht geben, die bei schlechter Filterung von der Kamera als blau, beziehungsweise rot interpretiert werden können. Zumeist sind entsprechende Sperrfilter bereits auf dem Sensor angebracht, wenn dieser ohnehin Filter für seine roten, grünen und blauen Pixel hat, die Filter müssen aber nicht perfekt funktionieren. Gibt es beim Motiv eine intensive Strahlungsquelle für ultraviolettes oder infrarotes Licht, so kann es daher sinnvoll sein, einen entsprechenden Sperrfilter gleich vor das Objektiv zu schrauben.

Weißabgleich[Bearbeiten]

Einleitung[Bearbeiten]

Der Weißabgleich (WB – White Balance) ist vor allem aus der Digitalphotographie bekannt und wird von jeder Kamera zumindest in automatischer Form durchgeführt. Die meisten Kameras bieten zudem einen halbautomatischen Weißabgleich an, so dass der Benutzer aus einer Auswahl von vorgegebenen Modi aussuchen kann. Auch ein vollständig manueller Weißabgleich wird oft mit angeboten. Das deutet an, dass der Weißabgleich eine rechte hohe Bedeutung für die Photographie besitzen kann.

Die Farben, die wir in der Natur wahrnehmen, erscheinen je nach Lichtquelle in unterschiedlichen Tönen. Das Gehirn kompensiert Abweichungen der spektralen Verteilung der Lichtquelle von dem der mittleren Sonneneinstrahlung mehr oder weniger automatisch. In der Fachsprache wird dies als chromatische Adaption bezeichnet. Eine rote Tomate erscheint uns somit bei Glühlampenlicht ähnlich rot wie bei Sonnenlicht und bewölktem Himmel, obwohl alle drei Leuchtquellen unterschiedliche Farbtemperaturen besitzen und die rote Tomate somit eigentlich leicht unterschiedliche Töne annehmen würde. Dass wir die Tomate dennoch rot sehen liegt auch daran, dass wir aus Erfahrung wissen, wie eine Tomate aussieht und das Gehirn somit den Farbwert erzeugt, den wir erwarten würden. Tatsächlich beeinflusst die Farbtemperatur die Farben jedoch erheblich. Die Kamera, die nicht über ein solch leistungsfähiges Gehirn verfügt und nicht auf Erfahrungswerte zurückgreifen kann, muss daher an das Umgebungslicht angepasst werden. Auch die Kompensationsfähigkeit des Gehirns stößt irgendwann an seine Grenzen, was man leicht erkennen kann, wenn man die genannte Tomate nur mit rein blauem Licht beleuchtet.

Die Farbtemperatur wird in Kelvin angegeben, hat aber absolut nichts mit der Umgebungstemperatur zu tun. Sie liegt bei Kerzenlicht um 1.500 K, bei Tageslicht um 5.500 K und bei Nebel um 9.000 K. Man erkennt damit, dass die Spanne sehr groß ist. Der Zusammenhang mit der Temperatur ist dadurch gegeben, dass ein schwarzer Körper der angegebenen Temperatur ein entsprechendes Farbstpektrum aufweist. Aus dem Wert 5.500 K für Tageslicht kann man also schließen, wie heiß die Sonne an ihrer Oberfläche ungefähr ist, denn Sonnenoberflächen verhalten sich ungefähr wie schwarzer Körper. Die Variation der Farbtemperatur über den Tag oder bei unterschiedlichem Wetter liegt natürlich nicht an einer Temperaturänderung der Sonne, sondern daran, dass das Licht dann in der Atmosphäre anders gestreut wird, es werden praktisch Teile des von der Sonne abgestrahlten Spektrums herausgefiltert.

Bei Lichtquellen wie Leuchtstoffröhren oder LEDs indessen entsteht das Licht nicht durch Erhitzung, sondern durch andere Prozesse, weswegen solche Lichtquellen ein ganz anderes Spektrum aufweisen können oder Farbtemperaturen entsprechen, die nichts mit ihrer Oberflächentemperatur zu tun haben.

In der Analogphotographie war die Möglichkeit des Weißabgleichs nicht so einfach wie bei den Bildsensoren. Der Effekt ist hier derselbe und so gibt es auch in der Analogtechnik verschiedene Möglichkeiten für den Weißabgleich. In der Digitalphotographie gehört der Weißabgleich hingegen zur Standardausrüstung jeder Kamera. Bei Filmmaterial kann in eingeschränktem Umfang auf unterschiedliches Filmmaterial zurückgegriffen werden, dessen Farbempfindlichkeit anders verteilt ist.

In diesem Kapitel soll der Weißabgleich näher erläutert werden, vor allem in Bezug auf die Digitalphotographie. Der Weißabgleich kann theoretisch auch dem Kapitel der Belichtung zugeordnet werden, soll hier aber als eigenständiger Abschnitt behandelt werden, da er mit dem eigentlichen Vorgang der Belichtung (Wahl von Verschlusszeit, Blendenzahl und Empfindlichkeit) nichts zu tun hat. Auch geht es beim Weißabgleich nicht um hell oder dunkel (wie bei der Belichtung), sondern um die möglichst 'realistische' ("farbneutrale") Wiedergabe von Objekten, wie sie unter Beleuchtung mit Tageslicht erscheinen würden.

Die Farbtemperaturen[Bearbeiten]

Farbtemperaturen in verschiedenen Situationen[Bearbeiten]

Wirkung von Farben bei unterschiedlichen Farbtemperaturen. Das menschliche Auge wird stets die 'korrekten' Farben erkennen, die Kamera kann dies nicht.

Die Temperatur des Umgebungslichts liegt meist zwischen 1.500 und 12.000 K. In diesem Abschnitt sollen die Farbtemperaturen einiger wichtigen Umgebungslichter angegeben werden.

Einige Farbtemperaturen:

  • Kerzenlicht: 1.500 K
  • Glühlampe, 40 W: 2.220 K
  • Glühlampe, 100 W: 2.800 K
  • Halogenlampe: 3.000 K
  • Leuchtstofflampe: 4.000 K
  • Xenonlampe: 4.500 .. 5.000 K
  • Morgensonne, Abendsonne: 5.000 K
  • Vormittagssonne, Nachmittagssonne: 5.500 K
  • Mittagssonne: 5.500 .. 5.800 K
  • Bewölkung: 5.500 .. 5.800 K
  • Bedeckter Himmel: 6.500 K .. 7.500 K
  • Nebel, Dunst: 7.500 K .. 8.500 K
  • Wolkenloser Himmel auf der beschatteten Nordseite: 9.000 .. 12.000 K


Bei sonnigem Wetter wird man es somit mit Farbtemperaturen zwischen 5.000 und 5.800 Kelvin zu tun haben, bei bewölktem oder bedecktem Wetter mit Temperaturen von 5.500 bis 7.500 Kelvin. Vor allem in Innenräumen ist die Farbtemperatur jedoch deutlich geringer; bei Glühlampenlicht etwa nur zwischen 2.000 und 3.000 Kelvin.

Am Meer und im Gebirge (hier vor allem mit zunehmender Höhe) liegt die Farbtemperatur meist deutlich höher als oben angegeben. Im Gebirge sind an einem sonnigen oder bewölkten Tag Farbtemperaturen von 6.500 bis 12.000 K möglich. Um einen Blaustich zu vermeiden, muss der Weißabgleich hier besonders im Auge behalten werden. Bedingt durch die Filterwirkung des Wassers gibt es eine ähnliche Betonung der blauen Farben bei Unterwasseraufnahmen.


Global- und Himmelsstrahlung (Exkurs)[Bearbeiten]

In der Meteorologie unterscheidet man zwischen Globalstrahlung und Himmelsstrahlung. Die Globalstrahlung bezeichnet das direkt auf die Erde einfallende Sonnenlicht, Himmelsstrahlung ist hingegen das vom Himmel gestreute, auf die Erde zurückfallende Licht. Durch die Streuung an der Atmosphäre sorgt dies für einen leichten Blaustich. Die Streuung ist zudem Winkelabhängig, wesewegen man tagsüber einen blauen Himmel sieht und bei Sonnenaufgang oder -untergang einen im Farbbereich rot bis gelb.

An sonnigen Tagen ist die Globalstrahlung deutlich höher als die Himmelsstrahlung, denn der wolkenlose Himmel wird nur wenig ausfallendes Licht streuen. An bewölkten Tagen ist sie hingegen nur wenig höher als die Globalstrahlung und der Blaustich fällt mehr ins Gewicht, da die ausfallenden Lichtstrahlen nun an den Wolken zurückgeworfen werden.


Die Auswirkung der Farbtemperaturen[Bearbeiten]

Es gilt folgendes festzuhalten:

  • Niedrige Farbtemperaturen (zum Beispiel Kerzenlicht, Glühlampen) haben einen roten Stich.
  • Mittlere Farbtemperaturen (Tageslicht, Sonnenlicht) erscheinen der Kamera neutral.
  • Hohe Farbtemperaturen (zum Beispiel Nebel, Bewölkung) haben einen blauen Stich.

Je weiter man sich von der "Mitte" entfernt, umso stärker wird der Rot- beziehungsweise Blaustich. Wie bereits erwähnt, nimmt das menschliche Auge diesen Stich nicht beziehungsweise kaum wahr. Die Kamera würde diesen Stich jedoch wahrnehmen, wenn sie keinen Weißabgleich anwendet.

Wenn die Kamera die Farbtemperatur kennt, so weiß sie welchen Farbstich das Bild annehmen wird und wie groß dieser sein wird. Sie wird diesen Stich nun verhindern, indem sie die entgegengesetzte Farbe hinzugibt, also mit einer Art "Gegen-Stich" arbeitet. Das heißt also praktisch, dass die blauen, grünen und roten Pixel relativ zueinander anders gewichtet werden.

Ein Beispiel: Bei einer Farbtemperatur von 2.500 K (einfaches Glühlampenlicht) entsteht ein roter Stich. Die entgegengesetzte Farbe ist blau, also wird die Kamera bei diesem Bild die blauen Pixel mehr verstärken und damit den Rot-Stich kompensieren. Für uns erscheint das Bild dann in neutralen Farben.

Wird bei nebligem Wetter photographiert, entsteht ein Blaustich. Die Kamera wird hier also rot hinzugeben, um diesen zu kompensieren.

Hierbei erkennt man, dass ein falscher Weißabgleich zu Stichen führt. Angenommen es ist ein sonniger Tag mit 5.500 K Lichttemperatur. Wird die Kamera jetzt auf einen niedrigen Wert eingestellt (zum Beispiel Glühlampenlicht, also rund 2.500 K), geht sie davon aus, dass das Bild einen Rotstich hat. Sie gewichtet blau mehr und das Bild wird entsprechend blauer. Bei 5.500 K tritt jedoch kein Farbstich auf – die Kamera gewichtet also blau mehr, obwohl das Bild bereits die korrekte Farbe hat. In diesem Fall würde das ursprünglich korrekte Bild also allein durch den falsch eingestellten Weißabgleich einen (nun auch für den Menschen tatsächlich sichtbaren) Blaustich erhalten.

Merke also: Das fehlerhafte Anwenden des Weißabgleichs kann ebenso zu Farbstichen führen wie das Nicht-Anwenden des Weißabgleichs.

Die Digitalkameras ermitteln die Farbtemperatur heute meist automatisch und oft sehr zuverlässig; der Weißabgleich lässt sich auch nicht abstellen, lediglich ein manuelles Eingreifen ist möglich. Welche Arten des Weißabgleichs existieren, wird im Nachfolgenden vorgestellt. Sind insbesondere Lichtquellen vorhanden, die ein besonderes Farbspektrum haben, welches relevant für die Aufnahme ist, kann der automatische Weißabgleich der Kamera groben Unfug anstellen, der Weißabgleich ist dann so vorzunehmen, dass das gewünschte Ergebnis erzielt wird.


Die Arten des Weißabgleichs[Bearbeiten]

Automatischer Weißabgleich[Bearbeiten]

Beim automatischen Weißabgleich (AWB) wird der Weißabgleich von der Kamera vollautomatisch vorgenommen. Der AWB ist meist voreingestellt und arbeitet in vielen Situationen korrekt. Die Kamera sucht sich dabei eine für sie weiß erscheinende Fläche, die sie als Referenz verwendet und darüber die Farbtemperatur bestimmt. Existiert keine weiße Fläche, so wird die hellste Stelle im Photo beurteilt. Ist diese jedoch nicht neutralgrau, sondern farbig, kann der automatische Weißabgleich fehlschlagen und zu einem Farbstich führen; dies ist oft bei Dämmerungsaufnahmen und Sonnenauf- und -untergängen der Fall.

Halbautomatischer Weißabgleich[Bearbeiten]

Beim halbautomatischen Weißabgleich wählt der Benutzer aus einer Liste von vordefinierten Umgebungslichtern aus. Die Kamera bietet hierfür meist Sonnenlicht (circa 5.500 K), Bewölkt (circa 7.000 K), Glühlampen/Kunstlicht (circa 2.500 K) und Leuchtstofflampe (circa 4.000 K).

Der halbautomatische Weißabgleich bietet sich an, wenn man das Umgebungslicht genau kennt, das heißt wenn man beispielsweise in einem Raum mit Leuchtstofflampen Aufnahmen tätigt. Sonst ist eher auf den automatischen oder manuellen Weißabgleich zu setzen.

Sollen die Sensoren unabhängig von der gewählten Lichtquelle gewichtet werden, so ist es meist sinnvoll, einen Wert um 5.500 K zu verwenden.


Manueller Weißabgleich[Bearbeiten]

Beim manuellen Weißabgleich richtet man die Kamera vor der eigentlichen Aufnahme auf eine weiße Fläche, etwa ein weißes Blatt Papier, und nimmt ein Referenzphoto auf. Dieses Photo "merkt" sich die Kamera und benutzt es als Referenz für den zukünftigen Weißabgleich. Sie weiß damit genau, welche Farbtemperatur vorherrscht und kann somit den Weißabgleich korrekt durchführen. Dieses Verfahren eignet sich, wenn der AWB kein optimales Ergebnis erzielt oder wenn man von vorn herein einen möglichst genauen Weißabgleich erlangen möchte.

Bietet die Kamera keinen manuellen Weißabgleich, also keine Referenzphoto-Funktion, so kann man im Fachhandel eine Graukarte (18 % Grau) erwerben. Diese platziert man am Rand des Bildes und nimmt das Motiv samt Graukarte auf. Die Graukarte dient dann für ein Bearbeitungsprogramm als Referenzkarte und kann damit verwendet werden, um die korrekten Farben im Nachhinein wiederherzustellen. Nachteil ist hierbei, dass man am Ende den Teil des Bildes abschneiden muss, auf dem sich die Graukarte befand, da diese natürlich nicht Teil des Photos sein soll. Eine Lösung hierfür ist, dass man zwei identische Photos aufnimmt, das eine mit Graukarte und das andere ohne Graukarte, und dann zunächst das Photo mit Graukarte in dem Bildbearbeitungsprogramm optimiert. Hierbei muss man sich merken (beziehungsweise notieren), welche Parameter man auf welche Weise geändert hat. Ist das Bild optimiert, kann man das zweite Photo (das Photo ohne Graukarte) nachbearbeiten – hierbei setzt man die Parameter so, wie sie in dem ersten Photo gesetzt wurden.


Kreativer Weißabgleich[Bearbeiten]

Der Weißabgleich dient vordergründig zur Darstellung möglichst 'realistischer' Farbeindrücke. Wie Brennweite, Belichtungsdauer, Blende und Fokus ist er aber ebenfalls ein künstlerisches Gestaltungsmittel. Für ausgefallene Photos ist es oft empfehlenswert, einmal bewusst den falschen Weißabgleich einzustellen. In manchen Fällen werden dadurch Photos mit interessanten Farben erzeugt.

Der Weißabgleich in der analogen Photographie[Bearbeiten]

In der Analogphotographie gibt es zunächst zwei grundlegende Arten von Filmen: Tageslichtfilm, der auf rund 5.500 K ausgelegt ist und Kunstlichtfilm, der auf rund 3.400 K ausgelegt ist. Somit konnte man zumindest annähernd zwischen Tageslicht und Kunstlicht unterscheiden; in den meisten Fällen wird man somit Tageslichtfilm verwendet haben.

Für anspruchsvollere Photographen gibt es außerdem entsprechende Filter, die man vor die Kamera stecken kann und die damit einen bestimmten Farbstich reduzieren. Photolabore sind zudem in der Lage, gewisse Farbstiche aus den Aufnahmen zu entfernen.

Die Bildgestaltung[Bearbeiten]

Allgemeine Grundlagen[Bearbeiten]

Einführung[Bearbeiten]

Die Bildgestaltung (auch: Komposition) ist eines der wesentlichsten Gebiete des Photographieren. Sie ist eigentlich der erste Schritt bei jeder Aufnahme eines Fotos und liegt damit zeitlich vor der tatsächlichen, von der Kamera durchgeführten Aufzeichnung des Fotos. Da die technischen Grundlagen der Fotographie jedoch für die Bildgestaltung von großer Bedeutung sind, wurde das entsprechende Kapitel vorangestellt.

Vor allem Laien neigen oft dazu, sich über Bildgestaltung wenig oder gar keine Gedanken zu machen. Solche Aufnahmen bezeichnet man für gewöhnlich als Schnappschuss – das Foto wird ohne großes Nachdenken und In-Szene-Setzen aufgenommen. Das Ergebnis ist dann oft enttäuschend. Fast jedem wird dies bereits einmal aufgefallen sein – das Foto wirkt am Ende ganz anders als man sich vorgestellt hat oder wie man die Szene selbst erlebt und gesehen hat. Die Aufnahme erscheint vielleicht flach, ausdruckslos, langweilig. Der Hauptgrund ist dabei, dass die Kamera die Welt auf andere Weise sieht als wir. Sie ist einäugig und erzeugt zweidimensionale Abbilder, während wir die Welt mit zwei Augen sehen und sie für uns räumlich erscheint. Wenn man einmal ausprobieren möchte, wie die Kamera einen Ausschnitt "sieht", so reicht es bereits aus, das linke oder rechte Auge zu schließen – das Bild wirkt dann in der Tat ganz anders.

Es gibt jedoch einige elementare Regeln und Tricks, wie man Szenen so gestalten beziehungsweise aufnehmen kann, dass sie attraktiver wirken und aus einem spontanen Schnappschuss eine durchdachte, ansprechende Aufnahme wird. In diesem Abschnitt werden einige wenige, aber umso bedeutendere Regeln vorgestellt, um qualitativ bessere Bilder zu erzeugen. Hauptanliegen ist dabei, ein geeignetes Motiv zu finden, es im Bild zu positionieren und Tiefe zu erzeugen (also den dreidimensionalen Eindruck zu einem gewissen Grad wiederherzustellen). Das Verinnerlichen dieser grundlegenden Regeln der Bildgestaltung ist eine gute Voraussetzung, um überzeugende Bilder hervorzubringen - eine Vielzahl dieser Regeln sind dabei im Kern sehr einfach und nachvollziehbar, so dass sie Fotografen mit ein wenig Erfahrung oft ganz automatisch befolgen.

Die Bildgestaltung[Bearbeiten]

Unter der Bildgestaltung (Komposition) versteht man die Anordnung und Verbindung formaler Elemente in einem Kunstwerk. Sie umfasst damit für gewöhnlich das Suchen und Auswählen eines Motivs sowie die Anordnung dessen in einem Bild. Dabei sind eine Vielzahl von Nebenbedingungen wie Farben, Kontrast, Strukturen, Bildausschnitt, Perspektive etc. zu beachten; auch die technischen Grundlagen der Photographie spielen hier eine gewisse Rolle. So wirken sich Schärfentiefe, Belichtungsdauer, Brennweite etc. ebenfalls auf das zukünftige Bild aus.

Da die Bildgestaltung ein kreativer Prozess ist, ist sie von sehr individuellem Charakter. Eigentlich sollte jeder für sich selbst entscheiden können, wie das aufzunehmende Bild am besten gestaltet werden soll und wie es am besten wirkt – ein Kapitel über Bildkomposition wäre demnach eigentlich überflüssig. Es gibt jedoch verschiedene Regeln und Richtlinien, die man im Allgemeinen befolgen kann, um ästhetisch ansprechende Photos zu erlangen, egal welche eigenen Motive und Ziele man verfolgt. Auch wenn jeder Photograph seinen eigenen Stil besitzt und eine individuelle Meinung zur Bildgestaltung hat, wird er diesen Richtlinien in vielen Fällen folgen. Eine Anleitung zur "korrekten" Bildkomposition für ein bestimmtes Motiv beziehungsweise einen bestimmten Fall ist aber natürlich weder möglich noch sinnvoll. Da es nicht nur einen Weg zu einem guten Bild gibt, schließen sich einige Regeln auch gegenseitig aus. Daher hat man oft auch bei der Befolgung der Regeln die Wahl, welche Variante am besten zum Motiv passt.

Manchmal ist es auch interessant, die in diesem Abschnitt vorgestellten Regeln bewusst zu brechen und somit ein außergewöhnliches Photo zu erzielen. Dies sollte jedoch mit Bedacht getan werden – das Brechen aller Regeln führt nicht automatisch zu beeindruckenden Photos, sondern schnell zu Chaos oder unqualifizierten Aufnahmen. Wie überall muss am Ende das "Gesamtpaket" stimmen.

Komposition und Motive[Bearbeiten]

Grundlagen[Bearbeiten]

Beispiel für Bildgestaltung. Hauptmotiv im linken Bilddrittel; Nebenmotive füllen die rechte Seite des Bildes, ohne vom Hauptmotiv zu sehr abzulenken.

Das Motiv eines Photos ist der kennzeichnende, die Aufmerksamkeit des Betrachters auf sich lenkende Teil eines Photos. Man sagt auch, es hat die höchste Gewichtung, also die größte Aussagekraft beziehungsweise Bedeutung. Andere Bereiche des Photos haben demnach eine niedrigere Gewichtung, sie sind eher Beiwerk, dürfen bei der Gestaltung aber dennoch keineswegs vernachlässigt werden.

Ein Photo kann auch aus mehreren Motiven aufgebaut sein, zum Beispiel drei Apfelbäume auf einer Wiese oder zwei Personen, die um die Wette laufen. In vielen Fällen gibt es dabei ein Hauptmotiv (das Motiv mit größter Bedeutung beziehungsweise Aussage) und entsprechende Nebenmotive. Manchmal meint der Begriff Nebenmotiv auch sämtliche Bildelemente, die nicht das Hauptmotiv sind.

In einigen Fällen ist sofort ersichtlich was das Motiv eines Photos ist. Ein Apfelbaum auf einer sonst kahlen Wiese ist offensichtlich das Motiv des Photos, der Blick des Betrachters richtet sich sofort auf den Baum. In manchen Fällen ist möglicherweise nicht ganz klar, was das Motiv ist. Vor allem bei Landschaftsaufnahmen ist dies der Fall. Die klassische Photographie sieht vor, dass in jedem Photo ein Motiv vorhanden ist, aber das Motiv muss nicht immer ein bestimmtes, abgrenzbares Objekt sein (zum Beispiel Person, Baum, Fahrzeug, Gebäude, Bach, Laternenmast etc.). Der Schatten einer Person am Strand, über den Himmel verteilte Schäfchenwolken oder abstrakte Muster, die sich durch das gesamte Bild ziehen, können ebenfalls das Motiv sein. Inwiefern man allerdings hierbei noch von einem Motiv im eigentlichen Sinne sprechen kann, ist durchaus fragwürdig.

Grundsätzlich ist es auch denkbar, zwei Arten von Photos zu unterscheiden: Photos mit einem (Haupt-) Motiv, an denen der Betrachter beim Betrachten sprichwörtlich "hängen bleibt", und die Photos, die kein konkretes Motiv besitzen (der Betrachter betrachtet das Photo im Ganzen). Ein Photo, das kein Motiv im ersten Sinne besitzt, muss daher nicht zwangsweise schlecht sein.

Das Hauptmotiv eines Bildes sollte, sofern es existiert, automatisch die Aufmerksamkeit des Betrachters auf sich lenken. Es ist daher wichtig, es so zu platzieren, dass es als "Blickfang" wirkt. Bei einem Apfelbaum auf kahler Wiese ist dies ganz sicher der Fall – manchmal droht aber das Hauptmotiv von Nebenmotiven beziehungsweise anderen Objekten abgelenkt zu werden. In den nachfolgenden Abschnitten werden daher einige Richtlinien genannt, wie man das Hauptmotiv anordnen kann, damit es als zentraler Bestandteil des Photos auch wahrgenommen wird.

Einige Tipps seien hier bereits vorweggenommen (werden später aber noch ausführlicher erläutert):

  • Störende Elemente können durch eine andere Perspektive oder durch Zoom ausgeblendet werden. Hier ist es oft sinnvoll, den Standort zu wechseln und zu prüfen, ob das Motiv nicht von einer anderen Position viel besser wirkt.
  • Ein unruhiger Hintergrund wirkt sehr störend. Eine Möglichkeit wäre es, ihn in Unschärfe versinken zu lassen (kleine Blendenzahl, eventuell größere Brennweite).
  • Ist die Störung nur von kurzer Dauer (zum Beispiel ein Bagger, der im Hintergrund durchs Bild fährt), lohnt es sich gegebenenfalls zu warten.
  • Im Zweifelsfall kann man auch auf die digitale Bildbearbeitung hoffen. Lässt sich ein störendes Nebenmotiv nicht verhindern, kann man das Photo erst einmal aufnehmen und versuchen, dieses dann später zu retuschieren.

Wenn mehrere Motive im Bild auftreten, sollte man darauf Wert legen, dass diese einigermaßen sinnvoll angeordnet sind und in dem Bild eine gewisse Ordnung herrscht. Sich überlagernde Motive, die kaum mehr auffallen oder voneinander abgrenzt werden können und das Auge des Betrachters verwirren, sollten stets vermieden werden. Die Redewendung "den Wald vor lauter Bäumen nicht zu sehen" sollte daher niemals auf ein Photo zutreffen, es sei denn es ist das bewusste Bestreben des Photographen, ein ausgesprochen chaotisches Bild zu schaffen.

Wenn nicht anders erwähnt, soll im Nachfolgenden von genau einem Motiv ausgegangen werden.

Bildaufbau[Bearbeiten]

Bild aus mehreren Ebenen. Hecke im Vordergrund, wilder Wald im Mittelgrund und Berge und Himmel im Hintergrund.

Oft kann das Bild in Vordergrund, Mittelgrund und Hintergrund eingeteilt werden (manchmal auch nur in Vordergrund und Hintergrund). Das ist vor allem in der Landschaftsphotographie der Fall, jedoch auch in anderen Genres. Das Motiv kann sich dabei überall befinden, meist wird es wohl aber eher im vorderen Bereich des Bildes auftreten. Vordergrund, Mittelgrund und Hintergrund sollten sich dabei stets voneinander abheben. Dies ist bereits der erste Schritt zu einem geordneten Photo und einer sinnvoll gestalteten Komposition.

Die Aufteilung in Vorder-, Mittel- und Hintergrund erzeugt eine gewisse Tiefenwirkung und sorgt damit für Räumlichkeit. Bei mehreren Motiven kann man ein besonders interessantes und tiefenwirksames Photos erzeugen, wenn sich die Motive in bestimmten Ebenen befinden.


Der Hintergrund[Bearbeiten]

Der Hintergrund spielt mal eine größere, mal eine kleinere Rolle. Da man ein Motiv aber kaum ohne Hintergrund abbilden kann, wird man sich mit ihm bei jeder Aufnahmesituation auseinandersetzen müssen. Ist der Hintergrund unwichtig (zum Beispiel bei Porträts, Sachaufnahmen etc.), dann sollte er so unauffällig wie möglich sein (monotone Farben, verschwommen etc.), auf keinen Fall sollte sich jedoch etwas im Hintergrund befinden, was die Aufmerksamkeit in irgendeiner Form vom Motiv ablenken könnte. Manchmal ist der Hintergrund aber auch von größerer Bedeutung, zum Beispiel in der Landschaftsphotographie. Hier wird ihm dann oft deutlich mehr Platz eingeräumt, das Motiv ist mit unter nur ein kleiner Teil des Photos, das erst zusammen mit dem Hintergrund zu einem beeindruckenden Photo wird.

Aus Papierbögen gebasteltes Lichtzelt.

Wenn kein geeigneter Hintergrund für ein Motiv vorhanden ist, so bieten sich verschiedene Alternativen. Im Freien kann man den Himmel als Hintergrund verwenden, wobei man das Motiv dann von unten (aus der Froschperspektive) photographiert werden muss. Ein blauer Himmel kann dabei einen guten Kontrast zum Motiv aufbauen. Es gibt im Fachhandel auch Hintergründe aus Kunststoff zu kaufen, man kann sie sich aber auch oft aus Karton und Papier selbst anfertigen oder Tischdecken, Bettlaken und andere nützlich scheinende Sachen verwenden.

Das Lichtzelt ist eine Variante, die in der professionellen Photographie eingesetzt wird (meist in der Sach- und Makrophotographie), um verschiedene Objekte zu photographieren. Hierzu wird das entsprechende Objekt in das Lichtzelt gelegt, das eine Öffnung hat, so dass man von außen in das Zelt hineinphotographieren kann. Das Lichtzelt sorgt für einen gleichmäßigen, weißen Hintergrund, den man sonst nur schwer finden würde. Beim Lichtzelt wird oft auch mit geeignet positionierten Lichtquellen wie Lampen und Blitzgeräten gearbeitet, die entweder durch das diffus streuende Lichtzelt das Motiv gleichmäßig erhellen oder gezielt bestimmte Bereiche des Motivs ausleuchten.

Wahl und Darstellung des Motivs[Bearbeiten]

Gibt es nur ein Hauptmotiv, so empfiehlt es sich oft, dieses bildfüllend darzustellen. In solchen Fällen sind Hintergrund und "freie Luft" um das Motiv eher ungeeignet; sie sind typische Laienfehler. Da das Motiv meistens nicht rechteckig wie das Bild ist, bleibt natürlich am Rand immer etwas Hintergrund übrig. Bei diesem ist es dann vorteilhaft, wenn er einfarbig ist oder nur einen langsamen Farbverlauf aufweist, jedoch keine auffällige Strukturierung, die mit dem eigentlichen Motiv um die Aufmerksamkeit konkurrieren würde.

In der professionellen Photographie spielen Details oft eine sehr große Rolle. Während bei Schnappschüssen meist sogenannte Übersichtsphotos (Totale) aufgenommen werden, die nur so von Details wimmeln (zum Beispiel ein Schloss in voller Ansicht mit all seinen Türmchen, Fenstern und Ornamenten), ist die Konzentration auf wesentliche Details oft geeigneter. In einer Bilderserie werden dann zusätzlich zu einer Totalen für den Gesamteindruck auf weiteren Aufnahmen die Details in eigenen Bildern gezeigt. So wird die Aufmerksamkeit des Betrachters mit jedem Bild gezielt auf ein Motiv konzentriert. Dies betrifft häufig die Architekturphotographie (hier wirken kleine Ausschnitte in vielen Fällen deutlich interessanter als das vollständige Gebäude) und die Porträtphotographie (nicht immer ist es sinnvoll, die Person von oben bis unten voll abzubilden).

Die Übersichtsphotos drohen demnach, den Betrachter zu verwirren. Sie bestehen aus so vielen Einzelheiten, dass er möglicherweise nicht genau weiß, was eigentlich Motiv des Photos ist. Die Übersichtsphotos dienen also vorrangig dazu, einen groben Gesamteindruck zu vermitteln, welcher dann durch Detailansichten in weiteren Photos ergänzt wird. Konzentriert man sich dann auf wenig Details oder einen kleinen, signifikanten Ausschnitt, so kann die Wirkung enorm verbessert werden. Zudem ist die Komposition weniger Motive für den Anfänger meist leichter als bei einer Vielzahl von Motiven (die bei Totalen oft automatisch vorhanden sind).

Platzierung des Motivs im Bild[Bearbeiten]

Teilungsverhältnis des Goldenen Schnitts.

Wird das Motiv nicht formatfüllend aufgenommen, ergibt sich automatisch die Frage, wo im Bild man es am besten positioniert.

In der Graphik und Malerei wurde das Motiv oft in der Bildmitte platziert – das ergibt insofern einen Sinn, als die Mitte eines Bildes allgemein als der zentrale, der wichtigste Teil angesehen werden kann. Diese Positionierung betont - sofern vorhanden - formale Strenge und Symmetrie des Motivs. Die zentrale Positionierung kann also eine starke Aussage über das Bildmotiv implizieren. Es gibt zwar Situationen wo dies möglich oder gar empfehlenswert ist, oft wirkt ein Photo mit mittig platziertem Motiv jedoch langweilig oder zu formstreng.

Nicht nur in der Photographie werden Motive daher gern im Goldenen Schnitt platziert, ein Teilungsverhältnis das bereits im Alten Griechenland verwendet wurde (hier insbesondere in der Architektur). Beim Goldenen Schnitt wird eine Strecke s in zwei Teile a, b geteilt, so dass die Gleichung (a:b) = (a+b) : a gilt. Die beiden Abschnitte a, b stehen also im selben Verhältnis wie die beiden Strecken zusammen (die Gesamtstrecke s) zur Seite a. Der Goldene Schnitt ist in mancher Hinsicht interessant, etwa aufgrund besonderer mathematischer Eigenschaften, oder weil einige Pflanzen oder Tiere ebenfalls ein solches Teilungsverhältnis aufweisen, um Strukturen zu bilden.

Beim Goldenen Schnitt haben die beiden Abschnitte ein Längenverhältnis von etwa 62:38 (oder grob 6:4 beziehungsweise 3:2). Ein Bild, das eine Breite von 1000 Pixeln hat, hätte den Goldenen Schnitt also bei 620 Pixeln oder 380 Pixeln (je nach dem ob er nach links oder nach rechts ausgerichtet ist).

Bilder, deren Motive im Goldenen Schnitt angeordnet sind, wirken besonders harmonisch. Meist meint man mit dem Goldenen Schnitt die horizontale Teilung des Bildes; natürlich kann man das Bild aber auch vertikal nach den Regeln des Goldenen Schnitts teilen. Ein Motiv kann sich also sowohl horizontal als auch vertikal im Goldenen Schnitt befinden.

Leipzig, Altes Rathaus. Der Turm befindet sich im Goldenen Schnitt.

Da das Verhältnis 62:38 nicht so einfach abzuschätzen ist, wendet man oft auch die Drittelregel an, welche als Vereinfachung des Goldenen Schnitts gesehen werden kann. Hier wird das Bild einfach gleichmäßig in drei Teile geteilt und das Motiv dann auf einer der Teilungslinien platziert. Das Verhältnis ist dabei rund 67:33 und somit ähnlich dem Goldenen Schnitt. Einige Kameras bieten die Möglichkeit, ein Gitternetz (Hilfslinien) einzublenden, welches die Drittellinien anzeigt. Das kann bei der Komposition eine gute Stütze sein. Um den Goldenen Schnitt zu erreichen, kann man dabei auch gezielt etwas neben diesen Hilfslinien anordnen.

Manchmal ist es sogar angebracht, ein Motiv noch weiter in Richtung Bildrand zu platzieren; es sollte sich dann aber ein weiteres Motiv finden, welches die andere Seite des Bildes ausmacht und somit als eine Art Gegengewicht fungiert.

Hinweis: Durch Beschneiden des Photos kann ein mittig angeordnetes Motiv nachträglich in den Goldenen Schnitt rücken. Mit dem Beschneiden ändert sich aber natürlich auch das aufgenommene Bild sowie verschiedenen Eigenschaften wie Bildformat und Pixelzahl.


Der Bildrand[Bearbeiten]

Egal ob das Motiv mittig, im Goldenen Schnitt oder nahe dem Bildrand angeordnet wird - es sollte stets ein wenig Platz zum Seitenrand gelassen werden. Kein Photo wirkt schlimmer, als bei einem Motiv, das gerade noch so drauf passt. Vor allem, wenn das Motiv im Verhältnis zum Gesamtbild recht klein ist (und damit eine große, freie Fläche im Rest des Bildes entsteht), wirken solche Photos meist äußerst unästhetisch.

Alternativ kann man manchmal auch das Motiv gezielt anschneiden, also einen weniger wichtigen Randbereich einfach weglassen. Auch da sollte der weggelassene Teil nicht zu klein bemessen sein, um nicht irritierend zu wirken. Bei Portraits könnte man etwa in Blickrichtung etwas Raum freilassen, aber den Hinterkopf anschneiden. Jedenfalls ist das bildwirksam gute Anschneiden des Motivs tendenziell etwas schwieriger, als pauschal etwas Platz zu lassen, dann eben bei Lebewesen in Blickrichtung eher etwas mehr Platz als in andere Richtungen.

Anders sieht es mit Nebenmotiven und Beiwerk aus. Hier passiert es oft, dass diese sich am Rand befinden und schlicht weg über den Rand hinausgehen. Das ist völlig normal und lässt sich für gewöhnlich nicht weiter ändern (es sei denn man geht weiter zurück, aber dann werden andere Dinge wieder ins Bild ragen und so weiter); es gibt jedoch eine Regel, die man beachten sollte: Entweder ein bestimmtes Objekt wird klar und deutlich angerissen (befindet sich also noch ein gutes bisschen mit auf dem Photo), oder es wird überhaupt nicht angerissen (ist also auf dem Photo nicht zu sehen). Ein am Bildrand parkendes Auto sollte also entweder zu einem guten Teil im Bild sichtbar sein oder gar nicht - eine Ecke, die noch ins Bild ragt, wirkt unschön. Wenn auch ein im größeren Maße angerissenes Objekt das Photo trübt, kann es sinnvoll sein, die Perspektive leicht zu ändern und dieses somit auszublenden.

Dreieckskomposition[Bearbeiten]

Eine interessante Anordnung von Motiven stellt die Dreieckskomposition dar. Hier besteht das Bild aus drei Motiven, die in Dreiecksform dargestellt werden. Anders als beim Goldenen Schnitt, bietet es sich dabei oftmals an, die Motive mittig im Bild zu platzieren und dieses möglichst voll auszufüllen.

Ein Dreieck wirkt ausgeglichen, stabil und harmonisch. Die Dreieckskomposition wurde vor allem in der Malerei der Renaissance angewendet, aber auch in der Photographie ist sie ein interessantes Stilmittel.


Lichtverhältnisse[Bearbeiten]

Lichtrichtung[Bearbeiten]

Es scheint oft ein ungeschriebenes Gesetz zu sein, bei Sonnenlicht mit der Sonne im Rücken zu photographieren (Vorderlicht). Die korrekte Belichtung ist hierbei im Grunde am einfachsten, die Farben wirken kräftig und neutral. Ein Problem ist jedoch, dass dem Bild eines fehlt: Schatten. Die Schatten fallen in dieselbe Richtung, in die photographiert wird und alles liegt im grellen Sonnenlicht. Dadurch kann das Photo unnatürlich wirken, da Schatten ein wesentlicher Teil unserer Welt sind und auch für einen gewissen dreidimensionalen Eindruck sorgen. Wenn alles gleichmäßig im Sonnenlicht liegt, wirkt das Photo zudem weniger kontrastreich, da dann vermutlich nur helle, kräftige Farben dominieren. Besonders bei Aufnahmen mit tiefstehender Lichtquelle (Sonnenaufgang und Sonnenuntergang etwa) und auch bei Aufnahmen mit Superweitwinkelobjektive oder Fischaugenobjektiven ergibt sich ein weiteres Problem dadurch, dass der Schatten des Photographen selbst recht schnell im Bild erscheint, was zumeist unerwünscht sein wird. Auch wenn andere Objekte hinter dem Photographen einen Schatten ins Bild werden, aber selbst nicht sichtbar sind, wird dies meist unerwünscht sein.

Neben dem Vorderlicht gibt es auch Seitenlicht, Streiflicht und Gegenlicht, die oft deutlich interessantere Aufnahmen bringen.

Im Seitenlicht (Licht aus circa 20 .. 80°) fallen die Schatten zur Seite und werden deutlich im Bild sichtbar; da sie schräg hinter das Motiv fallen, erzeugen die Schatten auf diese Weise Räumlichkeit. Es entsteht ein Spiel aus Licht und Schatten, das Bild wird plötzlich kontrastreich und spannend. Gleichzeitig ist die Belichtung bei Seitenlicht noch einigermaßen einfach. Das Seitenlicht wird daher auch als universelle Lichtrichtung gesehen.

Streiflicht - Anders als bei Vorderlicht macht es Konturen besonders deutlich.

Im Streiflicht fällt das Licht direkt von der Seite (Licht aus circa 80 .. 100°) auf das Motiv. Streiflicht eignet sich vor allem, um Konturen in einer Fläche darzustellen. Porträts, die im Streiflicht photographiert werden, wirken somit besonders plastisch.

Im Gegenlicht (Licht aus mehr als 100°, das heißt von vorn, vorn-links oder vorn-rechts) entstehen die größten Kontraste, gleichzeitig verblassen die Farben und der Farbumfang vermindert sich. Hier versagt die vollautomatische Belichtung oft und ein manuelles Einstellen wird notwendig – das ist nicht immer leicht und auch nicht immer sinnvoll. Das Gegenlicht kann aber mit die interessantesten Bilder ergeben, die durch das Spielen mit dem Licht oft schon von ganz allein einen recht eigenen, künstlerischen Charakter erlangen. Helle, diffus streuende Objekte wie Häuserwände oder extra aufgestellte Reflektoren können helfen, die Schatten aufzuhellen und damit trotz Gegenlichtstimmung Details im Dunklen noch deutlich sichtbar zu machen, indem der Kontrast auf ein Maß reduziert wird, welches mit den Möglichkeiten der Kamera noch verträglich ist. Eine Belichtungsreihe kann zudem bei der Nachbearbeitung verrechnet werden, um sowohl helle Bildpartien als auch dunkle mit ausreichend Struktur zu versehen.

Bei Aufnahmen mit Superweitwinkelobjektiven oder Fischaugenobjektiven ist die Lichtquelle wie die Sonne folglich oft mit im Bild, was interessant sein kann, aber auch die Belichtungsautomatik verwirren kann, besonders wenn die Belichtungsmessung einfach oder mittenbetont über das gesamte Bild gemittelt wird.

Lichthöhe[Bearbeiten]

Nicht nur die Lichtrichtung, auch die Lichthöhe ist für ein Photo entscheidend. Tagsüber hat man im Freien oft Oberlicht, das Licht kommt also mehr oder weniger von oben. Bei Sonnenaufgang kommt es aus Kamerahöhe (0°), im Tagesverlauf steigt es dann auf rund 16° zur Wintersonnenwende bis 62° zur Sommersonnenwende (bezogen auf Mitteldeutschland). Je höher die Sonne steigt, umso kürzer werden die Schatten. So gibt es einige enge Gassen, in die das Licht nur in den Sommermonaten einfällt (und auch dann nur zur Mittagszeit).

Licht, das von oben kommt, erzeugt bei Porträts Schatten unter Nase und Kinn und ist daher nicht besonders geeignet. Hier wird gern Unterlicht verwendet (Licht kommt von einer Position unterhalb der Kamera), was jedoch nur mit entsprechenden Lampen oder Blitzgeräten realisiert werden kann. Diese können natürlich auch so eingesetzt werden, dass sie nur die unerwünschten Schatten aufhellen. Unterlicht wirkt meist unnatürlich, kann das Motiv aber in besonderer Weise betonen (zum Beispiel sieht man in Ausstellungen und Museen oft, dass Objekte von unten angestrahlt werden).


Das Licht im Verlauf des Tages[Bearbeiten]

Hartes Licht (Skizze).

Wie im Abschnitt über den Weißabgleich bereits beschrieben, herrschen zu unterschiedlichen Tageszeiten unterschiedliche Lichtverhältnisse und unterschiedliche Farbtemperaturen. Auge und Gehirn nehmen diese kaum wahr und passen den Farbeindruck an, die Kamera muss hingegen an die Lichtverhältnisse angepasst werden.

Allgemein gilt:

  • In der Morgendämmerung und Abenddämmerung überwiegen rote und gelbe Töne (warme Farben), da das Sonnenlicht einen weiteren Weg durch die Atmosphäre zurücklegt. Besonders das blaue Licht wird auf dem weiten Weg durch die Atmosphäre zum großen Anteil herausgestreut. Das Bild wirkt ruhig und harmonisch.
  • In der Mittagszeit wirkt das Bild grell und blaue Töne stellen sich ein.
Diffuses Licht (Skizze).

Das direkte Sonnenlicht, das an wolkenlosen Tagen vorherrscht, wird auch als hartes Licht bezeichnet. Es sorgt für ausgeprägte Schatten und hohe Kontraste. Je stärker der Bewölkungsgrad ist, umso "weicher" wird das Licht. Die Wolken streuen das Licht also und dienen als ausgedehnte Lichtquelle. Man bezeichnet es auch als diffuses Licht (beziehungsweise weiches Licht). Weiches Licht erzeugt sanftere Photos, da Schatten weniger auffallen (sie wirken heller und die Ränder sind unschärfer) oder gar ganz verschwinden. Der Kontrast geht etwas zurück. Bei Porträtaufnahmen, Sachaufnahmen und Stillleben ist beispielsweise weiches Licht meist bevorzugt. Die Aufnahme wirkt sanfter als bei direkter Belichtung mit starken Schatten. Weiches Licht wird also erreicht, wenn die Winkelausdehnung der Lichtquelle viel größer als der Aufnahmewinkel ist, Licht also aus vielen Richtungen auf das Motiv fällt.

Hartes Licht in der Mittagssonne.

Übrigens: Auch an hellen Sommertagen kann man mit diffusen Licht arbeiten. Hierzu braucht man lediglich einen schattigen Ort aufsuchen - das Licht ist dort ähnlich weich wie an einem bewölkten Tag, das Licht im Schatten zerstreut ist und damit seinen weichen Charakter erhält.

Das Mittagslicht wird von vielen Photographen gemieden. So bieten sich Landschaftsphotos oft in der Morgen- oder Abenddämmerung an. Das harte Licht der Mittagssonne mit seinen starken Schatten ist hier oft störend. Da in den Schatten Details verlorengehen, sind auch Porträtaufnahmen in der Mittagssonne ungünstig – hier sollten schattige Plätze aufgesucht werden.

Es gibt aber auch einige Situationen, wo Mittagslicht günstig ist. Das betrifft zum Beispiel Straßenaufnahmen, wo das Sonnenlicht möglicherweise nur zur Mittagszeit in die enge Straße einfällt. Wann immer Konturen herausgearbeitet werden sollen, zum Beispiel um Muster in der Landschaft oder Reliefs oder Gravuren in einer Fassade hervorzuheben, ist das (harte) Mittagslicht ebenfalls geeignet (sofern es aus der richtigen Richtung auf das Motiv trifft).

Arbeiten mit Schatten und Spiegelung[Bearbeiten]

Die Schatten, die Gegenstände und Personen bei Sonnenlicht werfen, besitzen einen besonderen Reiz in der Photographie. Sie können Räumlichkeit und Tiefe ausdrücken, sie können manchmal sogar interessanter als das eigentliche Hauptmotiv sein, da Schatten eine starke Abstraktion des Motivs darstellen – Konturen und farbliche Abstufungen gehen fast vollständig verloren, das Motiv erhält in seinem Schatten einen ganz anderen, stark abstrahierten Charakter.

Ist die Lichtquelle klein oder weit entfernt, der Beleuchtungswinkel also klein, so wirken die Schatten dunkel und haben scharfe Ränder (zum Beispiel in der Mittagssonne). Ist die Lichtquelle nah und ausgedehnt (zum Beispiel Aufnahme nahe einer Lampe und einem großen Reflektor), so wirken die Schatten heller und die Ränder sind verschwommener. Bei Innenaufnahmen und Porträtaufnahmen kann man hier einmal bewusst mit einigen Photolampen experimentieren (wenn man keine zur Hand hat, funktionieren natürlich auch alle anderen Lichtquellen).

Schatten sollten sich, genauso wie Motive im Photo, nicht zu sehr überkreuzen, da dies das Photo ungeordnet und chaotisch erscheinen lassen kann. Allerdings kann man mit sich überkreuzenden Schatten auch interessante Muster in ein Photo bringen - hat man es also mit sich überkreuzenden Schatten zu tun, muss man individuell entscheiden, ob die Schatten das Bild eher aufwerten oder abwerten.

Spiegelungen können einen ebenso interessanten Effekt bewirken und vor allem an Seen und Teichen beobachtet werden, jedoch auch in Glasscheiben oder auf nassem Asphalt, beispielsweise nach starkem Regenfall. Eine symmetrische Anordnung wirkt dabei oft harmonisch, in verschiedenen Fällen lässt sich mittels Spiegelungen auch ein sehr abstraktes Bild erzeugen.


Führende Linien[Bearbeiten]

Einleitung[Bearbeiten]

Das menschliche Auge ist von Natur aus darauf ausgelegt, in Bildern bestimmte Strukturen und Muster zu erkennen. Führende Linien (Führungslinien, Diagonalen) sind ein wesentliches Mittel, um Struktur in ein Bild zu bringen. Dabei ist es besonders gut, wenn die Linien den Blick des Betrachters zum Hauptmotiv lenken. Solche Linien heißen dann auch Fluchtlinien. Für gewöhnlich treffen sie am oder beim Hauptmotiv zusammen. Dieser Punkt wird als Fluchtpunkt bezeichnet. Das Auge des Betrachters "flüchtet" dank der Linien zu diesem Ort. Das Einsetzen solcher Linien erzeugt eine Linearperspektive, das heißt Räumlichkeit entsteht auf Grund von Linien.

Besonders gut eignen sich hierbei Straßen, Hecken, Zäune, Mauern/Mauerkanten, Hauswände, Alleen, Stromleitungen etc. Es gibt jedoch auch immaterielle Linien wie zum Beispiel die Blickrichtung einer Person, die den Betrachter veranlasst, in dieselbe Richtung zu schauen. Auch Schatten sind ein beliebtes Mittel, um Struktur und Räumlichkeit in ein Bild zu bringen.


Diagonalen[Bearbeiten]

Führungslinien: Die durch Bäume und vor allem den Teich entstehenden Linien führen den Blick des Betrachters automatisch zum Hauptmotiv, dem Lincoln Memorial in Washington.

Diagonalen, also Linien, die nicht senkrecht und nicht waagerecht verlaufen, bringen besonders viel Spannung in ein Bild und sorgen dafür, dass es besonders räumlich wirkt. Wirkt ein Bild flach und zweidimensional, fehlen meist die Diagonalen; wirkt es in die Tiefe gehend, sorgen Diagonalen hingegen oft für diesen visuellen Effekt. Diagonalen lassen sich meist durch einen leichten Perspektivwechsel erzeugen, sofern sie nicht in der ursprünglichen Perspektive bereits vorhanden sind. So bietet es sich häufig an, ein Gebäude oder Motiv leicht von der Seite zu photographieren, damit Diagonalen entstehen, statt frontal. Das Auge des Betrachters wird in der Regel den Diagonalen und Linien folgen und das Bild erhält einen plastischen Ausdruck. Das seitliche Abbilden von Motiven hat zudem den Vorteil, dass Strukturen besser sichtbar werden. Frontale Aufnahmen werden hingegen gern für dokumentarische Photographien und Sachaufnahmen gemacht.

Die Wirkung von Diagonalen wird umso größer, je geringer die Brennweite ist. Im Weitwinkel ergibt sich damit ein besonders starker räumlicher Effekt. Parallel verlaufende Linien scheinen dabei im Horizont zu verschmelzen und bilden damit den bereits erwähnten Fluchtpunkt.

In einem Photo kann es grundsätzlich zwei Arten von Diagonalen geben:

  • Aufsteigende Diagonalen: Verlaufen von links unten nach rechts oben.
  • Absteigende Diagonalen: Verlaufen von links oben nach rechts unten.


Es wird den aufsteigenden Diagonalen nachgesagt, sie würden Freude und Optimismus ausdrücken, während die absteigenden Diagonalen eher Pessimismus ausdrücken. Allgemein scheint es oft, dass die aufsteigenden Diagonalen tatsächlich ein ästhetisch schöneres Bild schaffen - am Ende bleibt es aber Geschmackssache des Betrachters. Zudem kann auch hier wenigstens bei geeignetem Motiv wieder auf die digitale Bildbearbeitung zurückgegriffen werden - Spiegelung kann aus einem Bild mit absteigender Diagonale ein Bild mit aufsteigender Diagonale machen und umgekehrt.

Andere Linien[Bearbeiten]

Neben Diagonalen gibt es noch Waagerechte und Senkrechte als bekannte Linienarten. Waagerechte sind mehr oder weniger horizontal verlaufende Linien. Sie drücken vor allem Ruhe und Ausgeglichenheit aus. Senkrechte sind hingegen vertikal verlaufende Linien. Sie können Nähe ausdrücken.

Waagerechte und Senkrechte bieten sich auch an, ein Bild räumlich zu teilen. Die Teilung sollte dann aber nicht mittig geschehen, sondern wieder in der Nähe des Goldenen Schnitts.

Alternativen zu Führungslinien[Bearbeiten]

Weitere Mittel, um die Aufmerksamkeit auf das Motiv zu lenken, sind farbliche Gestaltungen und sich daraus ergebende Kontraste. In Ergänzung zu Führungslinien (oder als Alternative) kann somit ein farblich stark auffallendes Motiv ebenso den Blick des Betrachters auf sich lenken.

Kreise[Bearbeiten]

Im Gegensatz zu Diagonalen bewirken Kreise (zum Beispiel Hüte, runde Sonnenschirme, runde Gebäude) und geschwungene Linien einen harmonischen Ausdruck. Auch auf diese Weise lassen sich interessante Photos aufnehmen, zumal Diagonalen und geschwungene Linien in einem Bild auch grundsätzlich nebeneinander eingesetzt werden können.


Perspektive[Bearbeiten]

Grundlagen[Bearbeiten]

Unter Perspektive versteht man, aus welchem Blickwinkel ein Motiv aufgenommen wird. Die Perspektive ist also vom Standort des Photographen abhängig, genauer, vom Standort der Kamera. Ändert man den Standort oder die Ausrichtung der Kamera (nach oben/unten/links/rechts neigen), ändert sich automatisch die Perspektive.

Die Perspektive ist nicht mit der Änderung der Brennweite (Zoom) zu verwechseln, welche keine Perspektivänderung bewirkt, sondern lediglich den Bildausschnitt erweitert oder reduziert.

Ungeübte Photographen ändern in vielen Fällen die Brennweite, um ihr Motiv im Bild anzuordnen. Deutlich mehr Möglichkeiten bieten sich jedoch, indem man verschiedene Perspektiven ausprobiert. Erst danach kann man den Zoom verwenden, um eine Feinanpassung zu ermöglichen (zum Beispiel um das Motiv etwas näher heranzuholen etc.). Geübte Photographen nehmen sich daher oft besonders viel Zeit, die für sie optimale Perspektive zu bestimmen. Natürlich heißt es hierbei: Ausprobieren. Das heißt, man sollte einmal in Ruhe um das Motiv gehen, es aus verschiedenen Entfernungen und, wenn möglich, verschiedenen Höhen betrachten und auf diese Weise gute Aufnahmepositionen finden.


Anordnung des Motivs[Bearbeiten]

Es sei an dieser Stelle angemerkt, dass es dennoch einen Zusammenhang zwischen Perspektive und Zoom gibt: Nähert man sich einem Motiv von seiner ursprünglichen Position, so ähnelt diese Perspektivänderung etwas dem Zoom, falls man sich auf der optischen Achse bewegt. Ein Baum auf einer Wiese kann beispielsweise aus 300 Meter Entfernung mit 350 mm Brennweite fotografiert werden oder aus 30 Meter Entfernung mit 35 mm Brennweite. In beiden Fällen erscheint das Motiv gleich groß – einmal im Weitwinkel und einmal im Super-Telewinkel. Die Bildwirkung ist aber deutlich verschieden. Im ersten Fall bewirkt man zumeist geringe Schärfentiefe und schrumpfende Distanzen (der Baum rückt näher an den Hintergrund, von dem viel weniger dargestellt wird als beim Bild mit dem Weitwinkel). Im zweiten Fall bewirkt man zumeist ein hohes Maß an Schärfentiefe und große Distanzwirkung (der Abstand zwischen Baum und Hintergrund wirkt größer und es wird viel vom Hintergrund dargestellt).

Möchte man ein Motiv groß darstellen und viel vom Hintergrund abbilden wollen, sollte man somit nah an das Motiv herangehen und ein Weitwinkelobjektiv verwenden. Möchte man es klein darstellen und mit viel Hintergrund, geht man weiter weg. Möchte man es groß und mit wenig erkennbarem Hintergrund darstellen, verwendet dann größere Brennweiten mit größerem Aufnahmeabstand. Wird das Motiv gleichgroß dargestellt, ergibt sich allerdings nur ein Unterschied im Bild, wenn sich etwas im Hintergrund befindet, was dann als Bezugspunkt fungiert.

Man kann ein Motiv auch isoliert darstellen. Hierzu entfernt man sich von dem Motiv, verwendet aber dennoch kleine Brennweiten. Das Motiv nimmt dann nur einen kleinen Teil des Bildes ein und wirkt klein und einsam - natürlich nur, solange Strukturen in der Umgebung das Motiv nicht dominieren. Das bietet sich vor allem im Freien an (Landschaftsphotographie), hat jedoch den Nachteil, dass Details am Motiv nicht mehr zu erkennen sind - die isolierte Darstellung des Motivs sollte daher eher in Ausnahmefällen durchgeführt werden.

Vertikale Perspektiven[Bearbeiten]

Skizze in Zentralperspektive.

Vertikal gesehen unterscheidet man drei (Haupt-) Perspektiven:

  • Zentralperspektive
  • Froschperspektive
  • Vogelperspektive


Die Zentralperspektive ist die "klassische" Perspektive, die in den meisten Fällen angewendet wird. Hierbei wird die Kamera in Augenhöhe des Photographen, beziehungsweise vertikal mittig zum Motiv gehalten und einigermaßen gerade gehalten, das heißt nicht nach oben oder unten geneigt. Mit der Zentralperspektive kann man ein Abbild des Motivs erzeugen, das zweidimensional ist, aber immer noch dreidimensional wirkt. Im Raum verlaufende Parallelen treffen dabei scheinbar in einem Fluchtpunkt zusammen.

Bei der konsequent angewendeten Zentralperspektive ist der Horizont (sofern im Bild vorhanden) genau in der Mitte des Bildes, das heißt, es werden Land und Himmel zu gleichen Teilen abgebildet. Alle Objekte, die gerade empor ragen (Bäume, Gebäude, Straßenlaternen etc.) verlaufen in dem Bild parallel zum Seitenrand - in den anderen Perspektiven ist dies nicht der Fall.

Froschperspektive.

Bei der Froschperspektive (auch: Untersicht, englisch: 'Low Angle') photographiert man von unten nach oben, oft auch aus sitzender oder liegender Haltung. Die Kamera wird also recht steil nach oben gehalten. Dies ist vor allem aus der Architekturphotographie bekannt, um sehr hohe Gebäude (Wolkenkratzer etc.) bei Platzmangel abbilden zu können. Die Froschperspektive liefert jedoch eine Vielzahl weiterer Möglichkeiten. Ein wesentliches Merkmal ist, dass man mit der Froschperspektive Größe darstellen kann. In dieser Perspektive aufgenommene Motive wirken unwahrscheinlich groß, der Betrachter hingegen hat den Eindruck, er sei unverhältnismäßig klein. So lässt sich die Froschperspektive auch in vielen anderen Gebieten, zum Beispiel bei Nahaufnahmen anwenden. Photographiert man Blumen aus der Froschperspektive, wobei man sich hierbei meist direkt zu Boden legen sollte, können diese sehr groß wirken. Auch in alltäglichen Situationen, zum Beispiel im Wohnzimmer, kann man diese Perspektive einmal ausprobieren – die Welt erscheint dann etwa aus Kinderaugen. Eine besondere dramaturgische Wirkung der Froschperspektive ist daher in der Kunst auch Unterdrückung, Schwäche, Erniedrigung.

Vogelperspektive.

Die Vogelperspektive (auch: Vogelschau) ist der umgekehrte Fall. Hier wird die Kamera nach unten gerichtet, das Motiv wird normalerweise oberhalb der Augenhöhe aufgenommen. Für die Vogelperspektive benötigt man örtliche Gegebenheiten, die nicht immer vorhanden sind. Möglich sind beispielsweise ein Aussichtsturm, Hügel oder Berg, hohes Gebäude, erhöhter Punkt in einem Saal (zum Beispiel Podium) etc. Luftbilder, die von Flugzeugen oder Ballons aufgenommen werden, sind dabei wohl die bekanntesten Beispiele für Photos aus der Vogelperspektive. Im Gegensatz zur Froschperspektive bewirkt die Vogelperspektive, dass die abgebildeten Objekte (Menschen, Häuser, Straßen, Bäume etc.) unverhältnismäßig klein wirken. Die Aussage ist somit oft Größe, Macht, Erhabenheit.


Weitere Perspektiven[Bearbeiten]

Man unterscheidet unabhängig zu den bereits vorgestellten Perspektiven noch die Luftperspektive und Farbperspektive.

Die Luftperspektive entsteht auf große Entfernung hin, wobei das Bild zum Hintergrund allmählich weniger kontrastreich und heller wird. Auf diese Weise entsteht ein räumlicher Eindruck. Die Luftperspektive entsteht im Grunde automatisch, das heißt ohne Dazutun des Photographen. Allerdings funktioniert sie nur auf weite Distanzen, wie beispielweise in der Landschaftsphotographie.

Bei der Farbperspektive sorgen die Farben für Tiefe und räumliche Wirkung. Dies gelingt vor allem, wenn im Vordergrund warme Farbtöne dominieren (zum Beispiel rot, gelb, orange, braun) und im Hintergrund kältere Töne (zum Beispiel Blau).


Konturen, Strukturen und Kontraste[Bearbeiten]

Konturen sind ein wichtiges Gestaltungsmittel in der Photographie. Als Konturen bezeichnet man den Umriss (auch: Silhouette) eines Bildelements. Dieses entsteht durch deutliche Farbübergänge (zum Beispiel von gelb nach rot) auf sehr engem Raum. In der Malerei werden Konturen oft verstärkt, indem man den Umriss des Elements mit einer schwarzen Linie nachmalt. In diesem Fall wäre der Abstand zwischen gelb und schwarz sowie rot und schwarz sehr groß und das Element sticht förmlich aus dem Bild heraus. Konturen sind also ein wichtiges Mittel für ein kontrastreiches Bild.

Konturen entstehen beim Aufnehmen eines Bildes meist automatisch. An Kanten beziehungsweise scharfen Gegenständen sind sie stark – die Farbübergänge sind extrem und dies auf sehr engem Raum. Bei runden Gegenständen sind sie hingegen gering – die Farben ändern sich allmählich mit der Rundung des Gegenstandes. Innerhalb des Bildelements (das heißt innerhalb der Konturen) sorgen also Farbübergänge ebenfalls für Räumlichkeit. Eine Apfel, der nur in genau einer Farbe dargestellt wird, wirkt zweidimensional, auch wenn er sich durch seine Konturen gut vom Hintergrund abhebt – erst durch Farbübergänge, die durch die Beleuchtung des Apfels und die entstehenden Schatten (egal wie stark sie auch sein mögen) auftreten, wirkt er plastisch und Strukturen werden sichtbar.

Strukturen sind Muster innerhalb des Bildelements, die ebenso für Tiefe, Räumlichkeit und Kontrast sorgen. Strukturen werden besonders hervorgehoben, wenn das Licht von der Seite auf das Element fällt (Streiflicht). Hartes Licht verstärkt diesen Effekt, weiches Licht hingegen führt dazu, dass die Strukturen weniger sichtbar werden.


Bewegung[Bearbeiten]

Photo, das Bewegung ausdrückt. Es wirkt unscharf, aber ein scharfes Abbild der Windmühle würde nicht mehr erkennen lassen, ob sie sich zum Zeitpunkt der Aufnahme drehte oder nicht.

Photographie ist das Festhalten eines kurzen Augenblicks. Das Motiv kann sich bei der Aufnahme in Bewegung befinden oder nicht. Ist es in Bewegung, zum Beispiel ein fahrender Zug, ein Sprinter, ein fliegender Ball, so kann man diese Bewegung in einem Photo ausdrücken oder nicht, je nach dem welche Art von Photo man aufnehmen möchte.

Wenn es nicht darauf ankommt, Bewegung auszudrücken, sondern ein bewegtes Objekt scharf abzubilden, sind sehr kurze Verschlusszeiten beziehungsweise Belichtungszeiten notwendig. Je näher man sich dabei an dem bewegten Objekt befindet und je schneller sich dieses bewegt, umso kürzer muss die Belichtungszeit sein. Letztlich zählt dabei also, über wieviele Pixel sich das Abbild des bewegten Motivs während der Belichtungszeit bewegt. Liegt diese Distanz deutlich unter einem Pixel, ist das Motiv eingefroren, es ist also auf dem Bild kein Artefakt der Bewegung erkennbar.

Bewegt sich das Motiv quer zur Kamera, also innerhalb der Schärfeebene, so ist der Einfluß der Bewegung auf die Schärfe am größten. Eine Bewegung senkrecht dazu ergibt zum einen einen Größenänderung, zum anderen aber auch eine Verlagerung gegenüber der Schärfeebene. Letztere Effekte sind vor allem bei Makroaufnahmen und bei Aufnahmen mit selektiver Schärfe relevant, während diese Effekte bei weiter entfernten Motiven meist nicht auffällig sind.

Bei der schnellen Querbewegungen gibt es bei Kameras mit Schlitzverschluß noch spezielle Effekte bei kurzen Verschlußzeiten. Bewegt sich das Motiv in die gleiche Richtung wie der Schlitzverschluß, erscheint das Objekt verlängert. Bewegt sich das Motiv in die entgegengesetzte Richtung wie der Schlitzverschluß, erscheint das Objekt verkürzt. In anderen Richtungen ergibt sich eine Scherung.


Das Photo wirkt mit ausreichend kurzen Belichtungszeiten scharf, Bewegung lässt sich nur aufgrund des Motivs vermuten, etwa bei einem Rennwagen auf der Rennstrecke. Diese Variante eignet sich, wenn es mehr auf Schärfe als auf Bewegung ankommt, und vor allem, wenn aus dem Bild selbst ersichtlich wird, dass das Motiv in Bewegung ist. Ein fliegender Ball, ein springendes Kind, ein Sprinter etc. wird vom Betrachter automatisch als bewegtes Motiv erkannt. Anders ist es bei Objekten, die auch in Ruhe sein könnten (zum Beipsiel ein auf einer Landstraße fahrendes Auto könnte auch halten). Hier ist es sinnvoll, Bewegung auszudrücken.

Bewegung wird entsprechend mit längeren Belichtungszeiten ausgedrückt (das erfordert meist eine größere Blendenzahl oder geringe ISO-Einstellung). Ein Graufilter ermöglicht auch deutlich längere Belichtungszeiten, wenn bereits die größte Blendenzahl und kleinste Empfindlichkeit eingestellt sind.

Das Mitziehen der Kamera ist eine andere Variante, Bewegung auszudrücken. Hierbei verfolgt man mit der Kamera das sich bewegende Motiv, so dass dieses scharf wird. Ein fahrendes Motorrad könnte beispielsweise aus einem parallel daneben fahrenden Auto photographiert werden. Das Motorrad ist dann scharf (obwohl es fährt), der Hintergrund verschwimmt hingegen. Auf diese Weise erhält man ein scharfes Motiv und dennoch ein Photo, das Bewegung ausdrückt. Bei den Rädern ergibt sich hingegen immer ein Bewegungseffekt, denn beim Abrollen hat offenbar nur die Achse die gleiche Geschwindigkeit wie das Motorrad. Jener Teil, der sich gerade am Boden befindet, bewegt sich relativ zur Straße offenbar gar nicht, der obere Teil des Reifens wiederum bewegt sich doppelt so schnell wie die Achse.

Zum Einfrieren von schnellen Bewegungen reichen indessen die Verschlusszeiten oft nicht aus. Etwas mehr Möglichkeiten bieten hier leistungsstarke Blitzgeräte. Bei gängigen Modellen können damit Belichtungszeiten im Bereich von 20 bis 100 Mikrosekunden erreicht werden.

Wer es noch kürzer braucht, ist allerdings zunehmend auf eine teuere Spezialausrüstung angewiesen. Mit gepulsten Lasern kann man je nach Typ auch kurze Zeiten wie Nanosekunden, Pikosekunden oder sogar Femtosekunden erreichen.


Rahmen[Bearbeiten]

Ein natürlicher Bilderrahmen: Rundbogen mit Blick auf das Uetersener Rosarium

Viele Photos wirken um einiges schöner, wenn sie einen gewissen Rahmen besitzen. Dabei unterscheidet man natürliche Rahmen, also Rahmen die durch die Aufnahme aus einem bestimmten Blickwinkel entstehen, und künstlerische Rahmen, die mit einem Photobearbeitungsprogrammen erzeugt werden können. In diesem Abschnitt stehen natürliche Rahmen im Vordergrund.

Natürliche Rahmen sind in der Architekturphotographie beispielsweise Fenster, Tore, Durchgänge, Korridore etc., während in der Landschaftsphotographie gern zwischen Hecken, Zweigen und Bäumen hindurch photografiert wird. Der Vordergrund sollte dabei möglichst dunkel sein (am besten schwarz) und der Hintergrund (das eigentliche Motiv) in seinen natürlichen Farben erscheinen. Die korrekte Belichtung sollte also unbedingt auf dem Hintergrund liegen; wenn die grünen Blätter im Vordergrund zu dunkel ausfallen ist dies absolut in Ordnung.

Beim Photographieren durch einen Zaun, ein Gitter oder einen Käfig (zum Beispiel bei der Tierphotographie) lässt sich ebenfalls ein interessanter Rahmen schaffen. Befindet sich das Motiv ein gutes Stück dahinter, so kann der Rahmen in Unschärfe verfallen und das Motiv wird besonders hervorgehoben.

Rahmen sind nicht nur ein reizvolles Mittel um das Motiv hervorzuheben, sie erzeugen auch eine Tiefenwirkung. Zudem kann man mit Rahmen manchmal unerwünschte Bildelemente ausblenden.

Farbwahl[Bearbeiten]

Grundlagen[Bearbeiten]

Auf die Farben hat man beim Aufnehmen des Photos zwar oft keinen Einfluss, es ist aber allgemein wichtig, bei der Suche nach Motiven die Farben zu berücksichtigen. Zudem ist es in einigen Genres möglich (zum Beispiel Porträt- und Stilllebenphotographie) stärkeren Einfluss auf die farbliche Gestaltung zu nehmen.

Wie im Kapitel über die Grundlagen der Farblehre bereits berichtet wurde, wirken Komplementärfarben (vor allem gelb/blau) beispielsweise besonders kontrastreich, spannend und intensiv. Wenige farbliche Abstufungen wirken hingegen beruhigend oder melancholisch.


Tonwertumfang[Bearbeiten]

Unter dem Tonwert versteht man die Helligkeit eines Farbtons, der von weiß bis schwarz reichen kann. Der Tonwertumfang bezeichnet dabei den Hell-Dunkel-Kontrast, das heißt die Spanne zwischen hellen und dunklen Tonwerten. Ein großer Tonwertumfang, wie er an sonnigen Tagen durch Licht und Schatten entsteht, wirkt kontrastreich. Der geringe Tonwertumfang an bewölkten oder trüben Tagen sorgt für geringere Kontraste. Hierbei werden insbesondere dunkle und helle Farben vermieden, die Mitteltöne dominieren. Das Bild wirkt in dem Fall gedämpfter und sanfter.

Dominieren nur helle Töne, so spricht man auch von einer High-Key-Aufnahme. Dominieren nur dunkle Töne, so spricht man auch von einer Low-Key-Aufnahme.

Sanfte Farben[Bearbeiten]

Besonders volle Farben (Farben hoher Sättigung) und Mitteltöne können durch ihre starke Wirkung vom Motiv ablenken. Daher ist es beim Photographieren einzelnen Gegenstände und Personen oft ratsam, auf sanfte Farben zu setzen. Dies gelingt für gewöhnlich durch hellere Farben (bis hin zu Pastellfarben) oder durch leichtes Entsättigen. Auch sehr dunkle Farben haben eine beruhigende, gedämpfte Wirkung – anders als helle, freundliche Töne wirken sie aber düster, bedrohlich und geheimnisvoll.

Grelle Farben entstehen bei direkter Belichtung und hartem Licht. Sie können daher mit Seiten, Streif- oder Gegenlicht abgeschwächt werden; bei bewölktem Himmel sorgt das Diffusionslicht zudem für sanftere Töne. Können die genannten Methoden jedoch aus irgendeinem Grund nicht durchgeführt werden, so können auch mit der digitalen Bildbearbeitung Farbänderungen durchgeführt werden. Ein weiteres Mittel um grelle Farben zu vermeiden, ist starkes Über- oder Unterbelichten der Szene, wird aber nicht immer den gewünschten Effekt bringen.

Einen ähnlichen Effekt erzielt man, wenn man statt auf sehr bunte Bilder (großer Farbumfang) auf Bilder mit wenigen Farbtönen setzt. Besteht ein Bild beispielsweise nur aus Rot- und Orangetönen, so wirkt es vielleicht weniger spannend und kontrastreich als ein Photo, das alle Farbtöne vereint, es hat jedoch eine deutlich dezentere, ruhigere und harmonischere Wirkung. Die harmonische Wirkung verstärkt sich, wenn im Farbkreis benachbarte Farben im Bild vorherrschen. In der Malerei wurden etwa Bilder sehr oft in ganz bestimmten, benachbarten Farbtönen geschaffen und es gibt keinen Grund, warum man dies nicht auch in der Photographie ausprobieren sollte.


Grelle Farben[Bearbeiten]

Grelle Farben sorgen für Aufmerksamkeit und ziehen die Blicke des Betrachters fast automatisch auf sich. Je weiter Farben auf dem Farbkreis voneinander entfernt sind, umso stärker ist der Farbkontrast und umso dynamischer und auffälliger ist das Bild. Dieser Effekt wird bei der Verwendung von Komplementärfarben maximiert.

Wie im Kapitel zur Grundlagen der Bildgestaltung schon vorgestellt wurde, muss der Farbkontrast nicht nur aus den beiden Komplementärfarben entstehen. Der Farbdreiklang oder Farbvierklang ist eine geeignete Methode, um starke Farbkontrast zu erzeugen und das Bild durch den gleichen Abstand der Farben gleichzeitg in einem harmonischen Verhältnis zu behalten.


Disharmonische Farben[Bearbeiten]

Manchmal ist es auch interessant, oder aufnahmebedingt nicht vermeidlich, dass eine gewisse Disharmonie in einem Bild herrscht, die auf Grund ungünstiger Farbgestaltung entsteht. Das Bild wirkt dann unruhig, chaotisch, verwirrend oder abstoßend.

Disharmonie entsteht vor allem, wenn sehr viele Farben in einem Bild ohne rechte Ordnung auftreten. Vor allem Farben, die ungleichmäßig voneinander auf dem Farbkreis entfernt sind (zum Beispiel rot, orange, grün) wirken unharmonisch und widersprechen dem Farbklang. Zu viele unterschiedliche Farben auf engem Raum bewirken im Grunde denselben Effekt. Eine solche Farbgestaltung kann aber bewusst vorgenommen werden, um die genannten Effekte beim Betrachter auszulösen. Ein Schilderwald, der aus Schildern unterschiedlichster Farbe besteht, wird wahrscheinlich schon rein farblich zur Disharmonie führen – und damit die Wirkung des Chaos verstärken.


Das Rot[Bearbeiten]

Rot ist die Farbe mit der stärksten Intensität und wirkt oft als echter "Hingucker". Um in ein vielleicht eher langweiliges Bild Spannung zu bringen, reicht es oft bereits aus, ein kleines bisschen rot einzubringen. Das kann beispielweise durch einen roten Ball bewirkt werden, ein rotes Fahrzeug etc. Gleichzeitig gilt die Regel "weniger ist mehr" - zu viel Rot beziehungsweise zu viele grelle Farben können schnell vom eigentlichen Bild ablenken. Dies gilt insbesondere, wenn das Rot etwa als Ampel oder Verkehrsschild als störender Hintergrund für ein Motiv auftritt, welches eher aus blassen Grautönen besteht.


'Schwarzweiß'-Photographie[Bearbeiten]

Obwohl heute alle Kameras Photos standardmäßig in Farbe aufnehmen, wird man immer wieder auf Künstler stoßen, die ihre Photos bewusst in Grauwerten aufnehmen oder nachträglich in Grauwerte überführen. Es gibt mehrere Gründe, warum ein Grauwertbild interessanter als ein Farbbild wirken kann:

  • Beim Grauwertbild wird von den Farben abstrahiert und der Betrachter kann somit von den Farben nicht abgelenkt werden. Es konzentriert sich alles auf die Linien, Formen und vor allem Motive des Photos. Möchte man bestimmte Motive oder auch Strukturen (abstrakte Photographie) besonders betonen, können Grauwerte manchmal die bessere Lösung sein.
  • Bei einem bereits aufgenommenen Photo kann es passieren, dass die Farben unschön oder unpassend erscheinen. Im Kapitel über die Grundlagen der Bildgestaltung wurde bereits erläutert, dass es harmonische und disharmonische Farben gibt, in vielen Fällen (Straßenphotographie, Landschaftsphotographie etc.) hat man auf die Farben jedoch keinen Einfluss. Sollte das Bild also farblich misslungen sein, und lässt sich dies auch durch Nachbearbeitung nicht ändern, so kann das Überführen in ein Grauwert-Bild eine gute Alternative sein. Ein farblich nicht zufriedenstellendes Photo muss daher nicht immer sofort verworfen werden.
  • Ein Bildsensor, der nur die Lichtintensität aufnimmt, also nur Grauwerte liefert, kann eine deutlich höhere Empfindlichkeit oder Auflösung haben als ein Farbbildsensor. Damit können also Lichtsituationen gemeistert werden, die mit einem Farbsensor nicht zugänglich sind.
  • Es soll gezielt ein Eindruck von alt, seriös oder konservativ hervorgerufen werden. Bunte Farben wären da nur kontraproduktiv.
  • Soll zum Beispiel mit Filtern nur ein bestimmter enger Bereich des Spektrums aufgenommen werden, ist die Farbinformation redundant und ein Bildsensor, der nur die Lichtintensität aufnimmt ist in Kombination mit solchen Filtern die bessere Wahl.

Es gibt einige Genres, wo man Grauwertbilder relativ häufig antrifft. Dazu gehören vor allem Straßenphotographie und Abstrakte Photographie, weiterhin aber auch Architektur-, Stillleben-, Erotik- und Porträtphotographie. Trotzdem sollte man Grauwert-Aufnahmen eher dezent anfertigen, das heißt nur dann, wenn es notwendig beziehungsweise sinnvoll erscheint; Grauwerte sind nicht immer das Allheilmittel für gelungene Photos.


Landschaftsphotographie[Bearbeiten]

Grundlagen[Bearbeiten]

Herbstlandschaft

Die Landschaftsphotographie beschäftigt sich mit der Abbildung der belebten und unbelebten Umwelt des Menschen. Bilder der Landschaftphotographie sollen damit klassischerweise die Umwelt naturgemäß wiedergeben, wobei es oft das Anliegen ist, die Schönheit einer Landschaft darzustellen (zum Beispiel einen Garten oder Park im Frühling, herbstlich gefärbte Wälder, goldene Felder, einen Wasserfall in den Tropen etc.). Ebenso können jedoch auch soziale Aspekte mit einfließen, wie beispielsweise durch eine Naturkatastrophe oder durch Krieg verwüstete Landstriche. Die Landschaftsphotographie kann grundsätzlich auch von Menschen geschaffene Objekte enthalten (zum Beispiel Gebäude, Verkehrswege, Stromleitungen, Boote etc.), der Fokus liegt meist aber auf den landschaftlichen Aspekten.

Landschaften erhalten ihren besonderen Reiz vor allem dadurch, dass sie je nach Wetter, Tageszeit und Jahreszeit völlig verschieden erscheinen können. Eine großartige Landschaft kann bereits wenige Minuten später langweilig wirken und über die Jahreszeiten hinweg immer wieder ihr Gesicht ändern. Der geeignete Moment spielt somit oft eine große Rolle, und als Landschaftsphotograph sollte man auf Ausflügen und Reisen stets seine Kamera dabei haben. Nicht wenige, die einst eine atemberaubende Landschaft photographieren wollten, kamen zu einem anderen Zeitpunkt wieder und waren bitter enttäuscht als sie bemerkten, dass der gesamte Zauber vorbei war.


Allgemeine Aspekte[Bearbeiten]

Motivsuche[Bearbeiten]

Landschaftsphoto ohne klar erkennbares Hauptmotiv. Es hat dennoch seinen eigenen, ausgefallenen Charme.

Vor allem in der Landschaftsphotographie kommt es manchmal vor, dass sich scheinbar kein Motiv findet. Das kann beispielsweise am Meer oder an einer großen Wiese der Fall sein. Am Ende hat der Photograph aber auch immer die Möglichkeit, sich selbst in irgendeiner Form auf dem Photo unterzubringen, vorausgesetzt ein Stativ ist vorhanden.

Oft stellt auch der Himmel einen interessant Blickfang dar. Wolken am Himmel, Kondensstreifen, Abendrot – der Himmel kann ebenso zum Hauptmotiv werden, wenn die Landschaft wenig zu bieten hat. Hier wäre es dann sinnvoll, einen Großteil des Bildes dem Himmel zu widmen (siehe später).

Wie im vorangegangen Kapitel bereits erwähnt, muss ein Motiv nicht immer klar abgrenzbar sein. Ein Landschaftsphoto kann auch dann noch interessant sein, wenn sich kein direktes Motiv erkennen lässt (wie beispielsweise bei der rechts abgebildeten Szene). Die Landschaftsphotographie gehört damit zu den wenigen Genres (ähnlich wie die Straßenphotographie), wo nicht zwangsläufig ein konkretes, abgrenzbares Objekt photographiert wird.


Vordergrundgestaltung[Bearbeiten]

Neben dem Finden eines geeigneten Motivs stellt die Gestaltung des Vordergrunds in der Landschaftsphotographie oft ein gewisses Problem dar. Ein Photo wirkt langweilig, wenn der Vordergrund monoton und leer ist, so wie es bei Aufnahmen auf Wiesen oder am Meer oft der Fall ist.

Mit etwas Kreativität kann man aber auch in solchen Situationen einen interessanten Vordergrund gestalten. Es kommt im Grunde alles in Frage, was in der Natur bereits vorhanden ist – eine Hecke, ein Zaun, eine Sitzbank, ein Gebäudevorsprung, Schatten, Zweige von Bäumen, Fahrradständer und vieles mehr. Manchmal hat man vielleicht auch etwas dabei, womit man den Vordergrund füllen kann, zum Beispiel Wanderrucksack oder Picknickkorb. Als Photograph hat man de facto unbegrenzte Möglichkeiten und wird im Grunde erst auf diese Weise ein besonderes Photo schaffen.

In manchen Fällen kann auch ein leerer Vordergrund interessant sein, wenn er durch besondere Formen oder Farben heraussticht. In diesem Fall ist das Verwenden eines Motivs im Vordergrund nicht unbedingt nötig. Eine leere, grüne Wiese scheint oft langweilig - ein goldgelbes, geschwungenes Kornfeld kann das Bild hingegen bereits deutlich spannender machen, allein durch Form und Farbe.

Beliebt sind vor allem auch Aufnahmen durch Zweige hindurch, die dem Bild dann einen gewissen Rahmen verleihen.


Tiefe erzeugen[Bearbeiten]

In der Landschaftsphotographie sind zwei Punkte relativ wichtig: Das Photo sollte Tiefe zeigen und Größenverhältnisse sollten deutlich werden. Tiefe kann man, wie schon beschrieben, mittels Diagonalen erzeugen. Um das Größenverhältnis verschiedener Objekte (zum Beispiel eines Felsens etc.) darzustellen, bietet es sich an, Nebenmotive in dem Photo zu verwenden, deren Größe dem Betrachter bekannt sind. Personen sind hierbei ein beliebtes Mittel, aber auch Gebäude, Fahrzeuge, Tiere etc. Eine saubere Trennung von Vorder-, Mittel- und Hintergrund bewirkt ebenfalls Tiefe.

Eine weitere Möglichkeit Tiefe zu erzeugen, ist, zwei (oder mehr) etwa gleichgroße Objekte schräg hintereinander anzuordnen, zum Beispiel Kürbisse, Personen etc. Die hinteren Objekte wirken dann automatisch kleiner und erzeugen einen Tiefeneindruck. Manchmal ist es auch besonders günstig, wenn sich die Objekte teilweise überlagern, jedoch nur, falls sie dann auch noch gut von einander abgegrenzt werden können. Dieses Mittel, das als Größenabnahme bezeichnet wird, kennt man eigentlich aus der Malerei, kann in der Photographie aber ebenso gut eingesetzt werden.

Durch die Luftperspektive wird das Bild zum Horizont hin weniger kontrastreich und heller. Dadurch verschwimmt der Hintergrund allmählich und es entsteht ebenfalls ein Tiefeneindruck.

Eine weitere Möglichkeit, Tiefe zu erzeugen, ist das Verwenden von Rahmen, so dass der Blick des Betrachters durch den Rahmen auf das Motiv fällt (siehe oben).


Der Horizont[Bearbeiten]

Die Anordnung des Horizonts in der Bildmitte ist ein typischer Laienfehler. In diesem Fall wird mehr als die Hälfte des Bildes an einen monotonen, im Grunde völlig uninteressanten Himmel verschenkt. Zudem wirkt der Horizont leicht schräg.

Ein wesentliches Augenmerk der Landschaftsphotographie ist der Horizont beziehungsweise die Anordnung des Horizonts. Intuitiv wählen viele Photographen dabei einen mittig ausgerichteten Horizont, der das Bild somit in zwei etwa gleichgroße Hälften teilt. Aus gestalterischer Sicht ist dies meist äußerst ungünstig, da das Bild mittig zerteilt wird und nicht klar ist, auf welchen Teil nun der Fokus liegt. Zwar bewirkt ein mittig verlaufender Horizont oft einen recht naturgemäßen Blickwinkel, es besteht dann aber auch die Gefahr, dass eigentlich nicht klar ist, worauf der Schwerpunkt des Bildes gerichtet ist – auf den Himmel oder auf die Landschaft.

Wird der Himmel im oberen Bilddrittel angeordnet, wird die Landschaft hervorgehoben. Sie rückt näher an den Betrachter heran, der Himmel hingegen gerät eher in den Hintergrund. Diese Wahl eignet sich auch dann, wenn der Himmel nicht viel zu bieten hat. Ein monotoner weißer Himmel, der die Hälfte des Bildes einnimmt, wird dieses nicht unbedingt in ein Meisterwerk verwandeln. In den meisten Fällen, wenn der Schwerpunkt eben auf der Landschaft selbst liegen soll, bietet es sich damit an, den Horizont im oberen Bilddrittel anzuordnen.

Ist der Himmel hingegen von besonderem Interesse, zum Beispiel durch interessante Wolkenformen oder Farbverläufe (etwa in der Morgendämmerung), so lohnt es sich auch, den Horizont im unteren Bilddrittel anzuordnen, so dass der Himmel dominiert. Die Landschaft rückt dann weiter weg, das Bild drückt Weite und Unendlichkeit aus. Dies bietet sich wiederum an, wenn die Landschaft eher weniger interessant ist oder ein Motiv für den Vordergrund fehlt.

Eins sollte der Horizont in jedem Fall sein: Er sollte gerade ausgerichtet sein. Bei Stativaufnahmen hilft oft eine Wasserwaage, welche im Stativ integriert ist oder auf die Kamera aufgesteckt werden kann. Einige Kameras haben auch eine entsprechende Anzeige gleich integriert. Auch beim Auslösen der Kamera kann man diese bei Freihandaufnahmen leicht verreißen; es kann dann helfen, den Auslöser erstmal halb durchzudrücken, die Kamera nochmal sorgfältig auszurichten und dann den Auslöser nur noch ganz leicht durchzudrücken. Schon ein leicht schräger Horizont wirkt unnatürlich und laienhaft, kann aber relativ leicht mit einem Bildbearbeitungsprogramm korrigiert werden.

Jedoch keine Regel ohne Ausnahmen: Für besonders ausgefallene Photos bietet es sich manchmal an, den Horizont bewusst schräg zu setzen, möglicherweise sogar extrem schräg (z.B. 30° oder mehr). Hierbei sollte aber dann auch das Motiv entsprechend passen. Kritisch ist die Situation oft, wenn der Horizont wirklich schräg ist, weil die Landschaft eben hügelig ist und der Hügel auf der einen Bildseite etwas höher ist als auf der anderen. Landschaftsgärtner machen ihre Gärten auch gerne absichtlich um ein oder zwei Grad schief, um bestimmte Effekte zu verstärken. Ohne vertikalen Bezugspunkt wird solch eine Aufnahme dann oft auch als schief wahrgenommen, selbst wenn man alles sorgfältig mit einer Wasserwaage ausgerichtet hat.


Jahreszeiten[Bearbeiten]

Grundlagen[Bearbeiten]

Frühlingswiese
Sommer am Strand
Waldweg im Herbst
Windbuchen im Winter

In den gemäßigten Breiten Europas haben wir das Glück, ausgeprägte Jahreszeiten zu besitzen, mit kalten, oft schneereichen Wintern und warmen, sonnigen Sommern. Davon abgesehen, dass sich Wetter und Sonnenbahn in den einzelnen Jahreszeiten deutlich unterscheiden und das Bild einer Landschaft unterschiedlich erscheinen lassen, erhält die Vegetation in jeder Jahreszeit ein anderes Aussehen.

Es gibt damit Frühlings-, Sommer-, Herbst- und Winterlandschaften. Auf Mitteldeutschland (Tiefland) bezogen, ergeben sich etwa folgende Zeiträume, in denen diese Landschaften vorgefunden werden:

  • Frühling: Anfang März bis Mitte Mai
  • Sommer: Mitte Mai bis Anfang September
  • Herbst: Mitte September bis Anfang November
  • Winter: Mitte November bis Ende Februar


Gerade Frühling und Herbst sind, bezogen auf die Erscheinung von Landschaften, relativ kurz. Der Zeitraum zwischen dem die Blätter an den Bäumen farbig werden und dem, wo sie zu Boden fallen, ist oft nur wenige Wochen. Hierbei sollte man günstige Photogelegenheiten (zum Beispiel ein sonniger Herbsttag) auf keinen Fall verpassen. Stellt man dann Mitte November fest, dass einem bislang keine guten Herbstbilder gelungen sind, muss man fast ein Jahr warten, bis man erneut Gelegenheit dazu hat.


Frühling[Bearbeiten]

Im Frühling verwandeln sich kahle Wälder, Parks und Felder wieder in blühende Landschaften. In Frühlingsphotos dominieren meist satte Grüntöne und es kann passieren, dass das Photo farblich etwas monoton wirkt; es gibt aber auch bereits zahlreiche blühende Blumen, die man in das Photo mit einbeziehen kann, um etwas mehr Farbe in das Bild zu bekommen. In vielen Gegenden blühen im späten Frühling zudem endlos erscheinende Rapsfelder, die durch ihr helles Gelb in einzigartiger Weise aus der Landschaft herausragen. Besonders Parks und blühende Wälder sind empfehlenswerte Orte für Frühlingsphotos.

Vor allem im Frühling kommen auch Makrophotographen auf ihre Kosten. Blühende Blumen, aufgehende Blütenblätter, Knospen, die ersten Insekten - zur Frühlingszeit bieten sich nach zahlreiche Gelegenheiten.


Sommer[Bearbeiten]

Im Sommer blüht dann eine Vielzahl von Blumen; Bäume und Sträucher besitzen ihr volles Blätterwerk während die Felder in gelben Tönen erscheinen. Sommerlandschaften erscheinen daher meist automatisch bunter und in weicheren Farben als die saftig grünen Frühlingslandschaften.

Da die Sonne sehr hoch über den Horizont steigt, bietet es sich an, am Morgen oder späten Nachmittag beziehungsweise Abend zu photographieren - in der Mittagssonne ist das Licht sehr hart und wirft kurze Schatten. Andererseits können Photos zur Mittagszeit besonders gut Hitze ausdrücken und damit die Landschaft zu einem typischen Sommerphoto machen.


Herbst[Bearbeiten]

Das größte Farbspektrum bietet jedoch der Herbst mit seinen weichen, warmen Farben. Die Blätter der Bäume werden gelb, orange, rot und braun, zudem blühen verschiedene Herbstblumen, die weitere sanfte Farben (zum Beispiel das Lila der Aster) in das Bild bringen können. Die Sonne erreicht im September und Oktober nur noch eine mittlere Höhe, so dass selbst zur Mittagszeit das Licht weicher ist als im Hochsommer und damit den farblichen Effekt verstärkt.

Großartige Herbstlandschaften kann man vor allem wieder in Wäldern und Parks erleben; auch herbstlich verfärbte Alleen sind interessante Photomotive. Im Wald bilden sich im Herbst schnell Laubschichten auf dem Boden - sie sind ebenso photogen wie die Bäume in ihrer bemerkenswerten Farbenpracht. Verwendet man größere Brennweiten (Tele), so lassen sich im Wald abstrakte oder halb-abstrakte Aufnahmen zaubern. Für Freunde der Makrophotographie sind Pilze, Herbstblumen und einzelne verfärbte Blätter interessante Motive.

Der Herbst bietet mit seiner Farbenpracht einzigartige Gelegenheiten und ist für manche Landschaftsphotographen vielleicht die interessanteste Zeit. Die Natur bietet dem Betrachter noch einmal eine Fülle bemerkenswerter Motive und Ansichten, bevor sich die Landschaften dann fast über Nacht in triste Ödnis verwandeln.


Winter[Bearbeiten]

Der Winter wird oft als trostlose, unphotogene Zeit gesehen, vor allem dann, wenn kein Schnee liegt und die Landschaft in monotones Braun oder Grau gehüllt ist. Dies ist wiederum in den Tieflagen Mitteleuropas leider sehr oft der Fall - in manchen Jahren fällt Schnee reichlich, in manchen Jahren bleibt er fast völlig aus. Doch ob mit Schnee oder ohne - auch im Winter werden sich fast immer einige interessante Szenen finden. Ein kahler Wald, der verlassene, trostlose Stadtpark, ein starrer See - der Winter steht im strengen Kontrast zu den anderen Jahreszeiten und besitzt seinen eigenen Charme.

Schneephotos sind natürlich für gewöhnlich von größerem Interesse, und sollte einmal Schnee liegen, gilt es diese eher seltene Gelegenheit nicht zu verpassen. Der Schnee verzaubert Landschaften auf einzigartige Weise und lässt in den Photos echte Winter- oder Weihnachtsstimmung auftreten. Bei Schneephotos sollte man jedoch beachten, dass die Kamera hier oft zu knapp belichtet - eine höhere Belichtungsstufe ist oft empfohlen.

Neben Schneephotos sind auch Reif- und Frostphotos interessant und können gewissermaßen als Ersatz dienen, falls kein Schnee liegt. Auch zugefrorene Seen, Eisschollen auf Gewässern und Eiszapfen sind interessante Wintermotive, die sowohl für sich als auch eingebettet in die Landschaft photographiert werden können.

Besondere Szenen und Situationen[Bearbeiten]

Blumen[Bearbeiten]

Sonnenblumen

Blumen photographiert man idealerweise im leichten bis mittleren Telewinkel (circa 80 bis 200 mm). Sie wirken dann üppiger und näher aneinander während Weitwinkel sie scheinbar auseinanderzieht und viel vom eventuell irrelevanten Hintergrund erkennbar werden läßt. Zudem bietet sich bewölktes Wetter eher an, als hartes Sonnenlicht - er könnte zu unschönen Schatten zwischen den einzelnen Blumen führen.


Nebel[Bearbeiten]

Mystische Nebelaufnahme in zarten Lilatönen. Leider trübt das starke Bildrauschen das sonst reizvolle Photo erheblich.

Ähnlich wie Schnee, ist auch Nebel ein eher selten anzutreffendes Phänomen, das zudem meist in den Morgenstunden auftritt und sich im Tagesverlauf oft sehr schnell verzieht. Er bietet jedoch viele interessante Aufnahmemöglichkeiten. Bisweilen kann er auch gnädig lästigen Hintergrund verbergen. Die Landschaft versinkt in einem mystischen Schleier, wirkt unheimlich, verlassen oder monoton. Motive erscheinen nur in ihren Konturen und wirken deutlich abstrakter als an normalen Tagen. Dringt die Sonne durch den Nebel, kann der Nebel bemerkenswerte Farben annehmen, zum Beispiel ein zartes Orange oder Gelb. Vor Sonnenaufgang und nach Sonnenuntergang kann er hingegen bläulich erscheinen.

Beim Photographieren von Nebel wird man oft Probleme bei Belichtung, Weißabgleich und Fokussierung haben, vor allem bei dichtem Nebel. Ein manuelles Wählen der Parameter ist dann oft empfehlenswert. Da der Nebel das Tageslicht blockt, sind grundsätzlich längere Belichtungszeiten zu erwarten. Nebelphotos neigen scheinbar besonders heftig zu Bildrauschen - es sollte daher auf hohe ISO-Werte verzichtet und lieber auf ein Stativ zurückgegriffen werden.

Nebel tritt besonders an Gewässern auf und über Wiesen -aber auch als niedrig hängende Wolken an Bergen. Fast jedem Motiv kann er dabei ein mystisches Aussehen verleihen, etwa einer aus dem Nebel ragenden Flussbrücke, einem kahlen Baum oder einem ohnehin schon mystisch wirkenden Friedhof.


Sonnenaufgang und Sonnenuntergang[Bearbeiten]

Ein einfaches Sonnenuntergangsphoto ist noch lang kein Garant für ein bemerkenswertes Photo. Hier sorgen der Strand und die Wellen im Vordergrund, die Personen im Mittelgrund und der leichte Wolkenschleier im Hintergrund für eine atemberaubende Aufnahme.

Eines der beliebtesten Themen der Landschaftsphotographie ist zweifelsohne die Aufnahme von Sonnenaufgängen und Sonnenuntergängen. Ähnlich wie bei Herbstphotos hat man hier ein gewaltiges Spektrum an warmen Farbtönen (gelb, orange, rot), die zum Teil mit kalten Farbtönen des sich verdunkelnden Himmel (blau, violett) verbinden. Anders als bei herkömmlichen Photos verschmelzen diese Farben meist derart miteinander, das ein gewaltiges Farbspektrum (hoher Dynamikumfang) vorherrscht.

Da Sonnenuntergänge eben zu den Klassikern in der Photographie gehören, reicht es nicht aus, einfach einen Sonnenuntergang zu photographieren, um ein bemerkenswertes Bild zu bekommen. Es ist äußerst wichtig, den Vordergrund mitzugestalten und nicht ausschließlich den Sonnenuntergang als Motiv zu sehen. Welche Möglichkeiten man hat, den Vordergrund zu gestalten, wurde bereits weiter oben erläutert. An Seen und am Meer kann man auch das Wasser selbst als Vordergrund nehmen - das Photo wirkt besonders gut, wenn sich die tiefstehende Sonne dann im Wasser spiegelt.


Architekturphotographie[Bearbeiten]

Einleitung[Bearbeiten]

Die Architekturphotographie befasst sich mit der Abbildung von Bauwerken aller Art, einschließlich von Innenaufnahmen und Architekturdetails. Da Bauwerke oft eine imposante Größe besitzen, aber dicht zusammenstehen, ist dabei ein Weitwinkelobjektiv in vielen Fällen unverzichtbar - gleichzeitig kann auch ein Teleobjektiv gefordert sein, wenn Details abgebildet werden sollen. Für spezielle Aufnahmen, wo das Gebäude selbst mit einem Weitwinkelobjektiv nicht voll abgebildet werden kann, gibt es für manche Kameras Shift-Objektive zu erwerben, die eine Verschiebung des Bildausschnitts ermöglichen, ohne stürzende Linien zu bekommen.


Darstellung von Bauwerken[Bearbeiten]

Golden Gate Bridge
Detail der Golden Gate Bridge

Eine Grundregel der Architekturphotographie lautet "Weniger ist mehr". Laien neigen häufig dazu, ein Gebäude möglichst vollständig auf dem Photo abzubilden (Totale). Das endet oft auch damit, dass es nur gerade noch auf das Photo passt oder die Kamera nach oben gerichtet wurde, um es überhaupt darstellen zu können - das führt dann zu den bekannten stürzenden Linien. Insofern ist es in der Architekturphotographie oft sinnvoll, sich auf Ausschnitte eines Bauwerks zu konzentrieren, oft auch auf Details wie Balkone, Erker, Ornamente, Pfeiler, Dachgaupen etc. Bei modernen Gebäuden lassen sich zudem oft auch abstrakte oder halbabstrakte Photos erzeugen.

Interessant ist auch die Kombination aus Totale und Detail, wie sie oft in Magazinen und Prospekten zu sehen sind. Hierbei wird das Gebäude zunächst vollständig photographiert und im Anschluss interessante Details mit großer Brennweite festgehalten. Bei der Präsentation der Photos bietet es sich dann an, aus den Photos ein Bild zu machen (zum Beispiel können Detailphotos verkleinert und in einer Ecke der Gesamtansicht integriert werden - oder auch an sonstigen, nicht besonders interessanten Stellen der Gesamtansicht). Eine ganze Bilderserie hingegen wird man sich einfach Bild für Bild anshen. Übersichtsaufnahmen können dann gut dazu dienen, zu zeigen, wo sich die Details befinden.

Für die Architekturphotographie bieten sich damit fast alle Brennweiten an: Kurze Brennweiten (Weitwinkel) für vollständige Ansichten ebenso wie lange Brennweiten (Telewinkel und Super-Telewinkel), um Details abzubilden. Wer sich auf Architekturphotographie spezialisiert, sollte somit beide Objektive mit sich führen beziehungsweise eine Kompakt- oder Bridgekamera mit ausreichend Zoom ("Super-Zoom-Kameras") in Betracht ziehen.

Die bereits vorgestellten Regeln über Perspektive und Anordnung des Motivs gelten meist auch für die Architekturphotographie. Gebäude sollten nach Möglichkeit nicht frontal, sondern leicht von der Seite photographiert werden, damit sie räumlicher wirken (manchmal ist es aber auch gerade interessant oder gar nicht anders möglich, ein Gebäude direkt von vorn aufzunehmen). Die Platzierung im Bilddrittel kann sinnvoll sein, oft nimmt das Gebäude in der Architekturphotographie jedoch das gesamt Bild ein, da der Hintergrund meist unwichtig ist. Besonders interessant ist es, wenn sich für ein vollständig abgebildetes Gebäude ein Vordergrundmotiv, etwa ein Springbrunnen, ein Denkmal oder eine Mauer findet, welches das Bild dann wieder in Vorder- und Hintergrund aufteilt.

Stürzende Linien[Bearbeiten]

Stürzende Linien in einem Photo. Die Kamera wurde nicht gerade, sondern leicht nach oben gehalten. Das Photo wirkt sehr unschön, das Gebäude kippt scheinbar nach hinten.

Ein Phänomen, das vor allem in der Architekturphotographie auftritt, sind stürzende Linien (konvergierende Linien). Diese treten auf, sobald die Kamera bei Aufnehmen eines Gebäudes auch nur leicht schräg nach oben gerichtet wird. Wenn ein Gebäude nicht vollständig auf das Photo passt und die örtlichen Verhältnisse ein weiteres Zurückgehen nicht ermöglichen, bleibt scheinbar gar nichts anderes übrig, als die Kamera nach oben zu richten, um das Gebäude abbilden zu können. Der Vorteil ist, dass das Gebäude dann vollständig auf das Bild passt, egal wie hoch es auch sein mag. Der Nachteil ist allerdings, dass die Linien "aufeinander zustürzen", das heißt scheinbar in der Unendlichkeit sich in einem Punkt vereinen (obwohl sie parallel verlaufen). Das Gebäude auf dem Photo wirkt dann, als ob es nach hinten umkippt. Das liegt daran, dass bei der geneigten Haltung die Ebene der Fassade nicht parallel zur Bildsensorebene verläuft. Während die entsprechende Verkleinerung in horizontaler Richtung bei schräg aufgenommenen Gebäude oder Eisenbahnschienen sogar dem normalen Seheindruck entspricht, hat das Gehirn mehr Probleme mit Ebenen, die vertikal verlaufen. Es wird der Eindruck erweckt, als stürze das Gebäude nach hinten.

Dasselbe Photo mit einem Bearbeitungsprogramm bearbeitet. Die Seiten des Gebäude verlaufen nun parallel zum rechten bzw. linken Bildrand, stürzende Linien sind nicht mehr erkennbar.

Stürzende Linien wirken meist sehr unästhetisch, lassen sich aber nicht immer vermeiden. Mit dem Perspektivwerkzeug verschiedener Bildbearbeitungsprogramme lassen sich leichte perspektivische Probleme jedoch beheben (dazu mehr im Teil zur Bildbearbeitung). Man erkennt stürzende Linien meist beim bloßen Anblick des Photos. Möchte man ganz sicher gehen, so kann man ein Raster über das Bild legen (zum Beispiel mit einem Photobearbeitungsprogramm); die Seiten des Gebäudes müssen dann alle senkrecht sein - laufen sie schief zum Raster, liegen stürzende Linien vor.

Möglichkeiten, die man in einer solchen Situation immer hat, sind:

  • Statt des gesamten Gebäudes einen Ausschnitt photographieren, zum Beispiel ein bestimmtes Detail.
  • Das Gebäude eventuell seitlich photographieren (frontale Photographieren von Bauwerken sind ohnehin eher ungünstig).
  • Zur Aufnahme des Gebäudes einen höheren Standort aufsuchen, zum Beispiel einen Hügel, gegenüberliegenden Balkon etc.
  • Ein geeignetes Superweitwinkelobjektiv verwenden
  • Die stürzenden Linien in Kauf nehmen (und eventuell auf die Nachbearbeitung am Rechner setzen).
Bei sehr hohen Gebäuden lassen sich stürzende Linien oft nicht vermeiden. Hält man die Kamera steil nach oben, wird der Effekt maximal, ist aber dann von künstlerisch hohem Interesse.

Vor allem bei Hochhäusern und Wolkenkratzern ist es ein interessanter Effekt, auch einmal bewusst die Kamera stark nach oben zu richten (Froschperspektive) und somit stark stürzende Linien zu erzeugen. Hierzu sollte man relativ nah an das entsprechende Gebäude gehen und die Kamera zum Abbildes des Gebäudes steil nach oben halten. Die Linien stürzen hierbei natürlich extrem, das Resultat kann aber einen beeindruckenden Charakter haben. Solche Photos drücken oft Größe und Abstraktheit aus, stürzende Linien sind also nicht in jedem Fall negativ. Dieses Vorgehen ist damit eine weitere Alternative hat, wenn man ein Gebäude nicht ohne stürzende Linien abbilden kann - man dreht buchstäblich den Spieß um und erzeugt sie bewusst.

In solchen extremen Fällen interpretiert das Gehirn die perspektivische Verkleinerung auch vertikal korrekt, weil diese Verkleinerung natürlich auch auftritt, wenn man das Gebäude mit eigenen Augen anguckt. Kritisch sind die stürzenden Linien also eher bei Gebäuden mittlerer Höhe, wo vor Ort die perspektivische Verkleinerung noch vom Gehirn automatisch kompensiert wird.

Übrigens: Die Gefahr stürzender Linien ist im Weitwinkel am größten. Hier reicht schon eine ganz geringe Neigung der Kamera, um den oft unschönen Effekt zu erzielen. Mit zunehmenden Brennweiten wird der Effekt jedoch geringer und kleine Neigungen fallen kaum mehr auf – natürlich lässt sich damit aber dann auch weniger auf dem Bild platzieren als zuvor.

Und noch ein Tipp: Stürzende Linien fallen vor allem bei hohen Gebäuden sowie Gebäuden mit recht einfachen Formen (quaderförmig etc.) auf. Sie fallen weniger bei Gebäude mit hohen Kuppeln oder starken Spitzdach auf, weil dann die Linien ohnehin aufeinander zulaufen. Der negative Effekt wird aber auch bei solchen Gebäuden ab einem bestimmten Neigungsgrad sichtbar.

Beleuchtung und Wetter[Bearbeiten]

Es gibt keine eindeutige Regel zu welcher Tageszeit, bei welchem Wetter und bei welchen Lichtverhältnissen Gebäude photographiert werden sollten. Oft eignet sich der Morgen oder Abend an, da zur Mittagszeit starke Schatten an dem Gebäude auftreten können, die Farben blass wirken können und große Flächen (vor allem weiße Fassaden) überstrahlt sind. Allgemein wird oft empfohlen, mit Seitenlicht zu photographieren, so dass die Räumlichkeit der Gebäude sowie Konturen besser sichtbar werden. Gegenlicht kann manchmal selbst aus einfachen, sonst uninteressanten Gebäuden atemberaubende Photos machen - Details werden hierbei aber weniger sichtbar, die Betonung liegt dann auf der Silhouette des Bauwerks.

Gebäude wirken meist bei blauem Himmel (sonniges Wetter) besser (vor allem kontrastreicher) als an trüben Tagen mit weißen oder grauen Himmel. Photographiert man Gebäude hingegen bei Nebel, stellt sich oft ein interessanter, mysteriöser Effekt ein.

Für abstrakte Formen und moderne Architektur ist das harte Licht der Mittagssonne oft geeignet, da es die scharfen Gebäudekanten besser zum Ausdruck bringt und Kontrast maximiert. Für ländliche Architektur scheint weiches Licht, vor allem auch das Licht der tiefer stehenden Sonne, günstig.


Untergattungen[Bearbeiten]

Einleitung[Bearbeiten]

Die Architekturphotographie ist ein weites Gebiet, das verschiedene Untergattungen besitzt. Während einige Hobby-Photographen bei Architekturphotographie allein an Bauwerke, insbesondere Sehenswürdigkeiten denken, bietet das Genre ein weitaus größeres Spektrum an möglichen Motiven. Einige interessante Untergattungen seien im Nachfolgenden erläutert.


Industrielandschaften[Bearbeiten]

Industrielandschaften können aus unterschiedlichen Gründen aufgenommen werden. Dieses Bild ist aus gesellschaftlicher Sicht recht interessant - es zeigt erneuerbare Energieanlagen neben herkömmlichen. Damit drückt es einen gewissen Wandel in der Gesellschaft aus.

Industrielandschaften sind ein beliebtes Motiv jenseits der sonst beschaulichen Sehenswürdigkeiten und beeindruckenden Zeugnissen moderner und historischer Architektur. Sie wirken oft alltäglich, unbedeutend, hässlich. Gerade dies wird von vielen Architekturphotographen jedoch oft auch als besonderer Reiz empfunden; viele Sehenswürdigkeiten und beeindruckende Bauwerk wurden bereits tausendfach abgelichtet und sind womöglich einer Vielzahl von Menschen bekannt – einmal alltägliche Bauwerke wie Industrieanlagen zu photographieren, kommt hingegen nur wenigen in den Sinn, und umso interessanter kann es sein, einmal solche Gebäude zu photographieren. Besonders spannend sind dabei Gegensätze, zum Beispiel Fabriken und Schornsteine neben Wohngebäuden oder Industrieanlagen im ländlichen Raum, die eine deplatzierte Wirkung entfalten. Das Resultat kann dabei sowohl dokumentarischen als auch künstlerischen Charakter haben. In vielen Fällen kann das Abbilden von Industrieanlagen dabei aus gesellschaftskritischer Sicht sehr interessant sein und den Betrachter zum Nachdenken anregen.

Das Photographieren von Industrielandschaften fällt in das weniger bekannte photographische Genre der Industriephotographie, darf damit jedoch nicht gleichgesetzt werden. Industriephotographie bezeichnet jegliche Art von Motiven industrieller Produktion und legt den Fokus somit sowohl auf den Industrieprozess als auch das Industrieprodukt. Damit geht das Genre über die Architekturphotographie deutlich hinaus, die die Produktionsstätten im Fokus hat, nicht jedoch den eigentlichen Prozess beziehungsweise das Produkt.

In vielen Situationen scheint es besonders interessant, Industrielandschaften bei Gegenlicht und tief stehender Sonne zu photographieren. Dabei wird von den Details abstrahiert, die hier jedoch oft nicht von Bedeutung sind. Die Umrisse einer Fabrik, die emporragenden Schornsteine und der aufsteigende Rauch können ein bemerkenswertes Bild ergeben – der Betrachter benötigt keine weiteren Details, um sich die Stimmung vorstellen zu können.


Skulpturen[Bearbeiten]

Sphere von Fritz Koenig, New York, vor der Zerstörung des World Trade Centers

Skulpturen und Denkmäler werden ebenfalls der Architekturphotographie zugeordnet und sind beliebte Motive für die meisten Architekturphotographen. Bei Skulpturen ist es wichtig, die Plastizität auszudrücken, die immerhin die Haupteigenschaft von Skulpturen (im Gegensatz zu Gemälden) ist. Das erreicht man vor allem mit hartem Seitenlicht, so dass Formen und Details besonders gut zum Ausdruck kommen. Skulpturen können manchmal auch zur Vordergrundgestaltung verwendet werden, zum Beispiel ein Denkmal vor einer Kirche etc.

Nachtphotographie[Bearbeiten]

Nachtansicht von New York, aufgenommen bei völliger Dunkelheit.

Die Nachtphotographie überschneidet sich mit sehr vielen Genres, da man fast alles sowohl bei Tageslicht als auch in der Dämmerung oder Nacht photographieren kann. In der Architekturphotographie spielen Nachtaufnahmen jedoch eine ganz besondere Rolle, da sich eine Stadt oder Großstadt bei Nacht stets von einer völlig anderen, manchmal umso interessanteren Seite zeigt.

Besonders gern werden Nachtansichten von Großstädten, insbesondere Skylines, aufgenommen. Die abertausend beleuchteten Fenster (wie im Bild rechts zu sehen) zeigen erst, wie belebt eine solche Stadt ist, denn es wird kaum ein beleuchtetes Zimmer geben, wo sich niemand aufhält. Um solch beeindruckende Skylines aufnehmen zu können, muss man jedoch selbst einen erhöhten Punkt finden. Hierfür bieten sich öffentlich zugängliche Hochhäuser oder Aussichtsplattformen an. Viele Städte verfügen in der Nähe des Zentrums auch über Erhebungen, von denen man womöglich auch einen Guten Blick auf die Stadt hat.

Bei der Nachtphotographie bietet sich stets ein Stativ an, alternativ eventuell auch lichtstarke Objektive und hohe ISO-Werte falls noch genügend Licht vorhanden ist. Allgemein gilt es meist als ausgesprochen günstiger, nicht bei völliger Dunkelheit zu photographieren, sondern in der mehr oder weniger vorangeschrittenen Abenddämmerung. Der dann noch leicht farbige Himmel ergibt damit einen interessanten Kontrast zu den dunklen, teilweise erleuchtet Gebäuden. Straßenbeleuchtung und Erleuchtung von Gebäuden setzen ohnehin deutlich vor der absoluten Dunkelheit ein.


Dokumentarische Photographie[Bearbeiten]

Beispiel für Dokumentarische Photographie.

In der Architekturphotographie ist es häufig auch interessant, einmal gezielt Alltagsaufnahmen zu tätigen, zum Beispiel den Innenhof eines Straßenviertels oder einen an ein Gebäude grenzenden Garten. Das Interessante liegt im Detail, da auf alltäglichen Aufnahmen sich doch oft interessante Dinge finden lassen, zum Beispiel Dinge menschlichen Wirkens und Schaffens.

Die hier vorgestellte Idee gehört zu dem deutlich über die Architekturgattung hinausreichenden Genre der Reinen Photographie (pure photography, auch straight photography), die einfache, ungestellte und möglichst realistische Abbilder von alltäglichen Plätzen und Situationen zum Gegenstand hat.


Innenaufnahmen[Bearbeiten]

Innenaufnahmen unterscheiden sich von der allgemein Architekturphotographie insofern, dass man es meist mit schwierigeren Lichtverhältnissen zu tun hat. Die Innenräume von Sehenswürdigkeiten wie Kathedralen, Kirchen und Ausstellungen sind oft nur dezent beleuchtet, das Verwenden von Blitzlicht ist oft untersagt. Aus diesem Grund bieten sich lichtstarke Objektive und das Verwenden einer hohen ISO-Empfindlichkeit an. Da Innenräume meist mit Glühlampen- oder Leuchtstofflampen beleuchtet sind, muss man hierbei den Weißabgleich im Auge behalten und die Kamera gegebenenfalls auf die niedrigere Farbtemperatur einstellen – im anderen Fall könnte sich ein Rotstich einstellen.

Ein weiteres Problem der Innenaufnahmen ist der oft beschränkte Raum zum Photographieren, so dass man es in manchen Fällen nicht schaffen wird, einen kleinen Raum in seiner Gesamtheit abzubilden. Hier hat man damit dasselbe Problem wie bei Außenaufnahmen, wo selbst ein gutes Weitwinkelobjektiv nicht ausreicht. Die Lösung ist hierbei wieder, sich eher auf Details in Räumen und Sälen zu konzentrieren, weniger auf eine vollständige Abbildung des gesamten Zimmers. Alternativ bietet einige höherwertige Kameras auch einen Panorama-Modus, mit dem sich ein Panorama oder halbes Panorama (zum Beispiel 180°) von dem Raum erstellen lässt.


Porträtphotographie[Bearbeiten]

Grundlagen[Bearbeiten]

Porträtphotographie - das klassische Genre der Photographie.

Die Porträtphotographie beschäftigt sich mit der Abbildung von Lebewesen, wobei sich Porträtphotographie im engeren Sinne auf Personen, im weiteren Sinne auch auf Tiere bezieht, hierbei spricht man dann aber eher von der Tierphotographie. Bereits seit Beginn der Photographie ist sie eines der beliebtesten und wichtigsten Genres überhaupt, die sowohl in der Anwendungsphotographie als auch der Künstlerischen Photographie enorme Bedeutung hat.

Häufiges Ziel der Aufnahme von menschlichen Porträts ist es, die typischen Wesenszüge einer Person auszuarbeiten und in dem Photo deutlich zu machen. Aus dem Photo sollen für den Betrachter damit der typische Charakter und die Stimmungslage der Person zum Aufnahmezeitpunkt klar ersichtlich werden. Anders als bei Landschafts- und Architekturphotographie kann der Photograph großen Einfluss auf das Motiv nehmen, das heißt zu hohem Maß in die Szene eingreifen. Das Motiv ist sich oft auch der Situation des Photographierens bewußt und kann darauf reagieren. Wahl von Kleidung und Zubehör, Körperhaltung, Mimik und Gestik, Hintergrund und vieles mehr lassen sich nach Belieben anpassen, so dass die gestalterische Freiheit fast grenzenlos ist und eine Person auf unterschiedlichste Weise abgebildet werden kann.

Bei gestellten Photos, wo die Person vom Photographen in Szene gesetzt wird oder die Person sich selbst zum Zwecke des Photographierens in Szene setzt, bezeichnet man diese auch als Modell. Man kann hierbei auch grundsätzlich zwei Arten von Porträtaufnahmen unterscheiden: Gestellte Photos (in der angewandten Photographie und vor allem professionellen künstlerischen Photographie) und ungestellte Photos. Im ersteren Falle wird die darzustellende Person also zum Darsteller, das Bild zeigt also im Zweifelsfalle eine Erscheinung der Person, die sich so nur zum Zwecke der Aufnahme verhält. Im zweiten Falle geschieht das Photographieren vom Abgebildeten aus gesehen nebenbei, ist also nicht inszeniert. Der Photograph hat dann natürlich lediglich die gleichen Gestaltungsmöglichkeiten wie bei anderen Motiven und hat keinen Einfluß darauf, wie sich die Person verhält. Dazwischen ergeben sich natürlich auch Situationen, wo die abzubildenden Personen zu anderen Zwecken agieren, sich aber dennoch bewußt sind, dass sie aufgenommen werden, ihr Verhalten kann also klar von dem abweichen, was sie zeigen, wenn sie sich unbeobachtet fühlen oder jedenfalls nicht in einem Bild verewigt werden.

Die nicht inszenierten Photos können den 'wahren' Charakter einer Person oft besser darstellen als die gestellten Photos, die dafür eher zeigen, wie die Person sich selber darstellen möchte oder der Photograph sie darstellen möchte.

Allgemeine Techniken[Bearbeiten]

Hintergrundgestaltung[Bearbeiten]

Äußerst ungünstig gestalteter Hintergrund. Er fällt stark auf, trägt aber nichts zur eigentlichen Szene bei.

In der Porträtphotographie kommt es vor allem auf den Hintergrund an, der hier oft so unauffällig wie möglich sein soll, damit die volle Aufmerksamkeit auf dem Motiv liegt. Ein Hintergrund mit vielen Details oder in schillernden Farben kann stark vom eigentlichen Motiv ablenken und damit das Bild vollständig ruinieren. Jedoch kann ein etwas ausgefallener Hintergrund manchmal das Photo stark aufwerten, so dass es nicht immer ratsam ist, den Hintergrund auszublenden.

Günstiger Hintergrund.

Es gibt auch Situationen, wo der Hintergrund keineswegs fehlen darf. Wenn man eine Person beispielsweise in ihrem Alltags- oder Berufsleben darstellt (zum Beispiel einen Handwerker bei der Arbeit oder ein Kind beim Erledigen seiner Hausarbeiten), kann es sinnvoll sein, den entsprechenden Hintergrund nicht auszublenden, da dieser dann für die Darstellung des Porträts entscheidend ist. Die Charakteristik des Motivs wird dann erst durch die Umgebung deutlich.

Wählt man hingegen einen einfachen, monotonen Hintergrund (zum Beispiel bei Innenaufnahmen), so sollte die Person ein gutes Stückchen vom Hintergrund (zum Beispiel Wand) entfernt sein, wenigstens ein bis zwei Meter. So kann man einerseits den Hintergrund durch niedrige Schärfentiefe einfacher „verschwinden“ lassen und zum anderen fallen die Schlagschatten der Person weniger auf. Letzteres ist vor allem dann wichtig, wenn mit nur einem Blitz photographiert wird – die Schatten der Person könnten sonst auf die dahinter liegende Wand fallen und ein unschönes Bild ergeben.

Zudem dürfen Objekte im Hintergrund und Motiv niemals zusammenschmelzen, es sei denn dies ist der absolute Wille des Photographen (was selten der Fall sein dürfte). Sich im Hintergrund befindliche Bäume, Sendemasten, Kerzenleuchter oder Kirchtürme, die scheinbar aus dem Kopf der Person „herausragen“, zerstören das Bild meist vollständig beziehungsweise lassen das Motiv äußerst lächerlich wirken. Durch eine kleine Perspektivänderung lässt sich das Problem hingegen fast immer aus der Welt schaffen.

Brennweite und Blende[Bearbeiten]

Schriftstellerin bei der Arbeit. Um ihr typisches Arbeitsumfeld mit abzubilden, wurde eine kleinere Brennweite gewählt und mehr Hintergrund mit abgebildet.

In der Porträtphotographie werden für gewöhnlich Brennweiten im unteren bis mittleren Tele-Bereich verwendet, etwa zwischen 80 und 135 mm. Das hat vor allem den Vorteil, dass bei solchen Brennweiten die Gesichtszüge weicher wirken und Extremitäten wie Nase, Kinn und Unebenheiten in der Haut weniger hervorstechen als beim Weitwinkel; zudem kann der Photograph somit einen gewissen Abstand zur Person halten und muss sich ihr bei Nahaufnahmen weniger aufdrängen. Menschen haben unterschiedliche Distanzbereiche, spätestens wenn man in den Nahbereich vordringt, ändert sich meist ihr Verhalten, was man mit längeren Brennweiten gut vermeiden kann.

Für Schnappschüsse bieten sich oft noch größere Brennweiten an, etwa bis 200 mm. Möchte man die Person hingegen wie oben beschrieben in ihren Arbeits- und Alltagsumfeld darstellen, ist Weitwinkel die beste Wahl. Hierbei sollte die Person eher in der Mitte angeordnet werden, da im Weitwinkel zu den Seiten hin Verzerrungen entstehen können. Je nach Situation sollte dann ein gutes Stück Hintergrund sichtbar werden.

Je nach dem, ob man den Hintergrund scharf haben möchte oder nicht, sollte eine große oder kleine Blendenzahl gewählt werden. Beim mittleren Tele-Zoom hat man bereits weniger Schärfentiefe als im Weitwinkel, so dass die Wahl der Blende nicht immer von Bedeutung ist. Bei schwierigen Lichtverhältnissen wird man sich vermutlich für eine kleine Blendenzahl entscheiden und damit eher auf einen unscharfen Hintergrund setzen.

Perspektiven in der Porträtphotographie[Bearbeiten]

Wie bereits im Grundlagenteil erläutert, gibt es auch für die Porträtphotographie die drei vertikalen Perspektiven Froschperspektive, Zentralperspektive und Vogelperspektive. Meist wird man in der Porträtphotographie auf die Zentralperspektive setzen und die Person damit so darstellen, wie der Betrachter sie im Normalfalle auch sehen wird. Für kleinere Personen müsste dazu jedoch die Vogelperspektive verwendet werden. Es ist jedoch meist vorteilhafter, auf Augenhöhe zu photographieren, also auf die abzubildende Person einzugehen.

Die Froschperspektive bietet sich an, um Personen wichtig und imposant darzustellen. Die Person wirkt damit mächtig und stark, aber auch hochnäsig und eingebildet. Der Betrachter schaut zu der Person auf, sie steht über ihm. In der Malerei wurden Herrscher oft auf diese Weise dargestellt, die Bilder wurden zudem erhöht in Sälen aufgehängt, um den Effekt zu verstärken.

Bei der Vogelperspektive schaut man auf die Person herab, was einen demütigenden Eindruck erzielen kann. Die dargestellte Person ist klein und unterwürfig.

Beleuchtung[Bearbeiten]

In der Porträtphotographie wird die Beleuchtung gerne gezielt gestaltet, mit Leuchten oder Blitzgeräten, da ein aufgehelltes Gesicht freundlicher und ansprechender wirkt. Wichtig ist, dass der Blitz dezent gehalten wird, um Schlagschatten und Reflexionen zu vermeiden. Indirekter Blitz wirkt sich hierbei meist günstiger aus als direkter und ist auch ein sicheres Mittel gegen den unschönen Roten-Augen-Effekt. Mit mehreren positionierbaren Lichtquellen läßt sich der erwünschte Beleuchtungseffekt natürlich einfacher erreichen als mit nur einer.

Für den indirekten Blitz werden gern Reflexflächen eingesetzt. In Innenräumen kann dies gegebenenfalls auch die Zimmerwand sein, im Freien kann man darauf hingegen nicht zurückgreifen. Es gibt verschiedene Arten von Reflexflächen zu erwerben; sie sollten jedoch eine gewisse Größe besitzen, am besten so groß wie der Motivbereich, damit auch genügend Licht von der Fläche auf das Motiv geworfen wird. Gern werden weiße Reflexflächen aus Kunststoff verwendet, die einen nennenswerten Teil des Lichtes absorbieren, aber eine gute Lichtstreuung ermöglichen, eigentlich wird das Licht also nicht gestreut, sondern breit und diffus gestreut, die weiße Fläche wirkt also wie eine entsprechend große Lichtquelle. Der Begriff 'Reflexfläche' ist hier also eigentlich falsch, 'Streufläche' wäre zutreffender.

Reflexflächen aus Silber und Gold besitzen ein hohes Reflexionsvermögen und streuen wenig. Sie zeigen also weitgehend die Beleuchtungscharakteristik der originalen Lichtquelle, sofern sie eben sind, es gibt allerdings auch gebogene Flächen, die wie gekrümmte Spiegel das Licht auf das Motiv fokussieren können oder mit der anderen Krümmung den einfallenden Lichtstrahl aufweiten.

Für interessante Effekte (Spotlicht) kann auch ein Spiegel verwendet werden.

Wer auf einfachere und kostengünstige Streu- oder Reflexflächen zurückgreifen möchte, kann weißes Laken oder weißen Karton verwenden. Beide bieten eine gute Lichtstreuung. Styropor hat ebenfalls eine gute Lichtstreuung, absorbiert aber mehr Licht.

Das Verwenden von Lichtstreifen und Schatten bei Porträtaufnahmen ist ein recht einfaches Mittel für ausgefallene Photos. Dies kann man beispielsweise erreichen, wenn das Motiv vor einem Fenster mit Gitterstäben anordnet, so wie sie sich an alten Gebäuden finden. Im Fachhandel gibt es auch Lichtfilter zu kaufen, mit denen sich solche Schattenmuster erzeugen lassen. In der Natur kann man das Modell unter den Zweigen und Blättern eines Baums platzieren und eventuell einen ähnlich interessanten Effekt hervorrufen.


Untergattungen und Techniken[Bearbeiten]

Kinderphotographie[Bearbeiten]

Darstellung eines Kindes in Zentralperspektive beziehungsweise leichter Froschperspektive.

Die Kinderphotographie ist ein Gebiet der Porträt-Photographie, das sich mit der Abbildung von Kindern befasst und etwas von der klassischen Porträt-Photographie unterscheidet. Während man bei der Porträt-Photographie die abzubildende Person eher in Szene setzt und somit ein gestelltes Photo bezweckt, eignet es sich im Umgang mit Kindern eher, sie in alltäglichen Situationen aufzunehmen, da sie das In-Szene-Setzen wie bei einem Modell oft als lästig und langweilig erachten werden und sich auf diese Weise kaum das gewünschte Resultat erbringen lässt. Zudem können Alltagsaufnahmen oft den Charakter von Kinder deutlich besser in einem Photo ausdrücken als bei gestellten Photos.

Kinder aus der Vogelperspektive zu photographieren, ist oft ungeeignet. In diesem Beispiel ergibt sich jedoch ein durchaus interessantes Photo.

Möchte man authentische, ungestellte Porträtphotos haben, so sollte man für gewöhnlich von einer Stelle photographieren, wo man nicht oder kaum wahrgenommen wird; erfahrungsgemäß verhalten sich Personen vor einer Kamera stets anders als sonst. Das gilt beispielweise auch in der Straßenphotographie. Beim Photographieren von Kindern, insbesondere Kleinkindern, ist dies jedoch oft nicht notwendig, da sie bis zu einem bestimmten Alter die Bedeutung einer Kamera noch nicht vollständig verstehen und sich damit nicht verstellen.

Die meisten Kameras bieten einen Automatik-Modus für Kinder und setzen auf kurze Belichtungszeiten, um spielende oder tobende Kinder scharf abzubilden. Ein Hauptproblem, dessen man sich bewusst sein sollte, ist, dass Kinder deutlich kleiner sind als Erwachsene und bei herkömmlicher Phototechnik auf das Kind „herabphotographiert“ wird (Vogelperspektive). Das Kind erscheint damit (noch) kleiner und unscheinbarer. In der Kinderphotographie ist es daher meist vorteilhaft, aus Höhe des Kindes zu photographieren (Zentralperspektive), was meist eine sitzende oder kniende Haltung erfordert. Interessant ist hierbei auch, Kinder von unten abzubilden (Froschperspektive), was ihnen einen größeren und unabhängigeren Anschein gibt.

Gruppenphotos[Bearbeiten]

Interessante Anordnung von fünf Musikern in einer Zeichnung von 1852.

Ist man bei der klassischen Porträt-Photographie meist nur von einem Modell abhängig, so hat man es bei Gruppenphotos mit vielen Personen zu tun. Entsprechend schwer ist eine geeignete Platzierung der Personen und entsprechend hoch ist die Wahrscheinlichkeit, dass wenigstens eine der abgebildeten Personen zwinkert, nicht in die Kamera blickt oder durch andere Dinge auffällt. Bei Gruppenphotos scheint es daher umso wichtiger, möglichst viele Photos anzufertigen, um später aus einer möglichst großen Auswahl das beste Photo aussuchen zu können.

Bei kleineren Gruppen bietet es sich oft an, diese nicht zu symmetrisch oder formstreng anzuordnen. So kann man sie etwas im Raum verteilen oder sie unterschiedlich darstellen (zum Beispiel sitzend, stehend, kniend etc.). Wichtig ist aber, wie immer, dass das Gesamtbild stimmt und nicht zu chaotisch wirkt.

Bei größeren Gruppen wird man, wie allgemein üblich, die Personen in einer Reihe oder mehreren Reihen anordnen. Große Personen sollten dabei in den hinteren Reihen, kleinere Personen in den vorderen Reihen platziert werden. Die recht strenge Anordnung kann gemindert werden, wenn sich einzelne Personen beispielsweise vor die erste Reihe knien, setzen oder legen.

Profilphotos[Bearbeiten]

Profil einer Frau.

Interessante Aufnahmen sind Profilaufnahmen, bei denen das Motiv von der Seite, also im rechten Winkel, photographiert wird. Auf diese Weise werden Form des Kopfes und Details im Gesicht sichtbar. Bei der Profilphotographie bietet es sich an, einen sehr hellen Hintergrund zu wählen und das Photo leicht unterzubelichten, so dass die Person recht dunkel erscheint (man kann das Bild auch soweit unterbelichten bis die Person fast schwarz erscheint und nur noch die äußeren Konturen sichtbar sind). Für einen hellen Hintergrund bietet es sich an, das Motiv vor einem Fenster oder am Ende eines Tunnels beziehungsweise Durchgangs zu platzieren. Bei Außenaufnahmen ist Gegenlicht ein geeignetes Mittel.

Die im Profil aufgenommene Person guckt nahezu zwangsläufig ins Leere, so kann leicht ein Eindruck geistiger Abwesenheit entstehen, weil das Bild einerseits schon inszeniert wirkt, die Blickrichtung aber keinen Bezug zur Kamera aufweist, was bei vielen anderen inzenierten Porträts meist eine gute Bildwirkung hervorruft, weil sich der spätere Betrachter des Bildes direkt vom Modell angesehen fühlt, so also ein Bezug aufgebaut wird. Guckt die aufgenommene Person bei nicht inzenierten Bildern in irgendeine Richtung, fühlt sich der Betrachter zwar nicht direkt in die Szene einbezogen, aber doch zumindest als unbeteiligter Beobachter. Die strenge Blickrichtung im Profil senkrecht weg vom Betrachter kann dann natürlich gerade den Eindruck einer Distanziertheit des Modells verstärken.


Aktphotographie[Bearbeiten]

Stripes - männlicher Akt

Die Aktphotographie beschäftigt sich mit der Darstellung des menschlichen Körpers, so dass Modell hierbei für gewöhnlich nackt oder nur leicht bekleidet abgebildet werden. Entsprechend kann man zwischen Vollakt (vollständig nackt) und Halbakt (halb bekleidet) unterscheiden. Die Aktphotographie ist ein sehr anspruchsvolles Gebiet der Photographie und soll in dieser Einführung nicht weiter vertieft werden.


Worauf man bei Porträt-Photos achten sollte[Bearbeiten]

Wie im Einführungsteil bereits beschrieben, bedarf es einer ausdrücklichen Zustimmung der abgebildeten Person(en), bereits wenn das Photo aufgenommen wird und zusätzlich, wenn es veröffentlicht werden soll (mündlich oder schriftlich). Dies gilt nicht, wenn die Person Beiwerk ist – in der Porträt-Photographie ist dies aber nicht der Fall, da die abgebildet(en) Personen typischerweise das Hauptmotiv sind.

Bei Personen des öffentlichen Interesses (Prominente) gelten da Ausnahmen. Zur Person des öffentlichen Interesses kann auch werden, wer auf öffentlichen Veranstaltungen auftritt, allerdings dann nur für die Dauer des Auftritts in der Veranstaltung. Auch wer an öffentlichen Veranstaltungen wie Demonstrationen oder Aufzügen teilnimmt, fällt unter eine solche Ausnahme und muß nicht gefragt werden.

Die Ausnahme, dass solche Personen auch ohne Erlaubnis aufgenommen werden dürfen, beziehen sich aber im Grunde nur auf ihr öffentliches Erscheinen. Von daher agieren sogenannte Paparazzi in einer Grauzone - Aufnahmen sind in Ordnung, wenn die Prominente Person öffentlich agiert, nicht in Ordnung, wenn sie klar in ihrem Privatbereich agiert - etwa in der eigenen Wohnung.

Heikel ist eine weitere Ausnahme, die es erlaubt zu photographieren und zu veröffentlichen, wenn dies einem 'höheren Interesse der Kunst dient'. Da nicht festgelegt ist, was ein höheres oder niederes Interesse der Kunst ist, wird dies im Zweifelsfalle in einem Rechtsstreit jeweils einzeln ausgefochten.

Trotz dieser rechtlichen Situation gilt es allgemein als äußerst unhöflich, Personen direkt zu photographieren, vor allem wenn man sie nicht kennt. In diesem Fall ist es immer empfohlen, vor der Aufnahme zu fragen, auch um gegebenenfalls einem Rechtsstreit aus dem Wege zu gehen.


Straßenphotographie[Bearbeiten]

Typische Straßenfotografie - Beliebte Motive sind Fußgängerbereiche in Innenstädten.

Die Straßenphotographie bezeichnet Aufnahmen aus dem öffentlichen, belebten Raum, meist in Städten und meist mit Menschen im Mittelpunkt. Ihr Hauptanliegen ist, jenes öffentliche, alltägliche Leben zu erfassen und in einem Photo festzuhalten. Sie grenzt damit eng an die Architektur- und Porträtphotographie, kann aber keinen dieser Genres direkt zugeordnet werden, da sie ein eigenständiges Genre mit völlig eigener Charakteristik ist.

Straßenphotographie hat meist Menschen im Mittelpunkt. In manchen Fällen, wie oben, werden keine Menschen abgebildet. Das Photo ist trotzdem recht interessant.

In der Straßenphotographie sind ungestellte Photos gewünscht, so dass diese eng an die dokumentarische Photographie grenzt. Der Photograph sollte dabei zur Aufnahme des Bildes einen Standort aufsuchen, an dem er so wenig wie möglich von anderen wahrgenommen wird, da in die Kamera blickende Menschen den ungestellten, spontanen Eindruck sofort trüben würden. Hierfür ist es oft auch sinnvoll, größere Brennweiten zu verwenden, da dann Personen und Menschengruppen groß abgebildet werden können, ohne den Photographen wahrzunehmen. Straßenphotographen setzen daher auch auf kleine Kameras, zum Beispiel Kompakt-Digitalkameras, die mit ihrer geringen Größe heute kaum mehr auffallen.

Die Straßenphotographie kann grundsätzlich Bilder mit Menschen (Fußgängerzone, Straßencafé etc.) zeigen als auch Bilder ohne Menschen (einsame Gasse, verlassener Platz etc.), meist versteht man jedoch Straßenphotographie im ersten Sinne, da ein Photo ohne Menschen oft langweilig erscheint und zudem das Anliegen der Straßenphotographie, den bunten Alltag in Städten festzuhalten, damit kaum erfüllt wird.

Kairo-Zentrum. Zeugnisse der Straßenphotographie wimmeln oft nur von Details. Bis man das gesamte Photo erfasst hat, können Minuten verstreichen.

Beliebte Szenen sind unter anderem Fußgängerzonen, belebte Plätze, Springbrunnen auf Plätzen, Stadtparks an Sommertagen, Blick in Straßencafés, Bushaltestellen etc. Der Alltagscharakter hat höchste Priorität. Die Szene muss alltäglich und völlig ungestellt wirken, die abgebildeten Personen dürfen keine Berühmtheiten sein (etwa wie bei der Photographie von Prominenten durch Paparazzi) oder in irgendeiner Form auffallen (wie etwa bei verschiedenen Porträtaufnahmen, wo zum Teil ausgefallene Kleider und Hüte verwendet werden). Der Betrachter soll den Eindruck bekommen, selbst gerade an einem belebten Ort zu stehen und eine ganz gewöhnliche Szene vorzufinden.

Entsprechend findet ein "In-Szene-Setzen" und eine minutiöse Bildkomposition nicht statt, und Straßenphotos gleichen oft spontan entstandenen Schnappschüssen. Oft ist es aber dennoch sinnvoll, einen interessanten Ort aufzusuchen und sich zumindest kurz über Perspektive, Brennweite und Belichtung Gedanken zu machen; auch kann es manchmal sinnvoll sein, den rechten Augenblick abzuwarten, trotz der allgemeinen Regel, möglichst spontane Aufnahmen zu machen.

Ein Straßenphoto zeigt somit einen Augenblick des Alltags, der in dieser Form nie wieder passieren wird, aber eine gewisse Allgemeingültigkeit besitzt; das Photo zeigt nichts Außergewöhnliches, sondern macht etwas sichtbar, was viele Menschen (und Photographen) in der Hektik unseres modernen Lebens oft gar nicht wahrnehmen.


Makrophotographie[Bearbeiten]

Fliegenpilze (etwa 10cm groß)

Die Makrophotographie (Nahphotographie) ist ein Genre der Photographie, deren Bedeutung vor allem mit dem Boom des Internets und der Digitalkameras weitere Verbreitung fand. Das Internet erleichtert es natürlich enorm, die Bilder mit den oft erstaunlichen Motiven weit zu verbreiten und somit den Bekanntheitsgrad des Genres zu erhöhen. Mit den Digitalkameras wiederum werden die Bildergebnisse recht schnell sichtbar - bei der Makrophotographie mehr noch als bei anderen Genres muss der Photograph oft korrigierend in die Kameraautomatik eingreifen oder Korrekturen und Besonderheiten berücksichtigen, die sich bei starken Vergrößerungen ergeben. Eine sofortige Erfolgskontrolle motiviert zum Experimentieren und gegebenenfalls zur Wiederholung, bis ein optimales Resultat erzielt ist.

Käfer (etwa 1cm groß)

Kompaktkameras mit fest eingebautem Objektiv und kleinem Sensor eignen sich meist nicht besonders für die Makrophotographie, obgleich die Hersteller oftmals gar mit einem Makromodus werben. Dieser Modus arbeitet dann meist einfach mit der kürzesten Brennweite, um kleine Aufnahmeabstände zu ermöglichen. Makroaufnahmen werden allerdings nur selten mit Weitwinkelobjektiven durchgeführt, weil damit zuviel störender Hintergrund sichtbar bleibt. Solche Kameras kann man teilweise noch gewinnbringend für Makroaufnahmen verwenden, wenn man eine zusätzliche (achromatische) Nahlinse vor das Objektiv schraubt, um den gesamten Brennweitenbereich des eingebauten Zoomobjektivs nutzen zu können und selbst zu entscheiden, welcher Aufnahmewinkel sich am besten für das jeweilige Motiv eignet. Solche Nahlinsen ändern ähnlich wie eine Brille die Brennweite und Naheinstellgrenze des Objektivs und gelten meist als Einstiegstechnik in die Makrophotographie.

Hohler Lerchensporn, Details der Blüte in verschiedenen Vergrößerungen (der Bereich des oberen Bildes entspricht in der Breite etwa 1cm)

Für Spiegelreflexkameras oder Systemkameras werden spezielle Makroobjektive angeboten, die eine optimale Abbildungsleistung bieten. Diese lassen sich auch wie normale Objektive einsetzen, erreichen jedoch zumeist eine maximale Vergrößerung von 1, die mit normalen Objektiven ohne Hilfsmittel nicht erreicht werden kann. Sofern kein spezielles Makroobjektiv verwendet wird, können sich die Abbildungseigenschaften für Makroaufnahmen auch verbessern, wenn das Objektiv umgedreht wird, also andersherum an die Kamera montiert wird, dazu gibt es spezielle sogenannte Retroadapter. Auch damit sind stärkere Vergrößerungen erreichbar als mit der normalen Anordnung. Solche Retroadapter eignen sich allerdings nicht für beliebige Brennweiten, am ehesten kommen solche in der Gegend des Normalobjektivs zum Einsatz, also nur vom schwachen Weitwinkel bis zum schwachen Teleobjektiv. Konstruktionsbedingt eignen sich Superweitwinkel schlecht für diese Betriebsart. Lupenobjektive (siehe nächster Absatz) mit teilweise gleicher oder ähnlicher Brennweite sind ganz anders aufgebaut.

Dazu gibt es auch noch Zwischenringe, welche zwischen Objektiv und Kamera gesetzt werden, um stärkere Vergrößerungen zu ermöglichen. Der Fachbegriff lautet dafür, dass eine Auszugsverlängerung vorgenommen wurde. Das Objektiv hat ja immer eine bestimmte Naheinstellgrenze. Durch die Auszugsverlängerung wird der Abstand zwischen Motiv und Objektiv verkleinert, der zwischen Objektiv und Sensor vergrößert. Statt der Zwischenringe bieten sich für starke Vergrößerungen auch Balgengeräte an, mit denen der Auszug stufenlos verändert werden kann. Zusammen mit den Balgengeräten werden oft spezielle Lupenobjektive für starke Vergrößerungen (2- bis 20-fach) verwendet. Canon bietet für das EOS-System auch ein Lupenobjektiv an, welches ohne Balgengerät direkt an der Kamera verwendet werden kann (Vergrößerungen 1- bis 5-fach).

Der Reiz der Makrophotographie liegt einerseits darin, Dinge zu photographieren, die man mit bloßem Auge kaum erkennt und die uns im Alltag sonst weitgehend verborgen bleiben, und andererseits kleine Dinge wie Blumen, Grashalme, Insekten oder Pilze aus einer ungewohnten Perspektive sehr interessant anzuschauen sind. Normalerweise sehen wir auf diese Dinge steil herab, in der Makrophotographie bemüht man sich hingegen oft, sie aus der Zentralperspektive oder gar Froschperspektive zu photographieren, eben einem Winkel, aus denen man die Dinge sonst nicht sieht und der sie damit auch größer erscheinen lässt. Das ist dasselbe Prinzip, das bei der bereits erläuterten Kinderphotographie angewendet wurde.

Die Makrophotographie hat einen engen Bezug zur Naturphotographie, es lassen sich jedoch auch gänzlich andere Objekte photographieren, beispielsweise Münzen, Spielfiguren, Puppen und Marionetten (beziehungsweise Ausschnitte derselbigen) etc.

Typische Motive der Makrophotographie sind eigentlich Blumen, Pilze und Insekten. Hier wurde eine Leiterblatte photographiert, die auch ein interessantes Bild gibt. Die geringe Schärfentiefe ist deutlich zu erkennen.
Durchschlag bei einer Mikrokanalplatte; die kleinen, runden Löcher haben einen Durchmesser von etwa 15 Mikrometern
Übergang zur Mikrophotographie, dieselbe Mikrokanalplatte wie beim vorherigen Bild. Bei dieser Vergrößerung werden bereits trotz offener Blende Beugungseffekte sichtbar, die Schärfe läßt nach.

Wie im Kapitel über den Abbildungsmaßstab bereits beschrieben, werden in der Makrophotographie meist Abbildungsmaßstäbe um 1:1 (nach DIN von 1:10 bis 10:1) erreicht. Anhand des Abbildungsmaßstabes ist also direkt erkennbar, wie groß das abgebildete Objekt relativ zum Sensor der Kamera ist. Geht man vom Kleinbildformat aus, so heißt ein Abbildungsmaßstab von 1:1 eine Bildgröße von 24 mm x 36 mm, gerade groß genug, um ein größeres Insekt (zum Beispiel Hummel oder kleiner Schmetterling) vollständig abzubilden. Bei kleineren Sensoren reichen für formatfüllende Abbildungen dann entsprechend geringere Vergrößerungen aus.

Bei der Makrophotographie gibt es meist nur eine geringe Schärfentiefe. Allerdings sind die abgebildeten Objekte auch klein, trotzdem schrumpft die Schärfentiefe schneller als die Größe des Motivs. Aufgrund von besonders bei großen Abbildungsmaßstäben schnell auftretenden Beugungseffekten lohnt es sich auch nicht, stark abzublenden, denn schnell sorgen die Beugungseffekte für eine gleichmäßige Unschärfe bei starker Abblendung. Zur Vergrößerung und zum Pixelabstand des Sensors läßt sich daher die förderliche Blende berechnen, bei welcher gerade keine Beugungseffekte sichtbar werden, einmal abgesehen von Abbildungsfehlern des Objektivs können also alle Blendenzahlen sinnvoll verwendet werden, die nicht größer als diese förderliche Blende sind.

Im Kapitel über das Photographieren wurde ebenfalls schon beschrieben, dass die Schärfentiefe von Blende und Abstand zwischen Objektiv und Objekt abhängt. Bei den für die Makrophotographie üblichen Abbildungsmaßstäben ist die Schärfentiefe meist recht gering. Auch hinsichtlich des Fokussierens bieten sich teils andere Techniken an, bis zu Vergrößerungen von 1 mag der Autofokus noch gute Dienste leisten. Bei stärkeren Vergrößerungen bietet es sich meist eher an, erst die Vergrößerung nach geschätzter Größe des Motivs einzustellen und sich dann mit dem Objektiv dem Motiv zu nähern, bis es scharf abgebildet wird.

Während bei 'normalen' Motiven meist vom Aufnahmeabstand gesprochen wird, also der Abstand zwischen Motiv und Sensor, ist bei Makroaufnahmen der Arbeitsabstand relevanter, also der Abstand von der Frontlinse zum Motiv. Bei einigen Tieren gibt es etwa eine bestimmte Fluchtdistanz, die nicht unterschritten werden sollte. Oder das Motiv gehört zu einem größeren Objekt wie die Blüte zu einem Strauch und es ist entscheidend, dass man mit dem Objektiv oder sonstigen Ausrüstungsgegenständen nicht gegen Teile des Strauches kommt, die nicht aufgenommen werden.

Die bei Kompaktkameras eingesetzten Objektive können recht außergewöhnliche Konstruktionen sein, um mit kleinen Sensoren Weitwinkelaufnahmen machen zu können - teilweise erlauben sie recht kurze Arbeitsabstände wie nur 1cm, von einigen Herstellern werden sogar 0cm angegeben, was aufgrund der Konstruktion des Objektivs und einer gegebenfalls vorhandenen großen Schärfentiefe durchaus möglich ist, was dann aber auch heißt, dass Staub und Schmutz auf der Frontlinse scharf abgebildet werden können, ein Phänomen, welches man bei Spiegelreflexkameras eigentlich nur von Fischaugenobjektiven kennt, die eine ähnlich kurze Brennweite haben. Ähnlich wie bei den Fischaugenobjektiven lassen sich trotz des so kurzen Arbeitsabstandes keine starken Vergrößerungen erreichen - aber Tiere sind dann meist ohnehin schon geflüchtet und andere Motive sind vielleicht auch schon durch das Objektiv zur Seite geschoben worden. Von daher ist es kein erstrebenswertes Ziel, einen Arbeitsabstand von einem Zentimeter oder weniger zu haben, das ist eher die Domäne der Mikrophotographie oder der Mikroskope, die für solche Abstände optimierte Objektive haben.


Für die Belichtung gibt es unterschiedliche Möglichkeiten. Seitenlicht ist geeignet, um Konturen und Details herauszuarbeiten und Schatten besser sichtbar zu machen, die wiederum für einen räumlichen Eindruck sorgen. Schatten können sich manchmal aber auch als störend erweisen; hier eignet sich dann diffuses Licht, wie man es an wolkigen Tagen oder in geschlossenen Räumen hat (besonders in geschlossenen Räumen der Nordseite).

Die Makrophotographie ist besonders gefährdet für Verwacklung, insbesondere da Blumen im Wind wehen können und Insekten oft nicht vollständig ruhig sind; auch bewirken kleinste Wackler bereits eine große Änderung des Bildausschnitts, genau wie beim Photographieren im Telewinkel. Ein Stativ hilft zumindest, dass man selbst nicht die Kamera verreißt, zudem sind kurze Verschlusszeiten angebracht, falls sich das Motiv oder die Kamera bewegen. Bei einer Vergrößerung von 1 machen sich offenbar bereits Bewegungen von der Größe eines Pixelabstandes des Sensors störend bemerkbar, bei stärkeren Vergrößerungen entsprechend kleinere Bewegungen. Bewegungen in Richtung des Motivs verschieben zudem die Schärfeebene, es wird also nicht mehr scharf dargestellt, was einen eigentlich interessiert. Da die Schärfentiefe oft nur Bruchteile von einem Millimeter beträgt, kann das schnell das zentrale Problem bei einer Aufnahme werden.

Wenn die optimale Empfindlichkeit des Sensors ausgereizt ist, entsteht so trotzdem der Bedarf nach mehr Licht, um kurze Belichtungszeiten und die bereits genannte förderliche Blende einstellen zu können. Zu dem Zwecke, gerne auch für Freihandaufnahmen, werden spezielle Blitzgeräte eingesetzt, die vorne am Objektiv montiert sind. Die Blitzgeräte lassen sich meist geeignet auf das Motiv ausrichten und haben zudem recht kurze Leuchtzeiten, um Verwacklungen zu vermeiden. Die Schärfeebene im richtigen Bereich zu halten, bleibt aber besonders bei Freihandaufnahmen auch da eine Herausforderung.

Bei Kompaktkameras mit fest eingebautem Objektiv und integrierten Blitz hat man indessen oft bereits bei halbwegs nahen Motiven das Problem, dass der Blitz daran vorbeigeht oder aber das Objektiv einen Schatten wirft, besonders bei Arbeitsabständen von 1cm oder weniger ist das unvermeidbar. Eine Bastlerlösung ist hier eine improvisierte 'Lichttülle', die am Blitz montiert wird und das Blitzlicht um das Objektiv herum bis vorne zum Motiv lenkt.

Die Makrophotographie ist eines der wenigen Genres, das sich nicht direkt an einem bestimmten Thema beziehungsweise thematischen Richtung orientiert (wie Straßenphotographie, Landschaftsphotographie, Porträtphotographie etc.). Sie grenzt damit an viele andere Genres, zum Beispiel Naturphotographie, Tierphotographie und Sachphotographie sowie ferner auch Mikrophotographie und Reprophotographie. Die Mikrophotographie verwendet noch kleinere Abbildungsmaßstäbe und zeigt damit Dinge, die mit bloßem Auge definitiv nicht mehr erkennbar sind. Das Auffinden von Motiven kann bei der Mikrophotographie also mit mehr Aufwand verbunden sein - etwa Recherche in anderen Quellen oder aber auch eigene Makroaufnahmen mit geringerer Vergrößerung, welche interessante Details bereits erahnen lassen.

Gute (Licht-)Mikroskope können meist ebenfalls so ausgebaut werden, dass sie sich zur Photographie eignen, damit ist es dann leichter möglich, mit qualitativ guten Bildern bis zur Auflösungsgrenze von optischen Abbildungen mit sichtbarem Licht zu gelangen. Diese Grenze liegt ungefähr bei der halben Wellenlänge des verwendete Lichtes, also etwa 0.25 Mikrometer, woran sich erkennen läßt, dass dieser Bereich Kameras mit ihren Pixelabständen von typisch 2 bis 10 Mikrometern durchaus zugänglich ist. Optik, Stabilität des Aufbaus und Beleuchtung sind beim Mikroskop aber zumeist deutlich besser ausgelegt als bei einer Kamera mit ihrem Zubehör, so dass es bei letzterer trotz rechnerisch erreichter passender Vergrößerung zumeist nicht reicht, so kleine Strukturen wirklich aufzulösen. Die Auflösung wird dann nicht mehr durch die Pixelabstände des Sensors gegeben, sondern durch die verwendete Optik oder durch Beugung.

Weitere ausgewählte Genres[Bearbeiten]

Abstrakte Photographie[Bearbeiten]

Abstrakte Photographie durch Farben. Für die Aufnahme wurde Kunstlicht verwendet.

Abstrakte Photographie ist ein recht spezielles photographisches Genre, das unter Hobbyphotographen leider nur wenig Aufmerksamkeit erhält. Anders als in der gegenständlichen Photographie, wo meist ein bestimmtes Objekt Motiv des Photos ist, zeichnen sich abstrakte Photos allein durch Muster, Formen, Strukturen und Farben aus. Diese haben meist einen eindrucksvollen, zum Teil mystischen oder verwirrenden Charakter. In vielen Fällen sieht man erst auf den zweiten Blick, was der Photograph eigentlich photographiert hat, in manchen Fällen kann man es auch gar nicht erkennen. Das ist genau das Ziel der abstrakten Photographie – es geht nicht um das, was aufgenommen wurde, sondern rein um die Wirkung von Strukturen, Linien und Farben; das ursprünglich Photographierte tritt in den Hintergrund, es wird soweit "abstrahiert", bis man nicht mehr erkennt, was abgebildet ist. Somit sieht letztlich auch jeder etwas anderes in der Komposition, und das ist möglicherweise einer der Gründe, warum abstrakte Photographie (und abstrakte Kunst im weiteren Sinne) bei Betrachtern höchst unterschiedlich wirkt und Gefallen findet.

Zweig einer Lärche (Mikroaufnahme).

Abstrakte Photographie ist in vielen Fällen Makrophotographie, jedoch bei weitem nicht in allen Fällen. Das Gewebe eines Teppichs, die Struktur eines Grashalms, die Schale einer Orange oder die Oberfläche einer Holzplatte – man kann durch Makroaufnahmen oftmals bemerkenswerte abstrakte Aufnahmen bekommen, am Ende geht es aber meist darum, möglichst viel auszuprobieren und genau zu beurteilen, ob ein interessantes Ergebnis zustande gekommen ist oder nicht. Hierfür bietet es sich an, das Bild am Rechner zu beurteilen und gegebenenfalls nachzubearbeiten - auf einem kleinen Kamerabildschirm kann ein eigentlich gelungenes abstraktes Photo völlig uninteressant wirken und umgekehrt.

Abstrakte Aufnahmen können manchmal auch bei bestimmten Lichtverhältnissen entstehen. Wenn man in einem kahlen Winterwald das Bild stark überbelichtet, wird man mit etwas Geschick eine Art Geisterwald als Ergebnis bekommen (nur noch die Stämme und Zweige sind sichtbar). Solche Aufnahmen nennt man dann auch semiabstrakt, das heißt, das Bild befindet sich zwischen abstrakt (der photographierte Gegenstand ist nicht mehr erkennbar beziehungsweise hat keine Bedeutung in dem Photo) und gegenständlicher Photographie (es geht rein um das abgebildete Motiv). Semiabstrakte Aufnahmen sind auch Aufnahmen bei starkem Gegenlicht, bei dem nur noch die Konturen des Motivs (zum Beispiel Bauwerk) sichtbar werden.

Manchmal lohnt es sich für abstrakte Aufnahmen auch, verschiedene Objekte stark heranzoomen, zum Beispiel einen blühenden Kirchbaum, die Wasseroberfläche eines Sees, Wolken oder der Himmel in der Dämmerung - hier können ebenfalls interessante Muster, Formen und Farbspiele abgebildet werden. Voraussetzung ist ein starkes Teleobjektiv, das mindestens 300 mm Brennweite (Super-Telewinkel) ermöglichen sollte. Wie die unten abgebildeten Photos zeigen, lassen sich gerade auch mit Wasser vielen abstrakte Aufnahmen zaubern. Solche Aufnahmen fordern jedoch einiges an photographischem Geschick.


Stillleben[Bearbeiten]

Typisches Stillleben.

Stillleben bezeichnet die bewusste Auswahl und Anordnung von Gegenständen zu einer Komposition. Die Gegenstände sind dabei unbelebt und meist von kleinem Ausmaß; oft sind es typische Alltagsgegenstände. Beliebt sind vor vor allem Obst, Blumen, Schreibtischgegenstände (zum Beispiel Stifte, Scheren, Locher etc.), Geschirr und Besteck, Schachteln und Dosen und Vieles mehr. Das Besondere am Stillleben ist, dass man als Photograph volle Kontrolle über Komposition und Belichtung hat, so dass Stillleben auch für Einsteiger gut geeignet sind.

Stillleben aus Schreibtisch- und Alltagsgegenständen.

Beim Erstellen eines Stilllebens geht es im Grunde zunächst darum, einzelne ausgewählte Gegenstände schrittweise zu einer interessanten Komposition zusammenzustellen - anders als bei den meisten anderen Genre hat der Photographie hierbei völlige Freiheit. Zudem sollte darauf geachtet werden, dass Hintergrund und Untergrund entsprechend passen. Für viele Stillleben eignen sich Holztische beziehungsweise Holzplatten als Untergrund, der Hintergrund solle möglichst monoton sein (oft bietet sich ein dunkler Hintergrund besser an als ein heller).

Neben der Komposition spielt die Belichtung von Stillleben eine wichtige Rolle und ermöglicht dem Einsteiger somit, verschiedene Arten der Belichtung auszuprobieren. Vor allem die Wahl zwischen harten und weichen Licht sowie die Position der Lichtquelle spielen eine wichtige Rolle und können das Stillleben auf unterschiedlichste Art erscheinen lassen. Starkes und hartes Licht lässt Gegenstände dabei leichter erscheinen und Farbwirkung schwächen, dezentes und weiches Licht lässt die Gegenstände hingegen schwerer und massiver wirken, die Farben erscheinen kräftiger.

Da man bei der Stilllebenphotographie manchmal schon nah an die Makrophotographie herankommt und das gesamte Stillleben möglichst scharf erscheinen sollte, ist die Wahl einer großen Blendezahl wichtig. Die Brennweite sollte, wie häufig in der Sachphotographie, im unteren bis mittleren Telewinkel liegen, also etwa zwischen 80 und 200 mm.

Wie so oft auch, bietet es sich bei Stillleben an, mehrere Photos aufzunehmen und kleine Details immer wieder zu ändern. Man kann dann später aus einer Auswahl von Photos jene aussuchen, die am besten gelungen sind.

Astrophotographie[Bearbeiten]

Sonnenfinsternis - Sonne und Mond haben offenbar von der Erde aus gesehen die gleiche scheinbare Größe.
Die aufgehende Erde, aufgenommen während der Mondumkreisung von Apollo 8 im Jahr 1968. Unten ist der Mond zu sehen. Ein Beispiel, für welches eine deutlich aufwendigere Ausrüstung, insbesondere ein Raumschiff, notwendig war.
Halbmond. Aufgrund des Seitenlichtes gibt es einen hohen Kontrast und Krater und Hügel sind gut zu erkennen.
Andromeda Galaxie - ultraviolettes Licht, Falschfarbendarstellung. Da die Galaxie relativ nahe zur Milchstraße gelegen ist und als Galaxie natürlich recht groß und hell ist, kann man sie auch mit bloßem Auge sehen. Sie ist also durchaus ein mögliches Photomotiv für den Hobby-Astronomen.
Sonne, Falschfarbendarstellung.

Bei der Astrophotographie ist zumeist besondere Ausrüstung erforderlich, um akzeptable Aufnahmen zu erzielen, also Objekte formatfüllend abzubilden.

Sonne und Mond sind mit einer scheinbaren Größe von 0.5 Grad offenbar die größten und damit einfachsten Motive. Andere Objekte sind kleiner, entsprechend vergrößert sich die erforderliche Brennweite.

Mit der Brennweite f, der Höhe des Bildsensors h und dem Bildwinkel = 2 arctan(h/(2f)) berechnet man schnell, dass man für das Kleinbildformat eine Brennweite von etwa 2.7 Metern braucht, um diese Himmelskörper formatfüllend abzubilden, brauchbare Ergebnisse mag man bereits ab einer Brennweite von 400 mm erzielen. Aufgrund von Wetterbedingungen und Bewegungen der Atmosphäre (auch englisch: Seeing) erzielt man allerdings mit einer Brennweite von 2.7 Metern nicht zwangsläufig eine bessere Auflösung von Details als mit einer Brennweite von etwa der Hälfte.

Es kann sich hier also durchaus lohnen, sich ein Teleskop oder ein Fernrohr anzuschaffen, an welches man mit Adaptern eine Kamera mit Möglichkeit zum Wechseln des Objektivs montieren kann. Ähnlich wie bei der Mikrophotographie mit einem Mikroskop kann man zwar mit Kompaktkameras prinzipiell auch durch das Okular Aufnahmen machen, da die Optik für diese Anwendung aber nicht optimiert ist, sind die Ergebnisse zumeist suboptimal.

Werden die Objekte nicht annähernd formatfüllend aufgenommen, ist auf eine geeignete Wahl der Belichtungsmessung beziehungsweise auf eine geeignete Belichtungskorrektur zu achten.

Da die Motive der Astrophotographie allerdings immer weit weg sind, kann praktisch immer mit offener Blende gearbeitet werden - oder eben mit Teleskopen und Fernrohren, die gar keine Blendeneinstellmöglichkeit haben. Hinsichtlich der Schärfeeinstellung gibt es hier spezielle Hilfsmittel (Scheinerblende).

Bei längeren Belichtungszeiten kann es allerdings erforderlich sein, beim Stativ die Bewegung der Erde zu kompensieren, wofür es bei Teleskopen bereits fertige Einrichtungen gibt. Allerdings ergeben sich bei Langzeitbelichtungen auch interessante Effekte, wenn der Nachthimmel mit einem Weitwinkel oder Fischauge aufgenommen wird, die Erddrehung ist dann direkt als scheinbare Bahn der Sterne als Teilkreise auf dem Bild erkennbar (Strichspuraufnahme).

Als Faustformel für Aufnahmen in mittleren Breitengraden ergibt sich für die maximale Belichtungszeit, bei der Spuren auf beim Anblick des gesamten Bildes noch keine Rollen spielen: t/s = 420 mm / Brennweite. Bei einer Brennweite von 420 mm sollte man also maximal eine Sekunde belichten, wenn man keine Spuren sehen will. Für eine genauere Analyse muß allerdings immer der Pixelabstand des Sensors, die Position und Ausrichtung der Kamera berücksichtigt werden.

Bei Aufnahmen vom Mond eignet sich besonders Seitenlicht, also Aufnahmen bei Halbmond, so treten Krater und Berge durch Schattenbildung plastischer hervor als bei Vollmond, wo nur unterschiedliche Farben wirken, der Kontrast eher gering ist.

Bei Aufnahmen von der Sonne kann es interessant sein, mit speziellen Filtern nur bestimmte Bereiche des Spektrums aufzunehmen. Normalerweise sind in den üblichen Kameras bereits Filter eingebaut, um das zur Aufnahme beitragende Licht auf den sichtbaren Bereich zu begrenzen. Es gibt allerdings auch spezielle Kameras für solche (wissenschaftliche) Zwecke, bei denen diese Filter nicht eingebaut worden sind. Damit sind dann auch Aufnahmen im Infrarot-Bereich oder im Ultraviolett-Bereich sinnvoll und möglich.


Aufnahmen, bei denen Mond oder Sonne nur Teil des Motivs sind - etwa zwischen Wolken oder Bäumen, Bergen etc, wird man übrigens eher zur Landschaftsphotographie zählen, nicht zur Astrophotographie.

Digitale Bildbearbeitung[Bearbeiten]

Vorbetrachtung[Bearbeiten]

Einleitung[Bearbeiten]

Die digitale Bildbearbeitung bezeichnet das nachträgliche Verändern eines digital vorliegenden Photos mit Programmen. Dieses kann sowohl mit einer Digitalkamera als auch einer Analogkamera aufgenommen worden sein - im letzten Fall muss das Photo jedoch vor der Bearbeitung noch digitalisiert werden, beispielsweise mit einem Abtaster (englisch: scanner).

Für die Bildbearbeitung am Rechner gibt es eine Vielzahl von Programmen, die hierfür ausgelegt sind. Man kann Photos zwar auch mit einfachen Mal- und Zeichenprogrammen bearbeiten, für anspruchsvolle Nachbearbeitung empfehlen sich jedoch spezielle Bildbearbeitungsprogramme. Auf dem Markt existieren viele proprietäre Lösungen und einige freie Programme.

Adobe Photoshop ist möglicherweise eines der bekanntesten kostenpflichtigen Programmen und bietet einen relativ hohen Leistungsumfang. Zu den kostenfreien Programm gehört das Quelltext-offene Projekt Gimp, das sich einem ebenso großen Ruf erfreut und ebenfalls einen beachtlichen Funktionsumfang besitzt. Anders als Adobe Photoshop ist es praktisch für alle gängigen Betriebssysteme verfügbar, auch weil es dessen Lizenz erlaubt, es für jedes Betriebssystem zu kompilieren.

Für die Verarbeitung von Rohdatenformaten bieten die meisten Kamerahersteller eigene Programme an. Für gängige Rohdatenformate gibt es allerdings sowohl kostenflichtige als auch kostenlose Programme, die in der Lage sind, solche Formate zu dekodieren und nachzubearbeiten oder in Standardformate zu konvertieren. Zu den kostenlosen und Quelltext-offenen Projekten gehören etwa DCRaw, UFRaw, RawTherapee und Rawstudio.

In diesem Abschnitt sollen einige Möglichkeiten der digitalen Bildbearbeitung vorgestellt werden. Das Ziel ist dabei immer, ein Photo subjektiv aufzuwerten, das heißt es nach eigenen Gesichtspunkten zu optimieren. So können Belichtungsfehler bis zu einem bestimmten Grad korrigiert, Kratzer entfernt und Farbtöne angepasst werden.

Das Buch soll so allgemein wie möglich gehalten werden und sich daher im Grunde nicht auf ein bestimmtes Bildbearbeitungsprogramm beziehen. Als Referenz soll an dieser Stelle dennoch Gimp verwendet werden, da dieses Programm kostenlos zur Verfügung steht und damit gewährt ist, dass jeder die hier vorgestellten Methoden ausprobieren kann. Je nach Konfiguration und Installation kann Gimp auch dazu veranlaßt werden, Bilder in Rohdatenformaten bei Aufruf zunächst an ein Programm wie UFRaw etc zu senden, welches die Daten aufbereitet und das Ergebnis dann zur Weiterverarbeitung direkt an Gimp zurückgibt. Sofern mit Rohdatenformaten gearbeitet wird, empfiehlt es sich, die möglichen Nachbearbeitungsschritte mit dem Rohdatenprogramm durchzuführen, bevor das Bild an Gimp oder ein anderes Programm weitergereicht wird, so ist es möglich, bei der Nachbearbeitung die maximal verfügbare Information zu verwerten, also die besten Resultate zu erzielen.

Die mit Gimp verwendeten Methoden und Werkzeuge stehen in den meisten anderen Bearbeitungsprogrammen ebenso zur Verfügung, oft sogar unter derselben Bezeichnung, von daher bedeutet die folgende Kurzdarstellung keine inhaltliche Einschränkung des Themas durch das als Beispiel genannte Programm.


Nachbearbeitung – Betrug?[Bearbeiten]

Panorama als Ergebnis einer Photomontage
Ein Engel als Ergebnis einer Photomontage
Ein oder zwei Vögel?
Melone oder Pampelmuse?

Es sei an dieser Stelle erwähnt, dass es einige wenige Menschen gibt, die die digitale Nachbearbeitung ablehnen und diese gar als "Betrug" ansehen. In der Tat wird hier das Bild nachträglich geändert; es wird bewusst in das "Abbild der Realität" eingegriffen, die Bilder werden anders als aufgenommen dargestellt und damit gewissermaßen verfälscht.

Entfernt man ein paar Lichtstreifen, so beseitigt man womöglich nur technisch bedingte Artefakte und kommt sogar wieder näher an das reale Abbild heran – man kann aber ein Photo mittels digitaler Bildbearbeitung auch vollständig verändern, bis rein gar nichts mehr an die ursprüngliche Aufnahme erinnert. Weit bekannt ist dieser Effekt bei den Portraits auf den farbigen Frontseiten zahlreicher Zeitschriften - die Darstellung erinnert oft mehr an ein rein mit dem Rechner erstelltes Bild als an eine Photographie.

Ob man seine Photos nachbearbeitet oder nicht, ist letztlich eine ganz individuelle Entscheidung. An dieser Stelle sollten aber vielleicht einige Gründe genannt werden, die für die digitale Nachbearbeitung sprechen beziehungsweise sie rechtfertigen:

  • Selbst die einfachsten Digitalkameras sind heute bereits mit Programmen ausgestattet, die unmittelbar nach der Aufnahme zumindest das abgespeicherte JPEG-Bild nachbearbeiten, das heißt optimieren. Das fertige JPEG-Bild ist also ohnehin bereits durch eine Kette von Bearbeitungsalgorithmen gegangen.
  • Bilder im Rohdatenformat sind praktisch immer nachzubearbeiten oder in andere Formate zu konvertieren, um sie allgemein anschaubar zu machen.
  • Für eine Veröffentlichung im Internet sind die hochauflösenden Originalbilder der Kamera meist zu groß, sie müssen also verkleinert und für diesen Zweck optimiert werden.
  • In der Analogphotographie wurde genauso nachbearbeitet wie in der Digitalphotographie. Beim Entwickeln der Photos gibt es eine Vielzahl von Methoden, um zum Beispiel Farben anzupassen, den Kontrast zu erhöhen etc. Bei den meisten Entwicklungsverfahren werden ebenfalls Bearbeitungsprogramme eingesetzt, auf die der Kunde keinerlei Einfluss hat und damit ein mehr oder weniger optimiertes Bild erhält - oder welche die eigenen Bemühungen der Belichtungskorrektur beim Papierabzug wieder zunichte machen.
  • Photographie ist Teil der Bildenden Kunst, ein Photo muss damit nicht zwangsweise ein realistisches Abbild wiedergeben. Der Künstler kann alle erdenklichen Mittel und Methoden verwenden, um seine Werke zu gestalten. Es zählt letztlich immer das Resultat, nicht auf welche Art es geschaffen wurde. Bei gezielt verfremdender Manipulation sollte nur nicht der Eindruck erweckt oder impliziert werden, es handele sich im eigentlichen Sinne um eine Photographie.
  • Nachbearbeitung wird in fast allen Fällen ein besseres Resultat bringen, wenn sie sinnvoll und dezent eingesetzt wird. Vor allem einfache Kameras werden kaum "ideale" Bilder hervorbringen (zum Beispiel mit Hinblick auf Schärfe und Kontrast), egal wie gut Belichtung und Fokus eingestellt wurden.

Bedenklich ist also meist nicht die Nachbearbeitung selbst. Der Vorwurf gezielter Manipulation geht gegebenenfalls eher davon aus, dass bei einem gezielt verfremdeten Bild suggeriert wird, es handele sich um ein realistisches Photo. Das Problem kann sich auch aus der Erwartungshaltung des Publikums ergeben, selbst wenn der Autor des Bildes keinesfalle behauptet hat, es handele sich um ein realistisches Photo. Es kann also aus dem Umfeld der Veröffentlichung oder bereits durch den Inhalt des Bildes eine gewisse Erwartungshaltung impliziert werden. Es ist etwa problemlos möglich, Photomontagen zu realisieren, die Motive zusammenbringen, die so bei der Aufnahme nie zusammengewesen sind. Bei Portraits können Pickel, Bartstoppeln retouchiert werden, Bauch und ganze Körperproportionen 'optimiert' werden. So kann ein Eindruck von den dargestellten Motiven erzeugt werden, welcher überhaupt nicht der Situation bei der oder den Aufnahmen entsprochen hat. Der Betrachter wird damit also gezielt in die Irre geführt, sofern dieser annimmmt, daß es sich um ein realistisches Photo handelt und nicht um ein rein kreatives Kunstwerk des jeweiligen Autoren.

Im Grenzbereich liegen hier Methoden, bei denen unterschiedlich belichtete Aufnahmen desselben Motivs aufgenommen werden, um entweder den Dynamikbereich des Bildes zu erhöhen, um bei konstrastreichen Motiven mehr Details im Hellen und Dunklen sichtbar zu machen - dies kann auch als Korrektur der eingeschränkten Möglichkeiten von Kameras und Monitoren angesehen werden. In anderen Fällen werden ähnliche Kombinationen auch verwendet, um störendes Beiwerk wegzumitteln, also etwa vor einem Bauwerk vorbeigehende Personen oder auch Automobile auf der Straße. Da dieses Beiwerk nichts mit dem eigentliche Motiv zu tun hat, es aber in der Praxis kaum oder nur mit großem Aufwand zu entfernen ist, ist mit solch einer Mittelung noch nicht unbedingt der Sachverhalt eine Manipulation gegeben, die den Betrachter irreführen wird.

Häufig werden auch stürzende Linien durch nachträgliche Verzerrungen des Bildes kompensiert. Zu beachten ist dabei, dass das ursprüngliche Bild tatsächlich realistischer ist. Die nachträgliche 'Korrektur' simuliert nur in gewissen Umfange, was Auge und Hirn bei gleicher Beobachtungsposition kompensieren würden. Das korrekte Vorgehen wäre eigentlich, die Kamera nicht zu verkippen, bei höheren Gebäuden also etwa einen höheren Standort in der Mitte des Gebäudes einzunehmen oder ein Spezialobjektiv zu verwenden. Die 'Perspektivkorrektur' der Nachbearbeitung leistet keinesfalls das Gleiche, täuscht durch die nachträgliche Verzerrung nur einen anderen Seheindruck vor.

Bei einem anderen, sehr beliebten Verfahren wird eine Bilderserie mit gleichem Motiv, aber systematisch durchvariierter Schärfeebene aufgenommen. Diese Bilderserie wird dann zu einem Bild verrechnet, welches das Motiv von vorne bis hinten scharf darstellt. Mit dieser Manipulation werden also Einschränkungen umgangen, die sich durch die Photographie mit Linsenkameras selbst ergeben, das Motiv selbst wird in dem Sinne eher 'realistischer' dargestellt als es mit einem Photo möglich wäre. Nur handelt es sich bei dem Ergebnis solch einer Verrechnung im eigentlichen Sinne eben nicht mehr um ein Photo, sondern um eine besondere Art der Abbildung des Motivs, die man als 'hyperrealistisch' bezeichnen könnte. Sofern bei der Betrachtung also davon ausgegangen wird, es handele sich um ein Photo, ist die Nachbearbeitung sicherlich manipulatitv. Hinsichtlich des eigentlichen Motivs ist sie es nicht notwendig.

Vor dem Nachbearbeiten...[Bearbeiten]

Bevor Bilder nachbearbeitet werden, müssen sie natürlich auf den Rechner übertragen werden und ein entsprechendes Bildbearbeitungsprogramm muss installiert sein. Es sollte zunächst für jedes Bild kurz geprüft werden, ob eine Nachbearbeitung sinnvoll ist. In den meisten Fällen kann man aber jedes Photo durch geeignete Nachbearbeitung aufwerten. Zudem hat man bei der Nachbearbeitung höchste kreative Freiheit und kann Photos auch probeweise nachbearbeiten – ist das Ergebnis nicht zufriedenstellend, verwirft man die Änderungen.

Hinweis: Es ist empfehlenswert, mit Kopien zu arbeiten, das heißt das Originalphoto nicht anzurühren. Bei längeren Bearbeitungen empfiehlt es sich nämlich, das bearbeitete Bild hin und wieder zwischenzuspeichern, um bei einem eventuellen Absturz des Programms oder Rechners einen möglichst geringen Arbeitsverlust zu haben. Bei diesem Zwischenspeichern wird das ursprüngliche Photo aber überschrieben und kann nicht wiederhergestellt werden (die Zahl der Schritte, die rückgängig gemacht werden können, ist im Allgemeinen begrenzt). Von daher kann es sich natürlich auch lohnen, verschiedene Stadien oder Varianten der Nachbearbeitung unter anderem Namen zu speichern. Gimp bietet etwa auch ein eigenes Format, bei welchem Ebenen der Bildbearbeitung erhalten bleiben, also auch nach dem Speichern später weiter unabhängig voneinander weiterbearbeitet werden können, anders als dies etwa beim Speichern als JPEG möglich wäre.


Auswahl[Bearbeiten]

Einleitung[Bearbeiten]

Einige Werkzeuge haben Auswirkungen auf das gesamte Bild, zum Beispiel wird die Erhöhung des Kontrastes das gesamte Bild ändern. In vielen Fällen möchte man aber eine Änderung nicht auf das gesamte Bild anwenden, sondern nur auf einen bestimmten Teil. So soll beispielsweise nur der Himmel dunkler gemacht oder die Farbe eines Hauses im Hintergrund geändert werden. Hierzu ist es notwendig, den entsprechenden Teil des Bildes auszuwählen, so dass sich alle Änderungen nur auf diesen Bereich beziehen und der Rest des Bildes unberührt bleibt.

Insbesondere kann solch eine Auswahl auch in eine eigene Ebene kopiert werden, um sie getrennt vom Rest zu behandeln und aufzubewahren.

Werkzeuge[Bearbeiten]

Das einfachste und bekannteste Werkzeug ist die rechteckige Auswahl. Hierbei kann man ein Rechteck beliebiger Größe ziehen, in der dann sämtliche Änderungen stattfinden. Das Werkzeug ist einfach, in vielen Fällen ist es aber zu ungenau. Möchte man den gesamten Himmel möglichst genau auswählen, wird ein Rechteck womöglich nicht ausreichen. Auch die elliptische Auswahl, die eine Ellipse statt eines Rechtecks als Auswahl ermöglicht, wird nur selten in Frage kommen.

Viel interessanter ist dabei die freie Auswahl, wo der Benutzer ein Polygon (n-Eck) beliebiger Größe und beliebiger Gestalt erstellen kann. Auf diese Weise kann im Grunde jede beliebige Auswahl erstellt werden - ob Himmel, Gebäude, Person oder Baum - alles lässt sich mit dem Werkzeug umrahmen. Je genauer die Auswahl sein soll, umso mehr einzelne Punkte muss man erstellen und umso zeitintensiver und aufwendiger kann es sein, die gewünschte Auswahl zu erhalten. Bei einer kleinen Auswahl bietet es sich daher an, in das Bild hineinzuzoomen, um die Auswahl präziser festlegen zu können.

Die Auswahlwerkzeuge befinden sich in der obersten Reihe des Werkzeugkastens von Gimp. Eine weitere Möglichkeit, eine Auswahl zu treffen, ist der Zauberstab. Dieser wählt einen zusammenhängenden Bereich ähnlicher Farbe aus. Das würde beispielsweise im Fall des Himmels geeignet sein, wenn dieser aus ähnlichen Farben besteht. Das Werkzeug bietet sich vor allem an, wenn dieser farbliche Bereich von einer anderen Farbe umgeben ist und sich daher gut von der Umgebung abgrenzt (zum Beispiel ein rotes Haus auf einer grünen Wiesen). Andernfalls kann es passieren, dass das Programm nicht den gewünschten Ausschnitt erstellt. Der Schwellwert gibt dabei auf einer Skala von 0 bis 255 die Empfindlichkeit des Zauberstabs an und sollte nach oben oder unten geändert werden, falls das Werkzeug nicht die gewünschte Fläche auswählt.

Sehr ähnlich arbeitet in Gimp auch das Werkzeug "Nach Farbe auswählen", das jedoch ähnliche Farben im gesamten Bild auswählt, während der Zauberstab zusammenhängende Flächen auswählt.


Inverse Auswahl[Bearbeiten]

Manchmal kommt es auch vor, dass man alles in einem Bild ändern möchte außer einem bestimmten Bereich. Zum Beispiel möchte man ein Bild dunkler machen, außer ein Gebäude im Hintergrund, dessen Helligkeit nicht geändert werden soll. Hierfür eignet sich die inverse Auswahl. Wie der Name schon vermuten lässt, erstellt man hier eine Auswahl wie im vorangegangenen Abschnitt erläutert, ausgewählt wird dann jedoch alles außer dieser Auswahl (das heißt der Rest vom Bild).

In Gimp wird hierfür eine Auswahl getroffen (wie oben beschrieben) und dann STRG + I gedrückt (oder alternativ Auswahl - Invertieren). Es wird dann alles ausgewählt außer die ursprünglich getroffene Auswahl.


Äußere Gestaltung[Bearbeiten]

Beschneiden[Bearbeiten]

Unter dem Beschneiden versteht man das Reduzieren der Breite und/oder Höhe des Bildes - der Bildausschnitt wird also geringer, ebenso seine Abmessung und seine Pixelzahl. In Gimp kann man hierfür beispielsweise einen Bereich auswählen und über Bild – Auf Auswahl zuschneiden das Bild auf den ausgewählten Bereich zuschneiden.

Es gibt verschiedene Gründe, warum das Beschneiden von Photos sinnvoll sein kann. Der wohl häufigste Grund ist, dass sich am Rand des Photos störende Elemente befinden, zum Beispiel eine ins Bild hineinragende Hausmauer oder eine ins Bild laufende Person. Sind diese Elemente störend und nicht Teil der eigentlich geplanten Komposition, so kann Beschneiden sie eliminieren, jedoch nur, wenn sie sich nahe dem Rand befinden (ein störendes Element in der Bildmitte wird man durch Beschneiden nicht entfernen können).

Ein weiterer Grund besteht, wenn man das Format ändern möchte. Schneidet man nur obere und untere Teile des Bildes ab, wird das Bildformat breiter. So lassen sich Photos beispielsweise von 4:3 nach 16:9 umformen. Dabei geht natürlich einiges des ursprünglichen Bildes verloren. Beschneidet man das Bild nur an den Seiten, wird das Format schmaler. Man kann somit beispielsweise auch quadratische Bilder erzeugen.

Verfügt das Bild über einen langweiligen Vordergrund (zum Beispiel eine leere, eintönige Wiese), so kann es sinnvoll sein, einen Teil des Vordergrundes abzuschneiden und damit den Fokus eher auf den Hintergrund zu lenken. Analog dazu kann es auch sein, dass ein Photo zu viel monotonen (und damit nicht sonderlich interessanten) Himmel hat. Hier kann man dann etwas vom Himmel wegschneiden. Auf diese Weise lässt sich der Horizont auch im oberen oder unteren Bilddrittel anordnen, falls man daran bei der Aufnahme nicht gedacht hat oder dies aufgrund der Vermeidung von stürzenden Linien bei Kameraneigung ausgeschlossen war.

Das Beschneiden eines Photos kann auch benutzt werden, um es zu vergrößern; das gleichmäßige Beschneiden ist nichts anderes als digitales Zoomen. Beschneidet man das Photo horizontal und vertikal genau um die Hälfte (50 %), sinkt die Pixelzahl auf 25 % und der Aufnahmewinkel halbiert sich. Sofern man den Ausschnitt mittig wählt, entspricht das dann 2-fach digitalem Zoom. Wählt man den Ausschnitt nicht mittig, reicht die Nachbearbeitung meist bereits über das hinaus, was die Kamera mit dem digitalten Zoom zu bieten vermag. Hat das Photo also beispielsweise eine Pixelzahl von 12 MP und einen Aufnahmewinkel von 70° (Weitwinkel), so hätte das neue Bild eine Pixelzahl von 3 MP und einen Aufnahmewinkel von 35° (leichter Telewinkel).

Wird die Beschneidung gleich zum Bildverhältnis durchgeführt, so ändert sich das Bildformat nicht. Wenn das Bild X Einheiten breit und Y Einheiten hoch ist, so hat es ein Format f = X:Y. Beschneidet man das Bild nun horizontal um A Einheiten, so muss es vertikal um A/f Einheiten beschnitten werden, wenn das Bildformat beibehalten werden soll. Wird es vertikal um A Einheiten beschnitten, muss es in der Breite um A*f Einheiten beschnitten werden, um den gleichen Effekt zu erzielen. Kommt es nicht genau auf ein bestimmtes Format an (was meist der Fall ist), so kann man die Beschneidung auch intuitiv vornehmen und muss nicht nach den Formeln arbeiten. Bei einem Photo im Querformat sollte man sich dabei merken, dass man etwas mehr von der Breite beschneiden muss als von der Länge, um das Format einigermaßen beizubehalten.

Gimp bietet für das Beschneiden auch die Option, das Format oder Aspektverhältnis vorher festzulegen. So erübrigt sich die Rechnerei und man kann sich darauf konzentrieren, den Ausschnitt so aufzuziehen und zu postionieren, wie es für das Motiv optimal ist.

Folgende Eigenschaften bringt das Beschneiden also mit sich:

  • Die Abmaße des Photos werden beim Beschneiden stets reduziert und damit seine Pixelzahl.
  • Findet die Beschneidung nicht gleich zum Bildverhältnis statt, so ändert sich auch das Bildformat.
  • Beschneiden ist dem digitalen Zoomen ähnlich, bietet aber mehr Flexibilität. Der Aufnahmewinkel wird reduziert.


Transformationen[Bearbeiten]

Auf ein Bild oder einen Ausschnitt davon können diverse Transformationen angewendet werden, die durch eine Matrix repräsentiert werden können, dies sind Drehungen, Skalierungen, Spiegelungen, Scherungen und andere einfache Verzerrungen. Dazu gibt es die Möglichkeit, Bildteile anders zu positionieren, also zu verschieben, auch Translation genannt.

Drehen[Bearbeiten]

Bei der Drehung ist zu unterscheiden zwischen solchen, die eine Interpolation erfordern und solchen, die dies nicht tun. Letztere sind Drehungen um ganzzahlige Vielfache von neunzig Grad, die lediglich eine andere Interpretation der Reihenfolge der Pixel bei der Anzeige erfordern, solche Transformationen findet man im Bildmenü unter Transformationen. Für Drehungen um beliebige Winkel gibt es ein spezielle Dreh-Werkzeug, was dann immer eine Interpolation nach sich zieht, also letztlich eine gewisse Verminderung der Bildqualität.

Für die Drehung um beliebige Winkel wird das Drehen-Werkzeug aus der Werkzeugbox ausgewählt und anschließend auf das Bild geklickt, um einen Winkel einzugeben (man kann es auch manuell drehen, was jedoch ungenauer ist). Bilder zu drehen bietet sich immer dann an, wenn die Kamera nicht gerade gehalten wurde oder das Bild aus anderen Gründen schief wirkt. Vor allem ein schiefer Horizont wirkt für gewöhnlich sehr unschön und kann mit dem Drehen-Werkzeug recht einfach begradigt werden.

Manchmal ist es auch ein besonders künstlerischer Effekt, ein Photo einmal nicht gerade aufzunehmen. Hier kann man das Werkzeug verwenden, um es im Nachhinein zu drehen. Schräg aufgenommene Photos wirken oft lebendig, dynamisch und ausgefallen.

Beim Drehen ist folgendes zu beachten:

  • Da das abzuspeichernde Bild wieder rechteckig und horizontal und vertikal ausgerichtet ist, ergeben sich am Rand Bereiche, die aus dem Bild herausragen und Flächen, auf denen nichts vom Bild liegt. Überstehende Bereiche werden automatisch abgeschnitten, nicht gefüllte Bereiche bleiben natürlich leer. Um das zu vermeiden, ist ein kleiner Grad an Beschneidung notwendig. Die Beschneidung geschieht zu den Ecken hin. Je weiter der Winkel von einem ganzzahligen Vielfachen von neunzig Grad abweicht, umso mehr wird somit an den Ecken des Photos letztlich beschnitten.
  • Durch die Beschneidung ändert sich damit wieder die Abmessung und Pixelzahl des Photos, jedoch meist in geringerem Maße als beim Beschneiden. Es ist dann abzuwägen, ob man beim Beschneiden das Bildformat beibehält oder den Ausschnitt nach der maximalen Pixelzahl wählt.

Skalieren und Spiegeln[Bearbeiten]

Eine einfache Skalierung des gesamten Bildes kann wieder im Bildmenü ausgewählt werden, dort auch als Skalierung des Bildes zu finden (siehe nächster Abschnitt 'Auflösung ändern') Spiegelungen sind spezielle Skalierungen und finden sich im Bildmenü unter Transformationen. Diese ändern wieder nur die Reihenfolge der Pixel bei der Darstellung, ändern also nicht die Qualität oder Auflösung des Bildes, die anderen Skalierungen schon.

Bildteile können ebenfalls skaliert werden, dazu gibt es wieder ein entsprechendes Auswahlwerkzeug. Ist der Skalierungsfaktor horizontal von dem vertikal verschieden, wird das Bildformat geändert. Entsprechend gibt es auch ein spezielles Auswahlwerkzeug zum Spiegeln von Bildteilen.

Scherungen[Bearbeiten]

Auch für Scherungen gibt es ein spezielles Auswahlwerkzeug. Bei der Scherung wird eine Pixelzeile (oder -spalte) abhängig von ihrer Spalte (beziehungsweise Zeile) verschoben. Das kann manchmal nützlich sein, wenn Objekte schräg von der Seite aufgenommen wurden, um diese näherungsweise gerade auszurichten.

Verzerrungen, 'Perspektiv-Korrektur'[Bearbeiten]

Mit einem weiteren Werkzeug kann man eine allgemeine Matrix auf das Bild anwenden. In der Wirkung können so die vier Kanten des Bildes praktisch beliebig schräg angeordnet werden, der Bildinhalt wird dann entsprechend verzerrt.

Dies kann mehr oder weniger brauchbar sein, um die Auswirkung von unerwünschten perspektivischen Effekten wie stürzenden Linien im Bild zu minimieren. Es kann dazu auch notwendig sein, das Bild zu skalieren und zwar mit unterschiedlichen Faktoren in horizontaler und vertikaler Richtung.

Zur Übung photographiere man etwa einen Kreis schräg von der Seite, etwa eine Kirchturmuhr, oder auch eine quadratische Fläche von der Seite, jeweils mit reichlich Platz zu den Bildrändern. Mit dem Werkzeug läßt sich das Bild nun so verzerren, dass wieder ein runder Kreis oder ein Quadrat zu sehen ist. Hat man allerdings räumliche Strukturen im Bild, wird relativ schnell klar, dass verdeckte Teile des Motivs so natürlich nicht sichtbar gemacht werden können, das Verfahren hat damit also recht einfach einzusehende Grenzen. Die Übung legt zudem bereits nahe, dass man eigentlich das genaue Aspektverhältnis von Höhe zu Breite des ebenen Motivs kennen muß, um die 'Perspektiv-Korrektur' präzise durchzuführen.

Auflösung ändern[Bearbeiten]

Das Ändern der Auflösung ist eine Möglichkeit, die jedes Programm bietet.

Das Erhöhen der Pixelzahl ist zwar möglich, erhöht jedoch natürlich nicht die Auflösung oder die im Bild vorhandene Information. Da die Dateigröße dabei aber stark zunimmt (quadratisch), ist das Strecken der Auflösung kaum sinnvoll.

Das Reduzieren der Auflösung ist hingegen von Interesse, wenn ein Photo in recht großer Auflösung im Internet veröffentlich wird. Das Publikum dort möchte meist nicht mit Bildern überrascht werden, die einige Megabyte groß sind. Auch das Versenden von Bildern per E-Mail erfordert oft eine Verkleinerung. Die meisten Dienstprogramme für E-Mail akzeptieren nur E-Mails, die kleiner als eine maximale, voreingestellte Größe sind (oft 5 Megabyte). Beim JPEG-Format kann sowohl die Pixelzahl verkleinert werden also auch die Kompression erhöht werden. Mit stärkerer Kompression verringert sich die Auflösung und Qualität des Bildes. Die Dateigröße ändert sich bei gleicher Kompression ungefähr proportional zur Pixelzahl.


In Gimp kann man die Abmessung (und damit Pixelzahl) des Bildes via Bild – Bild skalieren einstellen. Das Ändern eines Wertes (horizontale oder vertikale Abmessung) führt dazu, dass Gimp in der Voreinstellung automatisch den anderen Wert berechnet, um das Bild nicht zu verzerren. Hat das Bild eine Abmessung von 2272x1704 und man stellt bei Breite 640 ein, so wird die Höhe automatisch auf 480 gesetzt und das Photo kann dann auf die Abmessung 640x480 reduziert werden.


Farben[Bearbeiten]

Kontrast und Helligkeit[Bearbeiten]

Einleitung[Bearbeiten]

Kontrast und Helligkeit zu verändern, zählt zu den grundlegendsten Elementen der Nachbearbeitung überhaupt – selbst die einfachsten Programme enthalten meist einen Regler, um Helligkeit und Kontrast zu erhöhen oder zu verringern. In Gimp kann man über das Menü Farben – Helligkeit/Kontrast die beiden Werte anpassen.


Kontrast[Bearbeiten]

In vielen Fällen bietet es sich an, den Kontrast einen Photos leicht zu erhöhen, da digitale Photos oft ein wenig matt wirken. Grund dafür kann zum Beispiel diffuse Streuung im Objektiv sein, aber auch diffuse Streuung in der Atmosphäre, besonders auffällig bei Aufnahmen über weite Entfernungen, wenn viele Streuzentren wie Schmutz oder Wassertröpfchen in der Luft sind.

Kontrastreiche Photos erscheinen realer, tiefer, ansprechender. Wenn man einmal den Kontrast eines Photos versuchsweise etwas (!) erhöht, wird man schnell erkennen um wie viel ansprechender ein sonst eher langweiligen Photo wirken kann. Wenn es so gelingt, die Auswirkungen diffuser Streuung im Objektiv zu reduzieren, kann ein höherer Kontrast sogar eine realistischere Darstellung des Motivs bewirken.

Man sollte mit dem Kontrast dennoch vorsichtig umgehen. Kontrast ist die Differenz zwischen den einzelnen Helligkeitswerten im Bild. Wird er erhöht, so werden helle Töne heller und dunkle Töne dunkler. Die Helligkeitsgegensätze intensivieren sich also, aber das führt auch dazu, dass die einzelnen Abstufungen radikal verschwinden. Im Kapitel zu den Grundlagen der Bildgestaltung wurde bereits erläutert, dass das menschliche Auge rund 100 Helligkeitswerte unterscheiden kann, die Kamera aber theoretisch bis zu 256 Abstufungen erzeugt. Bei weniger als 100 Abstufungen erscheinen die Farben nicht mehr fließend und damit sehr unnatürlich. Erhöht man den Kontrast, kann man ganz schnell unter diese 100 Abstufungen gelangen.

Durch die Reduktion der Farbdifferenzierung bei höherem Kontrast ergibt sich ein weiteres Problem: Details verschwinden mit zunehmender Kontrasterhöhung, und große einfarbige Flächen entstehen. Die Fassade eines Gebäudes erscheint uns zwar beispielsweise gelb, besteht aber bei genauerer Analyse aus einer Vielzahl von einzelnen Gelbtönen. Wird der Kontrast immer weiter erhöht, geht die Fassade womöglich in einen einzigen Gelbton über und wirkt dann sehr unnatürlich. Das extreme Erhöhen des Kontrast bringt somit oft Bilder hervor, die an ein Comic erinnern, aber fern realer Abbildungen sind.

Die Reduktion des Kontrasts ist meist von geringerem Interesse, da hier das Bild allmählich in Grau übergeht. Das Vermindern des Kontrasts macht das Bild monotoner, etwa wie bei Nebel, der Schärfeeindruck sinkt. Der Umkehrschluss, dass mit Kontrastreduktion mehr Details sichtbar werden ist dabei natürlich verkehrt. Auch hier gehen Details verloren. Bei der Reduzierung des Kontrastes laufen die Farbtöne aufeinander zu, bis sie bei hoher Reduktion allesamt grau erscheinen.

Hinweis: Der Kontrast sollte grundsätzlich nicht übermäßig erhöht werden, wenn das Bild einen eher verträumten, verschwommenen Charakter besitzt, zum Beispiel bei Nebel- und Dunstaufnahmen. Hier ist es manchmal gerade wünschenswert, dass Konturen nicht so stark auftreten.


Helligkeit[Bearbeiten]

Mit dem Helligkeitsregler können die Farben eines Bildes aufgehellt oder abgedunkelt werden. Die Helligkeit ist dabei ein globaler Parameter, der sich auf das gesamte Bild (beziehungsweise den gesamten ausgewählten Ausschnitt) auswirkt. Erhöht man die Helligkeit, so werden sämtliche Farben aufgehellt; vermindert man sie, so werden sämtliche Farben abgedunkelt. Wie beim Kontrast sollte man die Helligkeit, wenn überhaupt, nur sehr dezent anpassen.

Das Erhöhen der Helligkeit kann sinnvoll sein, wenn das Photo zu dunkel (unterbelichtet) ist. Allgemeines Erhöhen der Helligkeit führt zu blasseren Farben, die bei zunehmender Erhöhung in Pastellfarben und schließlich in weiß übergehen.

Das Vermindern der Helligkeit kann sinnvoll sein, wenn das Photo zu hell (überbelichtet) ist. Das Vermindern der Helligkeit führt zu dunkleren Farben, die im Extremfall zum Schwarz übergehen.

Sowohl das Erhöhen als auch das Reduzieren der Helligkeit führt zur Reduktion des Kontrasts – das Photo wirkt matt. Bei der Reduzierung gehen die Details in den dunklen Farben (Tiefen) verloren, da dunkle Töne zu schwarz verschmelzen; bei Erhöhung gehen Details in hellen Bereichen verloren, da helle Töne zu weiß verschmelzen. Daher sollte beim Ändern der Helligkeit auch der Kontrast angepasst werden, nicht jedoch zwangsweise im gleichen Verhältnis.


Gamma-Korrektur[Bearbeiten]

Die Gamma-Korrektur ist dem Helligkeitsregler ähnlich und ermöglicht das Aufhellen und Abdunkeln eines Bildes. Anders als bei der Helligkeit werden jedoch nicht alle Helligkeitswerte gleichmäßig erhöht beziehungsweise reduziert.

Betrachtet man die Helligkeitsskala von dunkel (reines schwarz) bis hell (reines Weiß), so kann man die Farben in dunkle Farben ("Tiefen" beziehungsweise 'low keys'), normale Farben ("Mitteltöne") und helle Farben ("Lichter" beziehungsweise 'high keys') einteilen. Bei der soeben vorgestellten Helligkeitskorrektur werden alle Farben gleichmäßig angehoben oder abgesenkt. Bei der Gamma-Korrektur werden hingegen die Mitteltöne stärker angehoben (beziehungsweise reduziert) während die Tiefen und Lichter weniger stark angehoben (beziehungsweise reduziert) werden. Das führt dazu, dass bei der Helligkeitsänderung der Kontrast weitgehend erhalten bleibt, während er beim Helligkeitsregler sehr schnell sinkt.

Bei der Gamma-Korrektur arbeitet man auf einer Skala von 0 bis 10, wobei 1 normal ist. Jedes Photo hat also zunächst den Wert 1, egal wie hell oder dunkel es ist. Die Skala ist nicht-linear. Schiebt man den Regler ein klein wenig in Richtung 0, wird das Bild sehr schnell dunkler. Schiebt man ihn ein klein wenig nach links, wird es nur allmählich heller.

Bei Unterbelichtung und Überbelichtung ist es zumeist sinnvoller, die Gamma-Korrektur anzupassen anstatt der Helligkeit. Innerhalb gewisser Grenzen wird damit das Photo aufgehellt oder abgedunkelt, ohne dass der Kontrast zu stark verloren geht. Die Gamma-Korrektur wird im Gimp via Farben – Werte vorgenommen.


Sättigung[Bearbeiten]

Die Sättigung ist, wie bereits erläutert, eine Angabe zur Leuchtkraft beziehungsweise Intensität von Farben. Je größer die Sättigung ist, umso auffälliger und lebendiger werden die Farben; je geringer sie ist, umso mehr gehen sie ins grau über und umso unauffälliger wirken sie. Allerdings ist die Wirkung der Sättigung auch von der Helligkeit der Farben abhängig. Sie ist am größten bei Farben mittlerer Helligkeit. Bei hellen und dunklen Farben bewirkt die Änderung der Sättigung meist nicht viel, umso weniger, je mehr man sich weiß oder schwarz nähert.

Vorausgesetzt, dass das Photo überwiegend aus Farben mittlerer Helligkeit besteht (also weniger aus sehr dunklen und sehr hellen Farben), kann das Erhöhen der Sättigung zu lebhafteren, ausdrucksstärkeren Photos führen. Das Bild wirkt ansprechend, bunt, bisweilen vielleicht auch aggressiv. Es kann jedoch beim Erhöhen der Sättigung schnell geschehen, dass das Bild unrealistisch und übertrieben wirkt – denn sehr satte Farben kommen in der Natur nur selten vor.

Das Vermindern der Sättigung erzeugt ein eher graues, unscheinbares Photo. Dem Photo werden buchstäblich die Farben entzogen, bis es bei vollständiger Entsättigung ein Grauwert-Photo ist.

Das Anpassen der Sättigung ist nicht immer notwendig und sollte eher vorsichtig vorgenommen werden. Es ist aber manchmal ein geeignetes Mittel, aus langweiligen Photos ausdrucksstärkere Photos zu machen. Soll ein Photo eher dezent und sanft wirken, so bietet es sich an, die Sättigung nicht zu erhöhen oder gar etwas zu senken. Alternativ kann das Photo hierfür auch noch etwas aufgehellt oder abgedunkelt werden.

In Gimp lässt sich die Sättigung über Farben – Farbton/Sättigung ändern.


Farbtöne ändern[Bearbeiten]

In Gimp kann man über das Menü Farben – Farbabgleich die Farbverteilung ändern, indem man die Regler der Farben rot/cyan, grün/magenta und blau/gelb zu der entsprechend gewünschten Farbe zieht.

Der Farbabgleich ist vor allem dazu geeignet, bestimmte Farbstiche zu entfernen. Insbesondere Blaustiche sind in der Photographie keine Seltenheit, zum Beispiel beim Photographieren im Winter, am Meer oder im Gebirge. Um einen Blaustich zu eliminieren, sollte also der Regler von blau/gelb in Richtung gelb gezogen werden. Das bewirkt, dass die blauen Töne eher in Gelb übergehen.

Manchmal kann es auch sinnvoll sein, ein farblich korrekt dargestelltes Bild einen leichten Stich zu geben. Bei Städte- und Straßenaufnahmen wirken gelbe und rote Töne oft schöner und verleihen dem Bild eine gewisse Wärme. Das gezielte Erzeugen eines blauen Stichs erzeugt hingegen Kälte.


Spezielle Farbänderungen[Bearbeiten]

Einfärben[Bearbeiten]

Über das Menü Farben – Einfärben lässt sich ein Bild in eine bestimmte Farbe einfärben. Die Funktionsweise ist ähnlich dem Farbabgleich, allerdings gibt man hierbei einen genauen Farbton an (zum Beispiel 0 für rot) und das Bild wird dann gemäß diesem Farbton eingefärbt. Das Bild nimmt dann ausschließlich Töne dieser Farbe an – das Einfärben reduziert also die 240 verschiedenen Farbtöne, die ein Bild theoretisch haben kann, auf genau einen Ton. Helligkeits- und Sättigungsstufen bleiben jedoch erhalten.


Posterisieren[Bearbeiten]

Das Posterisieren (Farben – Posterisieren) ist ein ähnliches Mittel, um die Differenzierung von Farbtönen zu reduzieren. Hierbei gibt man an, aus wie vielen Farben das Bild bestehen soll. Der Wert ist dabei die Potenz zur Basis 2. Stellt man den Regler auf 3, so heißt dies, dass das Programm die Farben auf 2^3, also auf 8 reduziert – alle Farben werden also zu 8 Farben zusammengefasst. Das Bild wirkt dann eher wie ein Gemälde (oder Comic), bei dem Künstler oft nur eine geringe Zahl an Farben verwenden.


Entsättigen[Bearbeiten]

Über Farben – Entsättigen kann in Gimp ein Photo "entsättigt" werden, das heißt die Sättigung aller Farben wird auf 0 gesetzt. Aus dem Farbbild wird dann ein Grauwert-Bild. Diesen Effekt kann man auch erzielen, indem man im Sättigungsmenü die Sättigung vollständig reduziert – das Entsättigungsmenü bietet jedoch noch ein paar kleine Feinheiten, die man hierbei anpassen kann.


Schärfe[Bearbeiten]

Unscharf maskieren[Bearbeiten]

Beispiel für unscharf Maskieren (mit Gimp) anhand einer Aufnahme mit einer Lochkamera eines Sees im Georgengarten in Hannover.
Links oben: Ohne Maske
Links unten: Radius 20, Menge 1
Rechts oben: Radius 40, Menge 1
Rechts unten: Radius 40, Menge 2
Weil kein Objektiv, sondern eine Lochblende verwendet wurde, ist das Ausgangsbild von vorne herein deutlich unscharf. Die für die Maskierung verwendeten Werte sind relativ groß, weswegen es zu auffälligen Artefakten der Methode kommt, welche sich aber eignen, um die prinzipiellen Auswirkungen zu verstehen. Es zeigt sich auch deutlich, daß keine weiteren Details durch die Maskierung hervortreten, sondern sich nur bereits vorhandene Strukturen deutlicher voneinander trennen.

Die Unschärfemaskierung ist ein gängiges Werkzeug von Bildbearbeitungsprogrammen, um ein Photo nachträglich nachzuschärfen. Kompakt-Digitalkameras erzeugen oft Photos, die nicht die optimale Schärfe besitzen und daher leicht nachgeschärft werden sollten. Ursache dafür kann etwa sein, dass diese schon bei offener Blende aufgrund der kleinen Pixelabstände Beugungseffekte zeigen - oder eben zu weit abgeblendet wurde, etwa um eine große Schärfentiefe zu bekommen. Auch Abbildungsfehler des Objektivs können für eine Verminderung der Schärfe sorgen. So oder so kann man mit diesem Werkzeug aus der unscharfen Aufnahme nicht mehr Details hervorzaubern, man kann die in der Aufnahme vorhandenen Objekte nur deutlicher voneinander trennen.

Das Werkzeug hat eine gewisse Ähnlichkeit mit der Kontrasteinstellung, es gibt jedoch einen nennenswerten Unterschied: Das Ändern des Kontrasts bewirkt, dass helle Farben heller und dunkle Farben dunkler dargestellt werden. Es entsteht damit ein Hell-Dunkel-Kontrast und somit unter Umständen mehr Plastizität. Unschärfemaskierung bedeutet hingegen, dass nur lokal Änderungen vorgenommen werden, um ein Bild schärfer darzustellen. Das Ziel ist es dabei, unscharfe Kanten (Kanten mit einzelnen Grauabstufungen), schärfer zu machen. Das Bild ist dann kantiger und der Schärfeeindruck erhöht sich. Mathematisch/physikalisch kann man sich vorstellen, dass die endliche Auflösung des Objektivs die Strahlengänge der Abbildung des Motivs, die zu einem Punkt gehören, über mehrere Pixel verteilt haben. Man spricht dann auch davon, dass die Apparatefunktion des Objektivs oder der Kamera die Abbildung faltet. Die Unschärfemaskierung nimmt dafür soetwas wie eine Gaußverteilung als willkürlichen Ansatz an und entfaltet die Abbildung wieder näherungsweise.

Während sich die Kontrasteinstellung also auf die Farben allgemein stützt, geht es bei der Unschärfemaskierung um die Übergänge zwischen (stark unterschiedlichen) Farben. Ein Photo wirkt besonders scharf, wenn diese Übergänge abrupt sind; sie wirken unscharf, wenn die Übergänge allmählich verlaufen, das heißt viele einzelne Grauabstufungen zwischen den beiden Farbflächen vorhanden sind.

In Gimp kann man über Filter – Verbessern – Unschärfe maskieren das entsprechende Werkzeug aufrufen. Dabei können drei Parameter eingestellt werden: Radius, Menge und Schwellwert.

Der Radius ist der wichtigste Parameter und gibt an, wie viele Pixel bei der Unschärfemaskierung berücksichtigt werden sollen (das heißt nach obiger Sprechweise die Breite der Apparatefunktion oder die Standardabweichung der Gaußverteilung oder auch wie viele Pixel in die Schärfe mit einbezogen werden sollen). Die Menge gibt an, wie stark die Schärfung vorgenommen werden soll. Der Schwellwert gibt an, wie groß der farbliche Abstand zwischen benachbarten Pixeln sein muss, damit diese zu einer Farbe zusammengefasst werden und damit eine schärfere Kante ergeben.

Der Radius ist vor allem abhängig von der Bildgröße und von der im Bild vorhandenen Unschärfe. Eine spätere Verkleinerung kann den Effekt also wieder reduzieren, was aber wiederum auch durch die dabei stattfindenden Interpolation Artefakte durch zu starke Schärfung wieder reduzieren kann. Der voreingestellte Wert von 5 sollte sich etwa auf gewöhnliche Photos beziehen (circa 5 MP), ist aber in vielen Fällen schon ziemlich hoch gewählt. Ein Wert von 3 ist oft bereits ausreichend, da ein zu hoher Wert das Bild zwar sehr scharf, aber auch unnatürlich wirken lassen kann.

Der Begriff "Unschärfe maskieren" mag auf den ersten Blick etwas verwirrend klingen - immerhin möchte man mehr Schärfe erlangen, nicht Unschärfe. Der Name geht jedoch auf das Verfahren zurück, das diesem Werkzeug zu Grunde liegt und eigentlich aus der analogen Nachbearbeitung kommt. Bei der Unschärfemaskierung wird von dem ursprünglichen Bild A eine unscharfe Kopie A' erstellt und diese von A subtrahiert. Das Resultat B ist dann ein schärfer wirkendes Bild.

Obwohl das Werkzeug oft eine merkliche Verbesserung bewirkt, sollte es (wie immer) vorsichtig eingesetzt werden. Vor allem bei verträumten Photos (Nebel, düsteres Licht, Flammen etc.) ist es meist nicht zu empfehlen, das Bild nachzuschärfen. Das Bild wirkt ohne Nachschärfen sanfter und weicher und passt damit besser zur Situation. An Kanten kann eine zu starke Nachschärfung auch zu Artefakten kommen, die einer Umrißlinien ähneln, heller im helleren Bereich, dunkler im dunkleren Bereich. Der geübte Betrachter kann an solchen Artefakten leicht erkennen, dass die Nachschärfung übertrieben wurde und der Autor auf dem Weg zur Zeichnung oder zum Comic ist.

Gaußscher Weichzeichner[Bearbeiten]

Beispiel für Gaußschen Weichzeichner anhand einer Detailaufnahme eines Minzeblattkäfers.
Oben links: Ohne Weichzeichnung
Unten links: Weichzeichnung 10 Pixel horizontal
Oben rechts: Weichzeichnung 10 Pixel vertikal
Unten rechts: Weichzeichnung 10 Pixel horizontal und vertikal

Der Gaußsche Weichzeichner entnimmt dem Photo Schärfe und ist damit gewissermaßen das Gegenstück zur Unschärfemaskierung. Auch wenn es oft das Bestreben ist, möglichst scharfe Photos zu erreichen, hat das Werkzeug für die Nachbearbeitung eine recht hohe Bedeutung.

Der Gaußsche Weichzeichner wird vor allem lokal verwendet, wobei das Entfernen von Bildrauschen vermutlich der häufigste Grund ist. Das Rauschen, das zwar im gesamten Bild auftritt, ist meist nur in bestimmten Bereichen störend beziehungsseise besonders wahrnehmbar. Bei Nachtaufnahmen betrifft das oft den Himmel oder Gewässer. Das Anwenden des Gaußschen Weichzeichners bewirkt, dass benachbarte Pixel zusammengefasst und farblich angepasst werden. Ab einem bestimmten Wert (je nach Bildrauschen) kann somit das Rauschen entfernt werden. Mathematisch/physikalisch entspricht dies einer Faltung mit einer Apparatefunktion einstellbarer Breite.

Das Anwenden des Gaußschen Weichzeichners auf das gesamte Photo ist meist nicht zu empfehlen, da dann das Photo in Unschärfe versinkt. Wählt man jedoch beispielsweise nur den Himmel aus und wendet den Weichzeichner darauf an, so bleibt der Rest des Bildes scharf, während das Rauschen des Himmels beseitigt werden kann. Da der Himmel für gewöhnlich eine recht homogene Fläche ist, die keine Schärfe benötigt, beziehungsweise aufweist, ist das Anwenden des Weichzeichners in diesem Fall also völlig problemlos. Bei Abend- und Nachtaufnahmen weist der Himmel ohnehin noch weniger Abstufungen und Details auf als am Tag.

In Gimp lässt sich das Werkzeug über Filter – Weichzeichner – Gaußscher Weichzeichner aufrufen. Als Parameter wird die Anzahl an Pixeln eingegeben, die bei dem Vorgang zusammengefasst werden soll. Damit ist das Wieder wieder von der Auflösung abhängig - je größer die Auflösung des Photos ist, umso größer muss der Wert gewählt werden, um bestimmtes Rauschen zu entfernen.

Neben dem Bildrauschen lassen sich mit dem Gaußschen Weichzeichner auch andere diverse Unebenheiten oder Kratzer entfernen. Für Kratzer, Lichtstreifen etc. bietet Gimp aber auch separate Filter. Für sehr kreative Aufnahmen kann der Weichzeichner auch einmal auf das gesamte Bild angewendet werden.

Malen[Bearbeiten]

Gimp hat auch einige Malwerkzeuge. Auch Text kann eingegeben werden, so dass die Glyphen als farbige Flächen im Bild erscheinen. Die kann hilfreich sein, wenn man auf besondere Motivteile hinweisen will oder diese bezeichnen möchte. Beim Text ist dabei natürlich zu beachten, dass dieser wie der Rest des Bildes nur Farbflächen darstellt, also keinesfalls eine zugängliche Information darstellt. Je nach Format kann man Textinformation etwa als EXIF-Daten unterbringen oder man integriert das Bild in eine Vektorgraphik (SVG), bei welcher Textinformation als Text notiert werden kann.

Das Malen mit Stift, Pinsel oder Sprühpistole mit auswählbarem Muster kann allerdings auch gut verwendet werden, um störende Artefakte überzumalen - etwa fehlerhafte Pixel der Kamera oder Staubpartikel auf dem Bildsensor oder an kritischen Teilen des Objektivs. Dazu gibt es auch ein Werkzeug, eine Pipette, mit der man die Farbinformation eines Pixels extrahieren kann. Damit kann man die Malfarbe festlegen und dann mit einem geeigneten Malwerkzeug fehlerhafte Pixel übermalen. Gimp hat allerdings auch spezielle Filter, mit denen man versuchen kann, bekannte Artefakte von digitalen Sensoren automatisch zu reduzieren.

Auch hier ist wie so oft der Übergang zur gezielten Manipulation fließend - auch störende kleinere Motivdetails können so wegretouchiert werden.

Analoge und digitale Fotografie[Bearbeiten]

Inhaltsverzeichnis

Die Wahl zwischen einer analogen Kamera und einer digitalen kann eine knifflige Entscheidung sein, beeinflußt im Detail aber, wie später weiter mit den Aufnahmen vorzugehen ist.

Im letzten Jahrhundert wurde noch durchgehend auf Filmmaterial (analog) abgelichtet. Vorherrschend ist inzwischen die Belichtung von digitalen Sensoren.

Welche Unterschiede gibt es eigentlich zwischen der analogen und digitalen Photographie? Da gilt es abzuwägen, ob sich der Kauf einer digitalen Spiegelreflexkamera lohnt oder sich die bereits vorhandene oder günstig zu erwerbende analoge Kamera auch eignet.

Optik und wesentliche Vorgänge sind sehr ähnlich. Mittels des Objektivs wird Licht vom Motiv auf ein lichtempfindliches Material abgebildet. Insofern gibt es da hinsichtlich der Gestaltung und der Bildwirkung von Objektiven und Aufnahmesituationen keine dramatischen Unterschiede.

Der wesentliche Unterschied ist natürlich die Erfassung und die Speicherung der Bilder. Die Speicherung der Bildinformation auf Filmmaterial oder die Speicherung auf einem elektronischen Sensor sind grundverschieden, was diverse Konsequenzen zufolge hat. In unserer Zeit verfügen viele Menschen über Kenntnisse im Umgang mit Computern oder möchten ihre Bilder direkt via internet anderen Menschen zugänglich machen. Bilder von Digitalkameras sind recht einfach mit Grundkenntnissen am Computer nachzubearbeiten und problemlos via internet zu veröffentlichen. Zur Nachbearbeitung von Filmmaterial ist ein Labor notwendig und spezielle Kenntnisse, die weit weniger verbreitet sind als die für die Nutzung eines Computers. Zudem besteht ein Grundbedürfnis, das Bildergebnis direkt nach der Aufnahme zu kontrollieren, was bei Digitalkameras sehr einfach möglich ist, bei analogen Kameras Tage dauern kann. Unsinnige Ergebnisse können bei Digitalkameras zudem gleich gelöscht werden und kosten faktisch kein Geld, so kann beliebig probiert werden, bis ein brauchbares Bild entstanden ist. Mit einer analogen Kameras sind dies kostspielige Blindversuche, weil jeder Film Geld kostet und einmal gemachte Aufnahmen nicht wieder rückgängig zu machen sind. Das dürften die Hauptgründe dafür sein, warum digitale Kameras die analogen innerhalb weniger Jahre vom Markt verdrängt haben.

Bilderfassung und Speicherung[Bearbeiten]

Bei einer analogen Kamera findet die Erfassung und Speicherung auf lichtempfindlichem Filmmaterial (in Helligkeitswerten) statt. Gegen Ende des letzten Jahrhunderts war das Medium Film zum Speichern von Bildinformation praktisch ausgereizt, eine etablierte Technik, die über Jahrzehnte ausreifen konnte. Der in die Kamera eingelegte Film entscheidet über Empfindlichkeit, trägt wesentlich zur Auflösung des Bildergebnisses bei und entscheidet, ob das Ergebnis in Grauwerten vorliegen wird oder mit Farbinformation oder gar in einem ganz anderen Spektralbereich liegt wie bei Infrarotaufnahmen. Bei hoher Empfindlichkeit ist der Film grobkörniger, hat also eine schlechtere Auflösung. Die Struktur an der Auflösungsgrenze ist ein Zufallsmuster, da die lichtempfindlichen Körner im Film zufällig angeordnet sind. Die Auflösungsgrenze fällt also immer als Zufallsrauschen der Bildinformation auf.

Beim Farbfilm liegen die Schichten für die verschiedenen Farben hintereinander, die Entscheidung für einen Farbfilm führt also nicht zwangsläufig zu einer Verschlechterung der Auflösung. Allerdings sind Filme ohne Farbinformation prinzipiell empfindlicher, es wird also weniger Licht benötigt, um eine korrekte Belichtung zu erreichen. Typisch kann in der Größenordnung von 10% des einfallenden Lichtes vom Film wirklich genutzt werden, die Effizienz ist also nicht sonderlich hoch.

Nach einer Aufnahme wird der Film mechanisch per Kurbel oder mit einem Motor weitertransportiert. Für die neue Aufnahme steht also komplett neues, unbenutztes lichtempfindliches Material zur Verfügung. Dies stellt sicher, dass eventueller Staub oder Störungen durch den Weitertransport für die nächste Aufnahme beseitigt sind. Der Filmtransport erzeugt allerdings geringe Menge Abrieb. Nach einigen tausend Aufnahmen sollte der Bereich mit dem Film hinter dem Verschluss also gereinigt werden, was relativ einfach mit sauberer Druckluft oder einem Pinsel möglich ist.

Ist ein Film mit typisch 20 bis 40 Aufnahmen komplett belichtet, so ist dieser zu entwickeln, entweder selbst oder von einem Labor. Es benötigt also Zeit, bis das Ergebnis betrachtet werden kann. Eine direkte Kontrolle während der Aufnahme ist nicht möglich. Die Entdeckung von Fehlern liegt also zumeist zeitlich weit weg von der Entstehung des Bildes. In einer komplizierten Aufnahmesituation kann der Photograph also nur vorsorglich eine Reihe von Aufnahmen mit Variation der kritischen Parameter machen, um dann nach der Entwicklung aus dieser Serie wenige brauchbare Ergebnisse als gut auszuwählen. Allerdings drängt dies auch dazu, sorgfältiger und vorausschauender zu photographieren und sorgfältiger zu gestalten, was auch einen positiven Einfluss auf die Bildqualität haben kann. Die mit jeder Aufnahme verbundenen Kosten schränken aber auch wieder die Experimentierfreudigkeit ein.

Bei einer Digitalkamera hingegen ist ein lichtempfindlicher Sensor eingebaut. Bei den Spiegelreflexkameras, die heute typisch zu erwerben sind, kann damit gut im sichtbaren Bereich photographiert werden. Zwar können diese Bilder nachträglich in Grauwerte umgewandelt werden, was aber nicht optimal ist, weil es auch spezielle Sensoren gibt, die nur die Intensität des Lichtes aufnehmen und keine Farbinformation und damit sehr viel empfindlicher sind als Sensoren, die Farbinformation aufnehmen. Für Aufnahmen in anderen Spektralbereichen ist für optimale Ergebnisse ebenfalls eine Spezialkamera mit einem dafür ausgelegten Sensor notwendig, vor allen, weil bislang die Sensoren anders als die Filme bei gängigen Kameramodellen nicht austauschbar sind. Zwar gibt es auch Filter, die es bei einigen Kameras erlauben, auch Aufnahmen im Infrarotbereich zu machen, allerdings ist dies mehr ein Mangel des in der Kamera eingebauten Sensors, denn für normale Aufnahmen wird der Infrarotanteil unerwünscht sein und sollte eigentlich herausgefiltert werden. Wird nun ein Filter vor das Objektiv geschraubt, welcher den sichtbaren Bereich sperrt, wird nur infrarotes Licht durchgelassen und die Restempfindlichkeit des Sensors in diesem Bereich ermöglicht dann eine Aufnahme, allerdings mit geringer Empfindlichkeit und hohem Rauschen. Eine Spezialkamera wäre hingegen so ausgelegt, dass sie im Infrarotbereich empfindlich ist, oder aber nur Lichtintensität aufzeichnet und keine Farbinformation und dann eben mit einem geeigneten Filter bestimmt wird, welcher Wellenlängenbereich bei der jeweiligen Aufnahme durchgelassen wird. Die Digitalkamera erweist sich also als relativ unflexibel was die Frage anbelangt, ob in Farbe im sichtbaren Bereich, in Grauwerten oder im infraroten Bereich Aufnahmen gemacht werden sollen. Da die meisten Photographen heute zumeist aber ohnehin Farbaufnahmen im sichtbaren Bereich machen wollen, können sie mit diesem Nachteil gut leben.

Alltagstaugliche Sensoren sind erst in diesem Jahrtausend aufgekommen. Es handelt sich also noch keineswegs um eine ausgereifte Technik. Da gibt es noch viel Raum für Verbesserungen und Steigerung von Empfindlichkeit oder Auflösung.

Zumeist wird heute ein Sensor mit Bayer-Matrix verwendet. Der Sensor besteht aus einzelnen, regelmäßig angeordneten Pixeln. Das Muster ähnelt dem eines Schachbrettes. Dabei sind zwei grüne Pixel, ein roter und ein blauer jeweils im Quadrat angeordnet. Diese Struktur wiederholt sich. Zudem sind die einzelnen Pixel elektronisch anzuschließen. Technisch ist das einfacher von der Seite zu bewerkstelligen, wo das Licht einfällt, dies reduziert jedoch die Gesamtfläche, die lichtempfindlich ist. Es gibt allerdings auch Sensoren, die von hinten verschaltet sind. Zudem werden Mikrolinsen eingesetzt, um möglichst viel Licht für den jeweilige Pixel zu sammeln. An sich sind die Pixel etwa gleich empfindlich für alle Wellenlängen von Infrarot bis Ultraviolett (andere Wellenlängenbereiche werden ohnehin durch das Glasmaterial des Objektivs gefiltert). Um eine Farbinformation zu bekommen, erhält also jeder Pixel einen Filter, der nur das gewünschte Licht durchlässt. So kann man grob abschätzen, dass bei einem Farbsensor mit Bayer-Matrix etwa drei Viertel des roten Lichtes, drei Viertel des blauen und die Hälfte des grünen Lichtes nicht genutzt werden. Zusammen mit den Verlusten durch die Verschaltung ergibt sich so, dass bei farbempfindlichen Sensoren nur 20 bis 25 Prozent des einfallenden Lichtes für die Aufnahme genutzt werden können. Sensoren ohne Farbfilter können hingegen über 90 Prozent des einfallenden Lichtes nutzen.

Mit in der Digitalkamera eingebauten Prozessoren wird so aus der Information der einzelnen Pixel das Bild interpoliert. Dies kann einige Artefakte hervorrufen, weil die Sensorfläche ja längst nicht überall für die Farbe des Lichtes empfindlich ist, die gerade dort auf den Sensor trifft. Besonders bei Motiven mit starken Kontrasten und Strukturen, die zufällig nahezu zum Schachbrettmuster der Sensorenpixel ausgerichtet sind, kann die Interpolation Ergebnisse liefern, die deutlich vom Motiv abweichen.

Prinzipiell könnte mit einen Anordnung in Bienenwabenform sowohl die Auflösung verbessert werden, als auch die Effizienz der Mikrolinsen – auch Artefakte ließen sich so reduzieren. Solche Bauformen sind derzeit allerdings (noch) nicht verfügbar. Die Herstellung der Sensoren wäre vermutlich deutlich aufwendiger, wie als auch die Algorithmen, die die Bilder erzeugen, die sich auf Monitoren darstellen lassen oder auch drucken lassen, wo bekanntlich immer eine schachbrettartige Anordnung von Pixeln angewandt wird.

Bei einer alternativen Bauart wird ausgenutzt, dass die Eindringtiefe des Lichtes in den Sensor von der Wellenlänge abhängt. Ähnlich wie beim Film liegen die farbempfindlichen Teile also hintereinander. Es wird also keine Bayer-Matrix benötigt und keine Filterung. Prinzipiell kann analog zu einem farbunempfindlichen Sensor nahezu das gesamte einfallende Licht genutzt werden. Kameras mit diesem Typ von Sensor werden derzeit von Sigma angeboten, sind derzeit aber technisch noch weniger ausgereift als die mit Bayer-Matrix und noch nicht für das Kleinbildformat verfügbar.

Anders als etwa bei Solarzellen wird die Energie des Lichtes bei den Sensoren nicht in elektrische Energie umgewandelt und so ein Signal erzeugt. In einem einfachen Modell kann man sich eher vorstellen, dass der Akku der Kamera ein Reservoir für Energie ist, wie eine Talsperre ein Reservoir für Wasser ist. Jeder Pixel ist in dem Bild ein Ventil, bei dem über die auftreffende Lichtmenge gesteuert wird, wie weit es auf ist. Bei geöffneten Ventil, wenn also Licht auf den Pixel fällt, fließen Elektronen in ein kleines pixeleigenes Reservoir. Über weitere Elektronik kann nun geschaltet werden, ob der Pixel überhaupt auf Licht reagieren soll und wann die Elektronen in seinem Reservoir ausgelesen werden sollen. Wie bei analogen Kameras wird aber bei technisch aktuellen digitalen Spiegelreflexkameras die Belichtungszeit immer noch mit einem mechanischen Verschluß gesteuert und nicht über die eine elektronische Ansteuerung des Sensors. Dies gibt es bei einigen etwas älteren digitalen Spiegelreflexkameras auch, ebenso wie bei Kompaktkameras. Die permanente Beleuchtung des Sensors erzeugt aber Probleme durch zusätzliche Abwärme und bei intensiven Motivbestandteilen wie der Sonne auch unerwünschte Artefakte (englischer Fachbegriff: Blooming), weswegen die elektronische Zeitsteuerung des Sensors in technisch aktuellen Kameras allenfalls noch ergänzend zum mechanischen Veschluß verwendet wird. Meist ist der Sensor aber gar nicht mehr zeitkritisch gesteuert oder nur noch beim sogenannten “Live-view” oder dem Video-Modus, auf den dann die Störungen und Artefakte begrenzt sind, während für die Photos selbst der mechanische Verschluß die Belichtungszeit bestimmt.

Nun muss dieses “Pixel-Ventil” nicht unbedingt perfekt dicht sein oder eine Fehlfunktion aufweisen, sodass auch zusätzlich zu der lichtabhängigen Elektronenmenge weitere Elektronen gesammelt werden können, die also gar nicht vorhandenes Licht vortäuschen. Dieser Effekt tritt für jeden Pixel unabhängig auf, hängt aber von Umwelteinflüssen, besonders der Temperatur des Sensors ab. Bei hoher Temperatur ist die Menge fehlerhaft gesammelter Elektronen größer. Um möglichst wenig fehlerhafte Elektronen zu sammeln, wird daher das Pixelreservoir direkt vor jeder Aufnahme geleert und möglichst schnell nach der Aufnahme ausgelesen. Die Menge der falschen Elektronen steigt damit grob proportional zur verwendeten Belichtungszeit, bei langen Belichtungszeiten wird also mehr von diesem Grundrauschen aufgesammelt als bei kurzen Belichtungszeiten.

Dies ist ein gänzlich anderer Effekt als der bekannte Schwarzschild-Effekt bei Filmmaterial, der dafür sorgt, daß bei langen Belichtungszeiten der Film etwas unempfindlicher ist als angegeben, also etwas großzügiger belichtet werden muß, als mit dem Belichtungsmesser bestimmt. Da dies ein systematischer Fehler ist, kann der erfahrene Photograph dies gut ausgleichen. Das Rauschen des Sensors ist hingegen ein zufälliger Fehler, der nur teilweise von der Kamera ausgeglichen werden kann, indem ein Durchschnittswert vom gemessenen abgezogen wird.

So oder so ist die Information aus dem Pixel auszulesen, der Betrieb des Sensors und vor allem das Auslesen benötigt also Energie. Diese resultiert letztlich in Abwärme im Sensor. Wärme, ob nun durch das Auslesen oder aus der Umgebung, führt zu zusätzlichem Rauschen, ist also unerwünscht, aber auch unvermeidbar. Der Effekt kann allerdings durch sinnvollen Umgang mit der Kamera reduziert werden. Auch die Empfindlichkeit wird über die Auslesespannung gesteuert. Hohe Empfindlichkeit führt also zwangsläufig zu mehr Rauschen. Die Pixelgröße entscheidet hingegen über die Empfindlichkeit bei gleicher Auslesespannung. Bei einem großen Pixel fällt mehr Licht ein, das Rauschen des Lichtes selbst wird damit besser gemittelt. Große Pixel sind also gut für scharfe, rauscharme Bilder. Entweder ist bei gleicher Auslesespannung mehr Licht pro Pixel da und sorgt damit für ein besseres Bild mit weniger Rauschen oder die Auslesepannung kann reduziert werden, um bei gleichem Signal das Ausleserauschen zu reduzieren. Der Abstand zwischen den Pixeln entscheidet hingegen über die Auflösung des Sensors. Ein kleiner Abstand sorgt also für hohe Auflösung. Ideal sind daher Sensoren mit relativ großen, dicht gepackten Pixeln.

Analoges Filmmaterial wird nicht ausgelesen, hat also auch kein Problem mit dem Auslöserauschen und ist auch nicht so empfindlich auf die Umgebungstemperatur, wenngleich eine hohe Umgebungstemperatur bei diesem irgendwann auch zu chemischen Veränderungen führen kann, allerdings eher erst bei Temperaturen, die auch dem Photographen schon unangenehm sein dürften. Dafür ist das Filmmaterial immer empfindlich, nicht nur während der Aufnahme. Wird die Kamerarückwand geöffnet, während sich der Film nicht in der Filmdose befindet, ist der Film nicht mehr brauchbar. Auch Röntgenstrahlung, etwa bei der Gepäckdurchleuchtung am Flughafen, kann den Film in der Dose belichten, weswegen man diese gerne in vergoldeten oder verbleiten Tüten transportiert. Ähnliches gilt für radioaktive Strahlung. Starke Strahlung kann natürlich auch dem Sensor und der Elektronik einer digitalen Kamera und auch dem Speichermedium ein vorzeitiges Ende bereiten, ist aber nicht so wahrscheinlich, daß die Kamera solcher Strahlung ausgesetzt wird. Auf Reisen braucht man allerdings auch seine digitale Kamera nicht röntgen zu lassen oder diese etwa zu einer Kernspintomographie mitnehmen, die der Kamera und der Speicherkarte vermutlich auch nicht bekommen wird.

Ein Problem kann sich bei digitalen Sensor zudem ergeben, wenn mittels sogenanntem 'Live-view' permanent direkt der Sensor auf dem Monitor der Kamera angeguckt wird, statt den optischen Sucher zu verwenden. Bei dieser Betriebsart wird der Sensor ständig mit Licht beleuchtet und ausgelesen, es wird somit deutlich mehr Abwärme produziert als bei einer einzelnen Aufnahme. Auch der Monitor sorgt für weitere Abwärme. All dies erhöht wiederum das Rauschen des Sensors - ebenso wie eine allgemein hohe Umgebungstemperatur.

Der Sensor der Digitalkamera ist also viel temperaturempfindlicher als klassisches Filmmaterial, erzeugt zudem selbst eine Menge Abwärme. Kühlung ist aufwendig und steht einem mobilen Einsatz entgegen. Prinzipiell ist es bei Studioaufnahmen aber natürlich möglich, die Kamera zu kühlen und damit das Rauschen zu minimieren.

Reihenaufnahmen produzieren ebenfalls eine Menge Abwärme, daher ist meist die Menge der Bilder einer Serie von der Kamera automatisch begrenzt. Das Problem ergibt sich bei analogen Kameras nicht, dafür ist dort der mechanische Transport des Films zeitkritisch, während das Auslesen des Sensors einer Digitalkamera mit leistungsfähigen Prozessoren und Zwischenspeichern heute meist weniger problematisch ist, bei etwas älteren Digitalkameras aber ebenfalls zeitkritisch sein kann. Zeitkritisch für Reihenaufnahmen ist auch das Abspeichern der Bilder. Zum einen müssen die Prozessoren der Kamera die Bilder schnell verarbeiten können, aber auch schnell abspeichern. Dazu können auch spezielle schnelle Speicherkarten erforderlich sein, mit denen dann die Kamera aber auch zusammenarbeiten können muss.

Der Sensor ist natürlich bei jeder Aufnahme derselbe. Staub kumuliert mit der Zeit auf ihm. Auch Pixelfehler können bei langer Betriebsdauer zunehmen. Die Reinigung des Sensors ist kompliziert und kann leicht zu Schäden am Sensor führen, daher empfehlen die Kamerahersteller, dies professionellem Personal zu überlassen. Faktisch ist dies ein bislang ungelöstes Problem von Digitalkameras mit Wechseloptik. Obgleich die Hersteller bei neueren Modellen versuchen, dies Problem mit Reinigungsmechanismen zu reduzieren, die versuchen, den Staub vom Sensor zu schütteln, funktioniert diese einfache Reinigung natürlich nicht perfekt. Helfen könnte letztlich nur eine komplette Verkapselung des Bereiches mit Verschluss und Sensor, etwa mit einem leicht zugänglichen und leicht zu reinigenden Zwischenfenster zwischen Spiegel und Verschluss. Allerdings ist dort der Platz sehr knapp - weswegen man gespannt sein kann, wie sich das Problem in Zukunft entwickelt.

Die Aufnahmen werden nach der Bearbeitung in den kameraeigenen Prozessoren dann auf einer wechselbaren Speicherkarte abgelegt. Ist die Staubverteilung oder die Verteilung von Fehlern den Prozessoren bekannt, können diese dies auf Kosten des Rauschens herausrechnen. Ist der Kamera ferner bekannt, welche Fehler das verwendete Objektiv hat, kann dies ebenfalls auf Kosten des Rauschens herausgerechnet werden. Dies ist nur teilweise ein Vorteil. Denn die Notwendigkeit dafür ist teilweise dadurch bedingt, dass bei den digitalen Sensoren das Licht möglichst senkrecht auf den Sensor fallen muss, bei Filmmaterial ist dies weniger kritisch. Gerade in den Randbereichen sind damit Probleme des Objektivs bei Digitalkameras eher sichtbar als bei solchen mit Filmen, erfordern also eher eine Korrektur.

Die Größe der Speicherkarte und die Anzahl der Pixel pro Bild und das Bildmotiv selbst entscheiden dann darüber, wie viele Bilder die Digitalkamera aufnehmen kann, bevor die Speicherkarte gewechselt oder geleert werden muss. Speicherkarten sind wiederverwendbar, es treten also keine Kosten auf, wenn sie voll sind. Die Bilder müssen nur an einem anderen Ort untergebracht werden, dann kann es weitergehen. Somit kann der Photograph also recht unbelastet experimentieren und kann auch Schnappschüsse in beliebiger Anzahl machen und dann zum selbstbestimmten Zeitpunkt nachgucken und entscheiden, welche Aufnahmen behalten werden sollen und welche gelöscht werden. Beides kann an der Kamera selbst durchgeführt werden oder auch erst später unabhängig von der Kamera am Computer.

Die Vorschau auf dem kleinen Monitor der Kamera mit eingebauter Vergrößerungsfunktion ermöglicht es, sich die Bilder direkt nach der Aufnahme anzusehen und so gegebenfalls bei unveränderlichen Motiven zu korrigieren und erneut bessere Aufnahmen zu machen. Experiment statt aufwendige Berechnung der korrekten Belichtung kann so eine Menge Zeit und Nerven sparen und fördert den Zugang zur Photographie auch für Menschen, die sich mit der Thematik nicht auskennen und nur das Bildergebnis nach ästhetischen Gesichtspunkten bewerten können. Diesen fällt es natürlich deutlich leichter, anhand des direkt sichtbaren Bildergebnisses mit weiteren Versuchen bessere Resultate zu erzielen, als bei Kameras mit Film vorsorglich nach Schätzung Reihenaufnahmen durchzuführen. Der Lerneffekt ist größer, wenn das Ergebnis sichtbar ist, wenn die Aufnahmebedingungen noch präsent sind.

Während es analoge Spiegelreflexkameras vor allem für das Kleinbildformat gibt, sieht dies bei digitalen Spiegelreflexkameras anders aus. In der Anfangsphase war es sehr schwierig bis unmöglich, so große Sensoren fehlerfrei herzustellen, weswegen die digitale Photographie zunächst eher bei Kompaktkameras und etwas später dann auch bei den etwas höherwertigen “Bridge”-Kameras eingesetzt wurde. Als Kompromiss kamen dann Spiegelreflexkameras mit kleineren Sensoren auf den Markt. Nun kann man sich diesen kleineren Sensoren auf verschiedene Weise für den Vergleich mit dem Kleinbildformat nähern. Eine korrekte und recht leicht verständliche Methode besteht darin, sich einfach vorzustellen, dass der kleinere Sensor sich mittig im gedachten Kleinbildformat befindet. Der Rand wird also beschnitten, das Bildfeld ist kleiner. Der für die Sensoren ohnehin etwas problematischere Randbereich wird ausgespart. Weil man mit den kleinen Sensoren immer nur einen Ausschnitt abbildet, ist dies besonders beim Einsatz von Weitwinkelobjektiven besonders störend, weil es dort ja gerade darauf ankommt, möglichst viel abzubilden und nicht nur den mittleren Bereich. Daher wurden für Kameras mit solchen Sensoren insbesondere spezielle Weitwinkelobjektive konstruiert, die dieses Problem kompensieren und die für Kameras mit Kleinbildformat nicht brauchbar sind.

In diesem Bereich wird auch viel mit “crop”-Faktoren und akrobatischen Umrechnungen argumentiert, um Vergleiche mit dem Kleinbildformat zu ermöglichen. Die Vergleiche hinken aber oft im Detail und in der Berechnung einiger bildwirksamer relevanter Größen. Daher ist es genauer von dem Bild auszugehen, dass nur ein Ausschnitt in der Mitte des Kleinbildformates aufgenommen wird. Wer an das Kleinbildformat gewöhnt ist, muss sich da etwas umgewöhnen, auch weil oft bei solchen Kameras mit kleinem Sensor das Sucherbild entsprechend kleiner ist.

Mittlerweise bieten einige Hersteller aber auch digitale Kameras im Kleinbildformat an. Weil der Sensor deutlich größer ist als der mit den kleineren, sogenannten APS- oder APS-C-Sensoren, haben solche Kleinbildformatkameras entweder eine deutlich höhere Empfindlichkeit durch größere Pixel oder entsprechend mehr Pixel oder eine Variation dieser Parameter. Einfach ausgedrückt gibt es einfach mehr Sensorfläche, also kann auch mehr Licht einfallen, was genutzt werden kann, um qualitativ-technisch bessere Bilder zu produzieren. Das trifft allerdings nur so einfach zu, wenn beim kleinen wie beim großen Sensor ansonsten die gleiche Technik verwendet wird, ansonsten können weitere Unterschiede in der Sensortechnik diesen Effekt noch überlagern.

Aus der kleineren Fläche ergeben sich jedenfalls ähnlich wie bei den Kompaktkameras mit noch kleineren Sensoren eher Probleme mit dem Rauschen oder der geringeren Empfindlichkeit bei gleichem Rauschen. Bei gleichem Objektiv werden die Randprobleme durch schrägen Lichteinfall allerdings eher vermieden, sodass für das Kleinbildformat entweder sehr gute Objektive verwendet werden sollten oder eben bei den kleineren Sensoren preisgünstige spezielle Objektive verwendet werden können, um letztlich auch mit dem kleineren Ausschnitt auf ähnliche Randprobleme zu stoßen.

Die Vorteile der Kameras mit kleinen Sensoren liegen also vor allem im Preis. Wirklich kompakter und leichter sind diese Kameras auch nicht, schon weil sie die gleichen oder zumindest sehr ähnliche Objektive verwenden. Eine Gewichts- und Größenoptimierung ergibt sich erst mit einem neueren Kameratyp, bei dem komplett auf optischen Sucher und Spiegel verzichtet wird. Erster Anbieter ist da Panasonic. Durch den kleineren Sensor und das Einsparen des Spiegelkastens ist es bei diesen Kameras auch möglich, für die kleineren Sensoren wirklich optimierte Objektive zu konstruieren, die kleiner und leichter als die von Kleinbildformatkameras sind. Allerdings ist man bei diesen Kameras dann gezwungen den kleineren Sensor über einen Monitor zu betrachten, mit den oben geschilderten Nachteilen bei einem solchen Vorgehen. Das ist natürlich nicht für alle Anwendungen optimal, kann aber eine Lücke füllen, wenn “Bridge”-Kameras nicht reichen, Wechseloptik notwendig ist, Kameras mit Kleinbildformat samt zugehöriger Objektive aber als zu groß oder schwer für die gewünschte Anwendung angesehen werden.

Ein besonderes Problem der digitalen Datenaufnahme im Allgemeinen kann man unter dem Stichwort “Abtastproblem” zusammenfassen. Bei einem digitalen Sensor wirkt sich das so aus, dass die Pixel nicht wirklich den kompletten Sensor abdecken, zwischen zwei Pixeln sind kleine Zwischenräume, insbesondere an den Ecken – auch werden dort die Mikrolinsen nicht so effektiv funktionieren wie in der Mitte des Pixels. Der Sensor ist also zwischen den Pixeln mehr oder weniger blind. Wird zudem eine Bayer-Matrix verwendet, so ist ein Pixel jeweils nur für einen Teilbereich des sichtbaren Lichtes empfindlich. Dies bedeutet letztlich, dass nur etwa 20 Prozent der Sensorfläche für rotes Licht empfindlich ist, 20 Prozent für blaues und 40 Prozent für grünes. Fimmaterial ist hingegen praktisch überall empfindlich und weist keine blinden Stellen auf.

Ist das Bild eines sehr hellen (einfarbigen) Motivbestandteiles nun also sehr klein und wird zufällig an eine dafür blinde Stelle des Sensors abgebildet, so kann es passieren, dass dieses Objekt gar nicht auf dem Bild erscheint oder mit viel geringerer Helligkeit als realistisch ist. Bei analogem Filmmaterial wird solch ein kleines Objekt dann eher breiter, etwa in Korngröße des Filmmaterials abgebildet, also im Zweifelsfalle eher verbreitert als gar nicht dargestellt. Wo gibt es so kleine Motivbestandteile? Sterne etwa, die digital aufgenommen bunter erscheinen können, als sie in Wirklichkeit sind oder eben auch gar nicht auf dem Bild erscheinen, wenn sie auf einen blinden Fleck abgebildet werden.

Auflösung und Maximale Bildgröße[Bearbeiten]

Bei analogen Kameras hängt die Auflösung bzw. die maximale Bildgröße ohne sichtbares Rauschen vom Filmmaterial ab. Mit normalempfindlichem, normalkörnigem Film (100 ISO) aufgenommene Dias können jedoch problemlos auf eine Kantenlänge von ein oder zwei Metern projeziert werden. Entsprechend lassen sich von Negativen und Dias Papierabzüge in ähnlicher Größe erstellen. Mit sehr feinkörnigem Film, welches eine niedrigere Empfindlichkeit hat (etwa 25 ISO) lassen sich gar Phototapeten erstellen, die ganze Zimmerwände dekorieren können.

Bei Filmmaterial macht sich die Auflösungsgrenze als Zufallsrauschen der Bildinformation bemerkbar. Teilweise wird besonders grobkörniger Film oder Papier verwendet, um dies als stilistisches Mittel einzusetzen. Auch bei starken Vergrößerungen, die das Rauschen sichtbar machen, wird dies also nicht generell als störend empfunden, das ist etwas anders als bei dem regelmäßigen Schachbrettmuster der digitalen Bilder, welches meist als sehr störend empfunden wird, wenn es sichtbar wird.

Bei Digitalkameras ist die Auflösung gegeben durch den Abstand der Pixel zueinander. Bei der Verwendung einer Bayer-Matrix ist die Auflösung für rote und blaue Pixel also um einen Faktor 1.4 schlechter als für grüne.

Generell ist bei der Auflösung zwischen verschiedenen Betrachtungssituationen zu unterscheiden. Dabei wird immer davon ausgegangen, dass das Bild (projeziert oder auf Papier oder Monitor) ohne weitere Hilfsmittel angesehen wird.

In der einen Situation verkürzt der Betrachter den Abstand zum Bild so weit, bis sein Auge gerade noch scharf sehen kann. In dieser Betrachtungssituation können auch Menschen mit sehr guten Sehvermögen keine Strukturen mehr auflösen, die unter 0.1 mm liegen, das erreichen meist nur Kinder, wo die Akkomodation des Auges optimal funktioniert. Ältere Menschen erreichen eher Werte um 0.2 mm bis 0.4 mm.

In der anderen Betrachtungssituation wird davon ausgegangen, dass der Betrachter den Abstand zum Bild so wählt, dass dieses komplett sichtbar ist. Der Betrachtungsabstand steigt also mit der Bildgröße. Entscheidend ist hierbei also nur der Betrachtungswinkel, nicht die absolute Größe des Bildes. Das Auflösungsvermögen des menschlichen Auges liegt bei etwa 0.5' bis 1', entsprechend also 1 mm auf 3 bis 6 m. Als Faustformel wird in der Photographie verwendet, dass in einer solchen Situation etwa 1/1500 der Bilddiagonale aufgelöst werden können. Das wird praktisch von jedem Filmmaterial erreicht und auch von digitalen Kameras, bei denen die kürzere Seite des Bildformates mindestens tausend Pixel erreicht.

In der ersten Betrachtungssituation oder bei Vergrößerungen, besonders bei der Betrachtung und Vergrößerung von digitalen Aufnahmen auf dem Monitor eines Computers, können deutlich höhere Auflösungen relevant sein. Typisch sind heute Sensoren mit in der Größenordnung von 4000 Pixeln pro Seitenlänge (bei kleinen Sensoren oder großen Pixeln eher für die lange Seite, bei großen Sensoren oder kleinen Pixeln eher für die kurze Seite). Bei Monitoren mit einer typischen Auflösung von 4 Pixeln pro Millimeter entsprechen 4000 Pixel also etwa einer Bildgröße von einem Meter, mehr als die meisten Monitore haben, es ist also nicht das komplette Bild darstellbar, die meisten Monitore kommen nicht über eine Darstellung von 2000 Pixeln insgesamt hinaus. Drucker haben hingegen eher eine Auflösung von 12 bis 24 Pixeln pro Millimeter, also ergeben die 4000 Pixel eine Bildgröße zwischen einem drittel bis einem sechstel Meter, das liegt typisch im Bereich von Papierabzügen. Für das menschliche Auge reicht allerdings wie oben beschrieben eine etwas geringere Auflösung, so dass eine Bildgröße von etwa einem Meter noch sinnvoll sein kann, ohne Artefakte der Pixelstruktur mit dem bloßen Auge erkennen zu können.

Während Negative oder Dias immer gleich groß sind, also das Kleinbildformat von 36mm mal 24mm, beschreibt sich die Größe von digitalen Bildern eher in Bytes als in Längenmaßen. Es werden etwa ein bis zwei Byte pro Pixel benötigt, das ergibt also bei einem Sensor mit 20 Millionen Pixeln eine Dateigröße von 20 bis 40 Megabyte. Allerdings ist diese Information komprimierbar. Oft wird das Bild mit verlustbehafteter Komprimierung im Format JPEG/JFIF abgespeichert, wobei man dann für solch ein Bild je nach Motiv bei der typischen Kompression durch die Kamera auf eine Größe von 2 bis 10 Megabyte kommt (ein stark verrauschtes Bild enthält dabei wenig redundante Information und ist schlecht komprimierbar). Die Speicherkarten liegen von den Längenabmessungen in der gleichen Größenordnung wie das Kleinbildformat, je nach Speicherkapazität kann man auf ihnen jedoch hunderte von Bildern abspeichern.

Bildkontrolle und Bildverfügbarkeit[Bearbeiten]

Wie im vorherigen Abschnitt schon angedeutet, wird mit analogen Kameras der Film komplett belichtet (“vollphotographiert”) und erst dann entwickelt. Erst danach ist das Bildergebnis sichtbar und kontrollierbar. Je nach Aktivität des Photographen können so zwischen einem Tag und Wochen oder Monaten zwischen der Aufnahme und der ersten Betrachtung liegen. Insbesondere bei längeren Zeiträumen sind Details über die Aufnahmesituation bereits vergessen, sofern nicht sorgfältig anderweitig notiert. Das erschwert das Lernen über die Kontrolle des Bildergebnisses und erfordert mehr Disziplin und Planung beim Photographieren als die unmittelbare Verfügbarkeit des Bildergebnisses bei der Digitalkamera. Digitalkameras zeichnen zudem die meisten technischen Daten wie Belichtungszeit, Blendenzahl, Empfindlichkeit, Brennweite, Blitzgerätnutzung, Datum und Zeit und Kamera-Typ, Pixelgröße etc. automatisch mit dem Bild als sogenannte EXIF-Daten auf, was dem Photographen die manuelle Aufzeichnung und Zuordnung erspart – mit Zubehör können sogar die per GPS ermittelten Koordinaten des Aufnahmeortes ermittelt und automatisch aufgezeichnet werden, um eine spätere Kontrolle und Zuordnung zu erleichtern. Bei analogen Kameras wurde bestenfalls über eine spezielle Rückwand Datum und Uhrzeit auf die Aufnahme belichtet, um die Zuordnung zu verbessern.

Bei Digitalkameras kann das Bildergebnis im Bedarfsfalle in einer grob aufgelösten Vorschau, dem sogenannten “Live-view” auch bereits vor der Aufnahme beurteilt werden, ebenso wie danach. Im Bedarfsfalle kann nach jedem einzelnen Bild dieses an einen Computer übertragen werden, bei einigen Modellen sogar mit Zubehör drahtlos per Funk. Eine ähnliche Übertragung des “Live-views” gestattet es auch, das Bildergebnis relativ einfach aus der Ferne zu beurteilen und die Kamera per Fernbedienung auszulösen. Bei analogen Kameras kann zumindest die Fernübertragung des Sucherbildes heute ebenfalls mit speziellem Zubehör erreicht werden, welches das Sucherbild aufzeichnet und überträgt, eignet sich auch für das Sucherbild von digitalen Spiegelreflexkameras und kann Vorteile gegenüber dem “Live-view” haben, weil dabei die Spiegelreflexkamera im normalen Betriebsmodus ist.

Die direkte Kontrolle des Bildergebnisses bei Digitalkameras ermöglicht es, bei sich nicht allzu schnell ändernden Szenarien Fehler zu korrigieren und weitere Aufnahmen mit optimierten Einstellungen zu machen. Dies war bei analogen Kameras allenfalls bei Sofortbildkameras möglich, deren Ergebnisse aber nicht mit denen von Spiegelreflexkameras vergleichbar sind und einem relativ schnell bemerkbaren Alterungsprozess unterlagen.

Der Kontrollmonitor der Digitalkamera reicht allerdings keinesfalls aus, um das komplette Bild mit voller Auflösung anzuzeigen. Entweder ist eine stark komprimierte Vorschau zu sehen oder ein kleiner Ausschnitt des Bildes. Die Anzeige ist zwischen den beiden extremen in Zwischenstufen einstellbar. Das Bild des “Live-view” entspricht zudem nicht exakt dem Betriebsmodus für die Aufnahmen, somit kann “Live-view” bereits helfen, Kontrastprobleme und massives Rauschen des Sensors zu identifizieren und zu vermeiden, bevor eine Aufnahme getätigt wird. Jedoch kann nur die detaillierte Untersuchung des Bildes nach der Aufnahme zeigen, wo Probleme im Detail auftreten – immerhin ist es anders als bei analogen Kameras bei digitalen überhaupt möglich, Eigenschaften des Sensors schon vor oder direkt nach der Aufnahme auf Probleme mit dem jeweiligen Motiv hin zu untersuchen. Bei analogen Kameras muss sich der Photograph hingegen auf seine Erfahrung verlassen und gegebenenfalls vorsorglich Reihenaufnahmen mit verschiedenen Parameterkombinationen durchführen, um problematische Situationen zu meistern. Bei sich zügiger ändernden Szenarien ist dies allerdings auch bei der digitalen Photographie notwendig, um nicht den “richtigen Moment” zu verpassen. Bei einmaligen Schnappschüssen ist hingegen natürlich immer Glück oder Erfahrung des Photographen notwendig, um gleich bei der ersten und einzigen Aufnahme ein gutes Resultat zu erzielen. Hier hilft es bei Digitalkameras auch, das Bild im Rohdatenformat der Kamera aufzunehmen, weil sich bei diesem später leichte Über- oder Unterbelichtungen noch ohne nennenswerte Qualitätsverluste kompensieren lassen. Letzteres kann bei Filmmaterial eine individuelle Behandlung im Entwicklungslabor erfordern oder bei einem Dia kann die Belichtung in einer Duplizierungseinheit vom Photographen später nachkorrigiert werden.

Präsentationsmöglichkeiten[Bearbeiten]

Hinsichtlich der Darstellung von Präsentation des Bildergebnisses gibt es diverse Unterschiede je nach verwendeter Technik.

Direkt und notfalls ohne weitere Hilfsmittel ist das Dia zugänglich, zur Betrachtung wird nur eine Lichtquelle benötigt, etwa heller Tageshimmel oder eine andere diffuse Lichtquelle mit sonnenähnlichem Spektrum, um das Dia im Durchlicht zu betrachten. Als einfaches Hilfsmittel zur Vergrößerung ist eine Lupe geeignet oder für Details gar ein Lichtmikroskop. Die gängige Methode der Präsentation erfordert allerdings einen Projektor mit eigener Lichtquelle, mit dem dann das Dia auf eine geeignete Projektionsfläche abgebildet wird. Auch solche Projektoren sind technisch eher einfach und naheliegend, ermöglichen zudem die Präsentation des Dias in voller Auflösung. Die technischen Hilfsmittel sind also einfach und überschaubar. Es braucht keinen großen technischen oder kulturellen Hintergrund, um Dias zu betrachten.

Negative im Durchlicht anzusehen, ist zwar auch möglich, da aber die Intensitäten invertiert sind und die Farben vertauscht, ist das Ergebnis eher unbefriedigend. Negative werden typisch dafür verwendet, um mit speziellen optischen Aufbauten lichtempfindliches Papier zu belichten. Dies geschieht in Photolaboren. Je nach frei wählbarer Größe der belichteten Fläche des Papiers kann sich so auch eine Darstellung in voller Auflösung ergeben. Das Bild auf Papier kann dann mit einfachen Lichtquellen im Auflicht betrachtet werden und erfordert dann keine weiteren Hilfsmittel mehr.

Bei digitalen Bildern erfordert die Darstellung deutlich mehr technischen Aufwand. Praktisch sind immer Computer/Prozessoren mit speziellen Programmen notwendig, um ein Bild darzustellen. Eine Darstellung kann mit Druckern, Monitoren und Projektoren erreicht werden. Die Auflösung von Druckern ist hoch genug, um das komplette Bild in voller Auflösung darzustellen, zumeist wird dafür farbige Tinte auf dafür geeignetes Papier gespritzt. Die maximal erzielbare Bildgröße richtet sich nach der Größe des Druckers und des Papieres. Für den Hausgebrauch sind Drucker erhältlich, die DIN A4 bedrucken können. Es gibt allerdings auch Drucker, die DIN A0 oder sogar größer drucken können.

Monitore haben meist deutlich weniger Pixel zur Darstellung, als in einem digitalen Bild verfügbar sind – typisch sind horizontale Kantenlängen in der Größenordnung von 1000 bis 2000 Pixeln. Zudem ist das Aspektverhältnis anders als beim typischen 3:2-Format einer Spiegelreflexkamera – gängig sind 4:3, 16:10 oder 16:9. Die Entwicklung der Monitorhersteller geht derzeit mehr in Richtung 16:9, was für die Darstellung von digitalen Bildern eher suboptimal ist. Somit ist es bei der Betrachtung auf dem Monitor also notwendig, das Bild entweder zu verkleinern, bis es komplett sichtbar wird, oder sich nur Ausschnitte anzusehen.

Anders als Diaprojektoren haben spezielle (Video-)Projektoren für digitale Bilder deutliche Probleme mit der Auflösung, was daran liegt, dass nicht nur einfache Optik verwendet wird, sondern, dass entweder ein Zwischenbild ähnlich einem Dia dynamisch mit digitaler Elektronik im Projektor erzeugt werden muss oder aber das Bild direkt pixelweise projeziert wird. Zwischenbild oder Projektion sind also pixelweise aufzubauen, was eine entsprechend aufwendige Elektronik und Optik beziehungsweise Optoelektronik im Projektor erfordert. Gängig sind Projektoren, die bestenfalls das für Videos gut geeignete HDTV-Format schaffen. Das Aspektverhältnis ist dann 16:9 und es werden 1920×1080 Pixel dargestellt, also ähnlich wie bei den Monitoren ein kleiner Ausschnitt in voller Auflösung oder ein verkleinertes Gesamtbild mit ungenutzten Rändern, weil das Aspektverhältnis nicht passt.

Zusammenfassend kann also festgestellt werden, dass für den Zugang zur Bildinformation bei digitalen Bildern erheblicher technischer Aufwand notwendig ist. Einzig bei den gedruckten Papierbildern ist der Zugang ähnlich einfach wie der bei den Papierabzügen von Negativen. Zur Erzeugung einer Darstellung aus dem Originalbild ist jedoch immer Computertechnik notwendig. Dem Datenträter ist nicht wie etwa bei einem Dia unmittelbar anzusehen, was er enthält. Somit muss formal gesprochen großes kulturelles und technisches Wissen implizit vorhanden sein, um die Bildinformation zu extrahieren. Implizit bedeutet hier allerdings, dass dies auch in Form geeigneter Geräte vorliegen kann und nicht explizit bei dem vorhanden sein muss, der sich die Bilder angucken will.

Filter[Bearbeiten]

Der Anwendungsbereich von analogen Kameras ist hinsichtlich des Spektrums des Lichtes deutlich breiter als das einer digitalen Kamera mit fest eingebautem Sensor, der für Farbaufnahmen im sichtbaren Bereich optimiert ist.

Demzufolge sollte eigentlich bereits der Kamerahersteller der digitalen Kamera dafür sorgen, dass Licht außerhalb des sichtbaren Bereiches, also insbesondere infrarotes und ultraviolettes, gefiltert werden, bevor dieses den Sensor erreicht. Weil teilweise aber auch Objektive verwendet werden, die auch noch für analoge Kameras mit ihrem breiteren Anwendungsspektrum ausgelegt sind, muss der Photograph da häufig nachbessern, insbesondere was die Sperrung von ultraviolettem Licht anbelangt. Wer im sichtbaren Licht photographieren will, dem ist zumeist ein Ultraviolett-Sperrfilter bei beiden Technologien zu empfehlen – oft dient dieser gleichzeitig als Schutz des teuren Objektivs.

Auch sonst wirken Filter bei beiden Systemen ähnlich. Allerdings kann es bei Polarisationsfiltern bei beiden Systemen Konflikte mit dem Autofokus und anderen Sensoren geben, weswegen da den Hinweisen im Handbuch zu folgen ist. Oft wird dort dann ein zirkularer Polarisationsfilter empfohlen.

Wenn überhaupt über den Ultraviolett-Sperrfilter hinaus gefiltert werden soll, sollte dies eher durch einen aufgeschraubten Filter als per Nachbearbeitung erfolgen. Bei Polarisationsfiltern ist der Effekt ohnehin nicht mit Nachbearbeitung zu erreichen, weil das aufgenommene Bild keine Information über die Polarisation des Lichtes enthält. Bei spektralen Filtern ist wiederum die Technik, wie Farbinformation in der Aufnahme gespeichert wird, so weit weg von der realen Verteilung des Motivs, dass eine definierte Filterung vor der Aufnahme immer besser ist als eine Nachbearbeitung, zumal dann die Belichtung gleich auf das gefilterte Motiv ausgelegt ist. Eine nachträgliche Bearbeitung bringt immer Qualitätseinbußen mit sich und ist bei Negativen bei der Erstellung von Papierabzügen aufwendig und bei Dias unüblich.

Im letzten Jahrhundert, teils auch unter dem Einfluss von Drogen wie LSD, sind auch spezielle Effektfilter auf dem Markt aufgetaucht, die demzufolge auch thematisch eher einen sehr begrenzten Einsatzbereich haben – diese sind natürlich auch bei beiden Kameratypen einsetzbar und auch bei der digitalen Nachbearbeitung nur schwer mit einfachen Computerprogrammen zu simulieren. Andererseits bieten einige Computerprogramme ähnlich ausgefallene psychedelische Effekte an, die sich dann natürlich eher für die Nachbearbeitung empfehlen und bei analogen Aufnahmen nicht verfügbar sind.

Bei den meisten Objektiven werden die Filter vorne am Objektiv in eine Schraubfassung geschraubt. Dabei ist der Filterdurchmesser relevant. Größere Filter können einfach mit Adaptern angeschraubt werden, kleinere als der Filterdurchmesser des Objektivs sind nur sehr eingeschränkt brauchbar, es ist bei diesen sorgfältig zu testen, ob sie nicht den Randbereich des Bildes abschatten (Vignettierung). Bei einigen Weitwinkelobjektiven und Fischaugenobjektiven kann sich der Einsatz von Filtern auch ausschließen, weil die vorderste Linse aus dem Objektivtubus vorsteht.

Besonders bei lichtstarken Teleobjektiven mit großer Frontlinse kommen statt der Schraubfilter eher Steckfilter zum Einsatz, die dann an geeigneter Stelle in einen Schacht im Strahlengang geschoben werden.

Bildbearbeitung an der Kamera[Bearbeiten]

Bei analogen Kameras ist keine Bildbearbeitung mit der Kamera selbst möglich. Bei einer digitalen Kamera kann vor der Aufnahme der Aufnahmemodus gewechselt werden oder ein Weißabgleich vorgenommen werden, um die Interpretation der Sensordaten durch die kameraeigenen Prozessoren zu optimieren. Einmal abgesehen von der Einstellung der Empfindlichkeit haben Einstellungen vor der Aufnahme aber keinen oder nur wenig Einfluß darauf, was oder wie der Sensor das Bild aufnimmt. Die Kamera bearbeitet vielmehr eher das Bild erst nach dem Auslesen aus dem Sensor. Etwa führt eine geringer eingestellte Auflösung nicht dazu, dass das Auslöserauschen reduziert wird, weil die einzelnen Pixel immer einzeln ausgelesen werden und erst danach gegebenenfalls im Prozessor im Rahmen der Interpolation gemittelt werden. Auch Einstellungen wie die Photographie in Grauwerten betreffen nur die Nachbearbeitung der Aufnahme nach der Belichtung und führen zu keiner optimierten Aufnahme selbst, wie das der Fall ist, wenn bei einer analogen Kamera ein für die Anwendung optimiertes Filmmaterial verwendet wird. Viele dieser Bearbeitungsmöglichkeiten an der digitalen Kamera sind also eher als Spielerei für den Laien anzusehen, die in der Praxis ansonsten praktisch nicht gebraucht werden.

Auch andere Bearbeitungsmöglichkeiten an der Kamera sind zwar teilweise möglich, lassen sich aber letztlich besser mit Programmen mit ähnlichen Funktionen auf dem Computer durchführen, weil dort einfach der größere Monitor eine bessere Kontrolle zulässt und kein Zeitdruck besteht wie in vielen Aufnahmesituationen. Um beste Resultate zu erzielen empfiehlt es sich also an der Kamera möglichst wenige Manipulationen des Bildergebnisses zuzulassen. Ausnahmen sind der Weißabgleich und die Berücksichtigung von Objektivfehlern und Sensorfehlern im Rahmen der Interpolation und die Kompression im Rahmen der Erstellung eines JPEG/JFIF. Ist eine Bearbeitung des Bildes geplant lohnt es sich jedenfalls immer das Bild im Rohdatenformat abspeichern zu lassen, weil dies weitergehende Bearbeitungen bei geringeren Qualitätsverlusten zulässt als das bei JPEG/JFIF der Fall wäre. Allerdings benötigt die Bearbeitung der Rohdatendatei auch speziellere Programme, die solch ein herstellereigenes Format überhaupt interpretieren können.

Weitergehende Bildbearbeitung[Bearbeiten]

Grundlage der Bildbearbeitung bei Filmmaterial sind die entwickelten Negative oder Dias. Diese dienen ähnlich wie die Bilder im Rohdatenformat der digitalen Kamera als Ausgangsmaterial für die Arbeit nach der Belichtung. Solches Ausgangsmaterial beinhaltet immer die meiste Information, daher sollte dies immer der Ausgangspunkt für jegliche Nachbearbeitung sein, weil jeder weitere Bearbeitungsschritt Qualtitätseinbußen mit sich bringt.

Auch bereits bei der Entwicklung der Negative und Dias können allerdings Optimierungen durchgeführt werden, etwa wenn der gesamte Film absichtlich oder versehentlich mit der falschen Einstellung für die Empfindlichkeit belichtet wurde. Dias eignen sich ferner auch zur direkten Ansicht mit Projektoren oder Lupen, Leuchttischen etc. und benötigen nicht unbedingt eine Nachbearbeitung.

Die Bildbearbeitung bei Filmmaterial und bei digitalen Formaten ist ansonsten grundverschieden.

Beim Filmmaterial kann etwa lichtempfindliches Photopapier belichtet werden. Die Eigenschaften des Papiers und die Art der Belichtung entscheiden über das Endergebnis. Typisch können hier ferner Masken eingesetzt werden und Farbfilter, Mehrfachbelichtungen mit mehrere Motiven und Photomontagen – letzlich steht die ganze Palette der Reproduktion im Labor an klassischer Optik und Wellenoptik zur Verfügung.

Die Nachbearbeitung von digitalem Material findet am Computer statt und benötigt keine speziellen Geräte wie die Nachbearbeitung von Filmmaterial im Labor. Spezielle Programme sind allerdings notwendig, um die proprietären Rohdatenformate der Kamerahersteller zu verarbeiten und zu konvertieren. Die gegebenenfalls von der Kamera ebenfalls oder alternativ erstellten Bilder im Format JPEG/JFIF sind hingegen mit vielen Programmen darstellbar und verarbeitbar, weil es sich dabei um einen gut implementierten internationalen Standard handelt. Allerdings beinhaltet ein Photo im JPEG/JFIF-Format weniger Bildinformation als das Rohdatenformat und eignet sich daher deutlich schlechter für eine Nachbearbeitung, ist also eher als bereits fertiges Endergebnis gedacht.

Für die Nachbearbeitung von digitalen Bildern bietet sich alles an, was die Mathematik zu bieten hat: Neben einfachen Änderungen an der Helligkeit oder der Farbverteilung, auch Drehungen im Farbraum sind das auch Matrizentransformationen der zweidimensionalen Ebene (insbesondere Drehung, Scherung, Translation, Skalierung, Spiegelung, aber auch beliebige Matrizen ohne besonderen Namen).

Auch eine Mittelung über verschiedene Bilder oder Motive ist hier leicht möglich, was bei analogen Kameras eher über Mehrfachbelichtungen desselben Filmmaterials erfolgt oder eben später bei der Erstellung des Papierabzuges durch Mehrfachbelichtung. Digitale Kameras verfügen daher, anders als manche analoge Kamera, gar nicht mehr eine Funktion für Mehrfachbelichtungen. Die Bildinformation wird immer zügig nach der Aufnahme aus dem Sensor ausgelesen.

Als weitere bedeutende Möglichkeit sei die Faltung genannt: Mit der können Kontraste erhöht oder vermindert werden und weitere beliebige Operationen durchgeführt werden, wo der Ergebnispixel jeweils aus dem Ursprungspixel und den umgebenden Pixeln berechnet wird.

Andere Verfahren widmen sich eher spezifischen Problemen der Photographie wie der Identifizierung von roten Augen bei schlechten Blitzlichtaufnahmen und der lokalen Reduktion des Rotanteils in diesen Bildbereichen oder der Identifizierung und Elimination von Artefakten des Sensores (“Hot-Pixel” etc.).

Bei einer anderen Variante der Nachbearbeitung dient als Vorlage eine Serie von Bildern, die verschieden belichtet wurden. Über die einzelnen Bilder wird dann gewichtet gemittelt. Damit gelingt es den Eindruck zu erwecken, dass die Kamera einen höheren Dynamikumfang besäße als wirklich vorhanden ist (HDR – high dynamic range). Es gibt auch Kamerahersteller, die eine ähnliche Funktion bereits in Kameras eingebaut haben. Der Hintergrund dafür ist, dass das menschliche Auge eine logarithmische Intensitätsempfindlichkeit hat, Filmmaterial und auch digitale Sensoren außerhalb des Sättigungsbereiches aber ungefähr linear auf einen Intensitätsanstieg reagieren. Dem Auge fällt es daher relativ leicht in einer Umgebung mit dunklen und hellen Partien Feinheiten in beiden Bereichen zu erkennen, ist also in der Lage, große Kontrastunterschiede zu verarbeiten. Bei einem Photo hingegen geht dies nur sehr eingeschränkt: entweder der helle Teil wird überbelichtet oder der dunkle unterbelichtet. Im jeweils fehlbelichteten Teil sind keine Feinheiten mehr zu erkennen. Bei einer Reihe von unterschiedlich belichteten Bildern kann man nun gewichtet über die Einzelbilder so geschickt mitteln, dass eine nichtlineare Dynamik entsteht, also sowohl im dunklen als auch im hellen Bereich noch Details erkennbar sind. Dies läßt sich gar ins Surrealistische steigern, über das hinaus, was man mit bloßem Auge in der Szenerie der Aufnahme gesehen hätte. Der Übergang vom korrigierten Photo zu einem Bild oder Kunstwerk, welches kein Photo mehr ist, ist hier fließend.

Eine Variante davon wird auch gerne verwendet, um unbewegliche Objekte von beweglichen zu separieren, etwa in einer Stadt Bauwerke von Passanten oder Autobahnen von den darauf fahrenden Autos. Durch die Mittelung kann es so gelingen, die beweglichen Anteile des Motives herauszurechnen. Bei der Aufnahme am Strand mit Wellen bewirkt die Mittelung eher eine diffuse, nebelartige Darstellung der Wellen im ansonsten scharf abgebildeten Umfeld des Strandes.

Die andere Anwendung der Nachbearbeitung mit eine Serie von Aufnahme als Ausgangsmaterial betrifft das Problem der begrenzten Schärfentiefe bei Photos mit Objektiven. Das Problem tritt übrigens nicht bei Lochkameras auf, denn dort sind alle Objekte des Motivs gleich scharf oder unscharf. Nun kann eine Serie aufgenommen werden, wo zwischen zwei Aufnahmen der Schärfentiefebereich um ein kleines Stück verlagert wird, sodass mit etwas Überlapp im Wesentlichen ein anderer Bereich des Motives scharf abgebildet wird. Mittels Fouriertransformation kann aus solch einer Photoserie dann ein Bild berechnet werden, welches über den ganzen Bereich der Photoserie scharf ist. Dies ist besonders in der Makrophotographie attraktiv, kann aber auch anderweitig relevant sein. Auch hier ist das (zumeist sehr eindrucksvolle) Ergebnis kein Photo im engeren Sinne mehr, kann aber sehr viele Details vermitteln, ähnlich wie eine detaillierte Zeichnung des Motivs oder eine Computergrafik.

Auch nichttriviale Transformationen und Kombinationen von Bildern sind möglich: Verwendung von Texturen und groben Bildmanipulationen, die im Ergebnis dem Cadavre Exquis des Surrealismus ähneln.

Einige Anwendungen der Nachbearbeitung von digitalen Aufnahmen gehen also deutlich darüber hinaus, was typisch für Filmmaterial realisiert wird. Einiges davon geht so weit darüber hinaus, dass das Ergebnis kein Photo mehr ist, sondern eine Computergraphik mit photographischem Ausgangsmaterial.

Bekannte, gemeinhin verfügbare Programme zur Interpretation und Manipulation von Rohdatenformaten diverser Kamerahersteller sind etwa UFRaw oder Rawstudio. Die Kamerahersteller bieten zudem meist auch gleich mit der Kamera Programme an, die mit dem jeweiligen Rohdatenformat der Kamera etwas anfangen kann. Oft sind jedoch nicht für jedes Betriebssystem Programmversionen verfügbar, oder solche, die etwa in Java realisiert sind und damit unabhängig vom Betriebssystem nutzbar sind oder auch als Quelltext einer Standardprogrammiersprache wie ansi-C vorliegen, damit sie der Anwender selbst kompilieren kann.

Für Standardformate wie JPEG/JFIF oder auch PNG gibt es hingegen zahlreiche Programme zur Bildbearbeitung. Besonders bekannt und für verschiedene Betriebssysteme frei verfügbar ist etwa GIMP (GNU Image Manipulation Program). Daneben gibt es diverse weitere kommerzielle Programme wie etwa Photoshop, die jedoch nur eingeschränkt nutzbar sind, weil sie nur auf bestimmten Betriebssystemen laufen.

Geräuschentwicklung[Bearbeiten]

Geräuschentwicklungen ergeben sich bei den Kameras vor der Auslösung durch den Autofokus, sofern vorhanden. Hinzu kommt gegebenenfalls noch der Bildstabilisator im Objektiv (oder in der Kamera, je nach Konstruktion).

Bei einfacheren Modellen von digitalen Kompaktkameras kann der Verschluss anders konstruiert sein als bei Spiegelreflexkameras und kann daher geräuschlos oder zumindest geräuscharm sein – bei einigen Kompaktkameras kann aber ein künstliches Auslösegeräusch über einen Lautsprecher ausgegeben werden.

Spiegelreflexkameras haben immer einen mechanischen Verschluss, der hörbar ist, dazu kommt das Geräusch des hochklappenden Spiegels.

Bei analogen Kameras mit motorischem Filmtransport ist zudem auch dieser noch eine Geräuschquelle.

Wer also möglichst leise photographieren will, hat mit digitalen Spiegelreflexkameras nur lei