Kdenlive/ Digitales Video

Aus Wikibooks

Digitales Video ist ein allgemeine Bezeichnung für -- bewegte oder unbewegte -- Bilder, die in ein für Computer verarbeitbares Format umgewandelt wurden. "Für Computer verarbeitbar" heißt dabei im Wesentlichen, dass die Bilddaten in Form von Zahlenreihen auf einem Speicher- oder Distributionsmedium wie Festplatte oder DVD abgespeichert werden, und dass sie von elektronischen Geräten mit Prozessoren gelesen und verändert werden können.

Im Digitalvideo fließen verschiedene technische Entwicklungen von den Anfängen der Fotografie und des Kinos über das Fernsehen und das analoge Video bis zur Computeranimation zusammen, Entwicklungen, die noch dazu global gesehen nicht einheitlich verlaufen sind. Unterschiedliche technische Normen und Standards sind entstanden, und es existieren von einander abweichende Begrifflichkeiten. Dieses Kapitel dient dazu, ein bisschen Licht in dieses Dickicht zu werfen, soweit es für die Arbeit mit digitalem Video relevant ist. Wenn Sie es genauer wissen wollen, finden Sie in jedem Abschnitt Verweise auf die entsprechenden Wikipedia-Artikel.


Digitales Video: Normen und Begriffe[Bearbeiten]

Digitale Videodateien können aus einer analogen Quelle, z.B. von einer VHS-Kassette, nachträglich erzeugt werden. Sie können aber auch von einer Kamera oder anderen Geräten ge"captured", also eingespielt werden, die die erforderliche Analog-Digital-Umwandlung intern durchführen und Video bereits im Digitalformat ausgeben. Schließlich lassen sich digitale Videodaten auch vollständig über einen Computer generieren, etwa Animationen mit CAD- und 3D-Programmen (z.B. Blender) oder Diashows aus computergenerierten Einzelbildern (z.B. Fraktalbilder) oder auch einfach nur Text, der auf einem Bildschirm gezeigt wird.

Einen Teil seiner Terminologie und seiner realen Eigenschaften hat das digitale Video also von den älteren analogen Systemen geerbt, die zur Fernsehübertragung benutzt worden sind. Manche Begriffe haben eine noch ältere Geschichte, die auf die Erfindung des Kinos um 1880 zurückgeht. Andere Eigenschaften hängen direkt mit der neuen Technologie zusammen. Wirklich ins Einzelne gehend können wir alle diese technischen Details hier nicht erklären, das würde zu weit führen. Über einige Dinge Bescheid zu wissen, macht jedoch manche wichtige Aspekte bei der Arbeit mit Kdenlive klarer und hilft Ärger zu vermeiden.

Bildrate[Bearbeiten]

Das menschliche Auge ist ein wunderbarer Apparat, aber er kann auch Täuschungen erzeugen. Das wussten schon die alten griechischen Philosophen, und das ist es auch, was gegen Ende des 19. Jahrhunderts das Kino möglich gemacht hat. Kino ist -- scheinbar zumindest -- die Projektion bewegter Bilder auf einen Schirm oder eine Leinwand, aber eben nur scheinbar. In "Wirklichkeit" sind die projizierten Bilder alle unbewegt. Sie werden jedoch in so rascher Folge hinter einander gezeigt, dass das Auge sie nicht mehr einzeln wahrnehmen, nicht mehr unterscheiden kann. Es entsteht die Illusion eines bewegten Bildes, um so eher, je mehr sich die Einzelbilder von einander nur um ein Weniges unterscheiden.

Dieser Effekt tritt ab ungefähr 14 Bildern pro Sekunde ein. In der Sprache der Kinoprofessionalisten wurden die Einzelbilder, die im Film an einander gereiht sind, Kader genannt, auf englisch Frame. Da auch das digitale Video aus hinter einander gezeigten Einzelbildern besteht, spricht man von frames per second (fps, Bildern pro Sekunde) oder von der Bildrate (Framerate, Bildwiederholrate), um ein Maß für die Ablaufgeschwindigkeit der Einzelbilder anzugeben.

Wie gesagt, verschmelzen für das Auge hinter einander folgende Einzelbilder mit einer Geschwindigkeit von mehr als 14 Bildern pro Sekunde zu einer fortlaufenden Bewegung. Die frühen Kinofilme haben noch genau mit dieser Minimalgeschwindigkeit gearbeitet, was manchmal holprig wirkt. Vor allem wenn schnelle Bewegungen abgefilmt werden, verbessern höhere Bildraten die Bewegungsillusion. Ab den 20er Jahren arbeiteten die meisten Kinofilme mit 24 Bildern pro Sekunde.

Als das Fernsehen entwickelt wurde, war eines der technischen Probleme, die es zu lösen galt, das Problem der Synchronisation der Bildrate zwischen Sender und Empfänger. Die Bilder wurden ja jetzt nicht mehr an eine passive Wand projiziert, sondern im Empfängergerät -- dem Fernseher -- entsprechend den übertragenen Anweisungen neu erzeugt, wobei eine feste Bildrate eingehalten werden musste.

Es gab damals (Angang der 50er Jahre des 20. Jahrhunderts) noch keine so exakten elektronischen Schaltkreise (zumindest wenn sie bezahlbar sein sollten), und das führte die Ingenieure dazu, auf einen einfachen Oszillator zurückzugreifen, der gebrauchsfertig aus jeder Steckdose kam -- auf die Frequenz des Wechselstrom.

Die Frequenz des vorhandenen Wechselstromnetzes diente also dazu, die Frequenz der Bildabfolge im Fernsehbild zu stabilisieren. In den meisten europäischen Ländern wurde Wechselstrom mit einer Frequenz von 50 Hz erzeugt. In Nordamerika kam (und kommt) er hingegen mit 60 Hz in die Steckdosen, und so kam es, dass sich die Bildraten fürs Fernsehen in den beiden Weltgegenden unterscheiden: 50 Hz, also 50 fps für PAL, 60  für NTSC (genau gesagt handelt es sich um die Halbbildrate, s. unten unter Zeilensprungverfahren).

PAL[Bearbeiten]

Das PAL-System wurde vom deutschen Elektronikkonzern AEG-Telefunken entwickelt und findet in vielen Ländern Europas, Südamerikas, Asiens und Afrikas Anwendung. Der Name kommt von Phase-Alternating-Line, was ein ziemlich geniales Verfahren der Entwickler war, um eine automatische Farbkorrektur im Fernseher möglich zu machen. Das führte im Englischen zur spaßhaften Erklärung von PAL als "pictures always loveable" (immer liebenswerte Bilder), während NTSC als "Never Twice the Same Color" (niemals zweimal dieselbe Farbe) apostrophiert wurde. Wenn Sie mehr über PAL wissen wollen, schlagen Sie PAL in der Wikipedia nach.

Obwohl insgesamt ein Verfahren zur analogen Fernsehbildübertragung, wird der Name PAL auch im Zusammenhang mit digitalem Video verwendet, bezeichnet hier aber nur mehr die Bildgröße und die Bildrate:

  • 352 × 288 Bildpunkte (Pixel) Bildschirmgröße (720 × 576 für DVDs)
  • 25 fps Bildrate

Es wurden freilich auch einige PAL-Varianten entwickelt, auf die das nicht zutrifft, so z.B. das PAL-M-System, das in Brasilien und in Laos Anwendung findet und das Farbkorrekturverfahren von PAL, jedoch Bildschirmgröße und Bildrate von NTSC übernimmt. Für uns im Zusammenhang mit digitalem Video bedeutet PAL aber immer 352 × 288 (bzw. 720 × 576) Pixel Bildschirmgröße und 25 fps Framerate.

NTSC[Bearbeiten]

NTSC ist ein Fernsehübertragungsverfahren, das vom National Television Standards Comittee (Bundesausschuß für Fernsehstandards) in den USA entwickelt wurde. Wie bei PAL ist damit eigentlich wieder ein analoges Verfahren gemeint, doch wurde der Begriff in die Terminologie des digitalen Video übernommen, um damit eine bestimmte Bilsgröße und Bildrate zu bezeichnen (eben die, die im NTSC-STandard mitstandardisiert wurde):

  • 352 × 240 Bildpunkte (Pixel) Bildschirmgröße (720 × 480 für DVDs)
  • 30 fps oder genauer 29,97 fps Bildrate

Die seltsame Bildrate (es sind ja nicht genau 30) macht es in digitalen Videoschnittprogrammen wie Kdenlive notwendig, einen für gewöhnlich Drop-Frame-Technik genannten Trick anzuwenden: alle 2 Minuten, nicht aber jede 10. Minute, werden zwei Kader (Frames, Einzelbilder) einfach unter den Tisch fallen gelassen. Damit kann die Videospur real mit 30 fps laufen. Ohne diesen Trick würde die Audiospur, die ja von vornherein mit 30 fps läuft, langsam aus der Synchronisation herausrutschen und nach ein paar Minuten nicht mehr mit den Bildern zusammenstimmen.

Seitenverhältnis[Bearbeiten]

Das Bildschirm-Seitenverhältnis ist das Verhältnis zwischen Bildschirmbreite und Bildschirmhöhe.

Es gibt zwei gebräuchlichere Formate:

  • 4:3 - Das ist das Standard-Format aus dem Zeitalter des analogen Fernsehens
  • 16:9 - Dies ist ein Format, das ursprünglich aus dem Kino kommt, es wird aber auch auf sogenannten Wide-Screen-Bildschirmen verwendet.

Wenn 16:9-Filme auf einem 4:3-Bildschirm gezeigt werden, müssen Sie also entweder auf beiden Seiten ein wenig abgeschnitten werden, oder sie werden so verkleinert, dass sie in der Breite passen, wofür dann ein schwarzer Balken oben und unten auf dem Bildschirm entsteht. Diese letztere Anzeigemethode wird oft als "Letterbox" (Briefkasten) bezeichnet.

Das Zeilensprungverfahren (Interlacing)[Bearbeiten]

Auch diese Eigenschaft digitaler Videobilder ist aus der Fernsehtechnik ererbt. Um Bandbreite bei der Fernsehübertragung zu sparen, wurde jedes Einzelbild in zwei Teilbilder zu zerlegt: das erste Teilbild bestand aus allen ungeradzahligen Bildzeilen, das zweite aus den geradzahligen Bildzeilen. Da das Material, mit dem die Bildröhre beschichtet war, eine gewisse Nachleuchtzeit hatte und nicht sofort wieder dunkel wurde, nachdem der Elektronenstrahl auf es getroffen war, fiel die Aufteilung nicht besonders ins Gewicht. Die "Vollbilder", die auf diese Weise zeitversetzt in zwei Schritten hinter einander erzeugt wurden, hatten immer noch ein Abfolgefrequenz von 25 Bildern pro Sekunde (30 bei NTSC), und das Auge konnte die Aufteilung nicht unterscheiden.

Diese Technik der Zerlegung eines digitalen Vollbildes in ein Teilbild mit den geradzahligen Bildzeilen und eines mit den ungeradzahligen heißt Zeilensprungverfahren oder Interlacing. Um das bei Interlacing sichtbare Zeilenflimmern zu unterbinden, wurden seit ca. 1990 Fernseher in "100 Hz-Technik" angeboten. Dabei wurden jeweils zwei Frames (Halbbilder) zwischengespeichert und mit doppelter Frequenz ohne Zeilensprung ausgegeben. Eine solche Videodarstellung ohne Zeilensprungverfahren bringt vor allem bei Standbildeinstellungen ("eingefrorenen Bildern") eine merkliche Qualitätsverbesserung. Manchmal kann es daher wünschenswert sein, Video mit Interlacing in Video ohne Interlacing umzuwandeln (oder umgekehrt).

Für mehr Informationen schlagen Sie bitte den Artikel über Interlacing in der Wikipedia nach.

Chrominanz und Luminanz[Bearbeiten]

Als das Farbfernsehen zu marktfähigen Preisen möglich wurde, standen in den Wohnzimmern der Leute schon eine ganze Menge Schwarzweißfernseher herum, die meist keine unbedeutende Anschaffung gewesen waren. Die aus abstrakter Sicht naheliegende Idee, das Farbfernsehen mit drei Einzelsignalen für jede der drei Grundfarben (Rot, Grün und Blau) zu übertragen, hätte bedeutet, dass diese Geräte das Signal gar nicht verarbeiten hätten können, und nicht nur statt dem möglichen Farbbild bloß ein Schwarzweißbild, sondern gar kein Bild angezeigt hätten. Außerdem wäre die Übertragung dreier Farbsignale auch aus technischer Sicht unpraktikabel gewesen, da die analoge Übertragung ohnehin schon sehr bandbreitenintensiv war. 3 Signale hätten in einen normalen, 6 MHz breiten TV-Kanal gar nicht hinein gepasst. Man kam also gar nicht erst auf die Idee, die Leute zu einem Neukauf zu zwingen, sondern passte die neue Technologie an die vorhandenen Geräte an.

Die bestechende Lösung, die man für das Problem fand, war wieder einmal eine, die aus der Beschränkung des menschlichen Auges Nutzen zog. Die Ingenieure entwickelten ein auf Substraktion beruhendes Farbsystem, das als YUV (für analoges PAL) bzw. YCbCr (für digitales PAL) bezeichnet wird (im Gegensatz zu dem additiven RGB-System).

Der Hauptanteil eines analogen Farbfernsehsignals besteht demnach aus sog. Luminanz, durch welche die Helligkeit der Anzeige definiert wird (von ganz dunkel = schwarz bis ganz hell = weiß). Genau das brauchen die Schwarzweißgeräte, um weiterhin brauchbar zu bleiben. Die zusätzlichen Färbungsinformationen werden von diesen einfach weggelassen, von den Farbfernsehern aber verarbeitet. Diese zusätzlichen Signale heißen Chrominanz. Sie definieren die Abtönung des vollen Weiß in eine bestimmte Richtung, vorstellbar wie ein vor das Weiß geschobener Filter. Das wurde mit ein bisschen Farbberechnung im Empfangsgerät erledigt. Wenn die Mischung aller Farben mit maximaler Helligkeit Weiß ergibt, und Weiß gleichzeitig das Ergebnis maximaler Luminanz ist, dann konnte man Farbentöne durch Subtraktion der Chrominanzwerte vom Luminanzsignal erzeugen.

So nebenbei benötigte diese Technik, die ja für das analoge Fernsehen entwickelt worden war, relativ wenig zusätzliche Bandbreite. Obwohl digitales Video vollständige Farbinformationen bei geringerer Bandbreite erlaubt, wurde das YCC-Schema beibehalten. Auf diese Weise sind höhere Kompressionsraten möglich.