Video - Vertiefung

Die Informationen f√ľr Bild und Ton von Videos werden jeweils in einem eigenen Format gespeichert, dem sogenannten Codec, welche in einem Containerformat zusammengef√ľhrt werden.

Das Bildformat von Videodateien ist nicht nur von der Anzahl der Pixel, sondern auch von dem Seitenverhältnis abhängig. Analog zu Rastergrafiken werden Videos in einem Farbraum mit einer bestimmten Farbtiefe gespeichert. Eine Besonderheit dabei ist die Farbunterabtastung, die zur verlustbehafteten Reduzierung der Datenmenge angewendet werden kann. Die Datenmenge ist außerdem von der Bitrate abhängig, die variabel oder konstant sein kann.

Containerformat

video_container.png

Das Containerformat Matroska enth√§lt einen Video- und zwei Audiostreams. Die Punkte deuten an, dass weitere Inhalte m√∂glich sind. Der verwendete Codec f√ľr den Film ist FFV1, der f√ľr beide Tonspuren FLAC.
Das Containerformat Matroska enth√§lt einen Video- und zwei Audiostreams. Die Punkte deuten an, dass weitere Inhalte m√∂glich sind. Der verwendete Codec f√ľr den Film ist FFV1, der f√ľr beide Tonspuren FLAC.
In der Regel handelt es sich bei Multimediaformaten, zu denen Videodateien z√§hlen, um Containerformate, die mehrere verschiedene Inhalte zusammenfassen. Zu den Inhalten geh√∂rt neben dem eigentlichen Bildinhalt auch begleitender Ton. Zus√§tzlich k√∂nnen Untertitel, strukturierende Angaben, wie etwa Kapiteleinteilungen, oder allgemeine Metadaten enthalten sein. Dabei wird jeder dieser Inhalte in einem eigenen Format gespeichert. Formate f√ľr die visuellen und auditiven Inhalte werden Codecs genannt. In der nebenstehenden Abbildung ist ein Videocontainer mit einem Video- und zwei Audiostreams veranschaulicht.

Es gibt eine gro√üe Zahl an Containerformaten, die f√ľr unterschiedliche Anforderungen entwickelt wurden und daher auch jeweils einen unterschiedlichen Funktionsumfang aufweisen. Beispielsweise k√∂nnen manche Formate, wie beispielsweise Motion JPEG 2000, nur mit einem oder wenigen Codecs umgehen, w√§hrend andere Formate, wie etwa Matroska (MKV), so gut wie jeden existierenden Video- und Audiocodec speichern k√∂nnen. Das bedeutet auch, dass eine MKV-Datei nicht gleich einer anderen MKV-Datei ist, da sie unterschiedliche Codecs enthalten kann.

Ob eine Mediendatei ge√∂ffnet und wiedergegeben werden kann h√§ngt nicht nur davon ab, ob das verwendete Wiedergabeprogramm mit dem Containerformat umgehen kann, sondern auch, ob die verwendeten Codecs unterst√ľtzt werden. Die Dateiendung gibt dabei nur √ľber das Containerformat Auskunft, w√§hrend die darin enthaltenen Codecs erst durch √Ėffnen der Datei oder mittels Analyseprogrammen ermittelt werden k√∂nnen.

Das Zusammenf√ľhren der einzelnen Komponenten in ein Containerformat wird als Multiplexing oder Muxing bezeichnet, w√§hrend das Aufsplitten der Inhalte eines Containers Demultiplexing oder Demuxing genannt wird.

Codec und Kompression

video_transcodierung.png

Ablauf einer Transcodierung. Die Quelldatei wird entpackt (Demultiplexing). Die einzelnen Video- und Audioinhalte werden zunächst decodiert und anschließend im Zielcodec codiert. Schließlich werden die Einzelinhalte in der Zieldatei verpackt (Multiplexing).
Ablauf einer Transcodierung. Die Quelldatei wird entpackt (Demultiplexing). Die einzelnen Video- und Audioinhalte werden zunächst decodiert und anschließend im Zielcodec codiert. Schließlich werden die Einzelinhalte in der Zieldatei verpackt (Multiplexing).
F√ľr die Speicherung der eigentlichen Film- und Toninhalte von Videos in den Containerformaten gibt es eigene Codecs, die definieren wie die Datenstr√∂me gespeichert und gelesen werden.

Der Begriff Codec setzt sich aus den englischen Wörtern coder (Codierer) und decoder  (Decodierer) zusammen. Die Konvertierung von einem Codec in einen anderen wird Transcodierung genannt und wird schematisch in der nebenstehenden Abbildung dargestellt.

Codecs bieten immer eine Kompression der Daten, die entweder verlustbehaftet oder verlustfrei erfolgen kann. Dabei verwenden die Codecs unterschiedliche Verfahren an, die grob in Intraframe- und Interframe-Kompression unterteilt werden k√∂nnen. Intraframe-Kompression beschr√§nkt sich auf die Komprimierung der Daten eines Einzelbildes, w√§hrend bei der Interframe-Kompression √ľber eine ganze Videosequenz hinweg komprimiert wird. Letzteres hat den Nachteil, dass eventuell auftretende Fehler nicht nur ein Einzelbild, sondern eine ganze Sequenz an Bildern korrumpieren.

Die einzelnen Codecs werden durch einen FourCC (Four Character Code) im Header der Datei oder des Dateiteils identifiziert. Es handelt sich dabei um einen vier Byte langen Bezeichner, der aus ASCII-Zeichen besteht und somit auch f√ľr Menschen lesbar und erkennbar ist, wie beispielsweise FFV1 f√ľr FFV1 oder MJ2C f√ľr Motion JPEG 2000.

Videodaten k√∂nnen auch unkomprimiert in einem Container gespeichert werden, jedoch muss dabei beachtet werden, dass es verschiedene Varianten gibt, die nicht unbedingt untereinander kompatibel sind und im schlechtesten Fall sogar nur von spezifischen Programmen verarbeitet werden k√∂nnen. Daher sind zumindest weitere Angaben √ľber Farbtiefe, Aufl√∂sung und Bildfrequenz erforderlich. Der Nachteil von unkomprimierten Videodateien ist, dass sie sehr viel Speicherplatz (teilweise mehrere GB pro Filmminute) beanspruchen.

Da nicht jeder Codec in jedem Container verwendet werden kann, hängt die Wahl des Codecs von dem zu verwendenden Containerformat ab.

Bildgröße und Seitenverhältnis

F√ľr die Bildgr√∂√üe von digitalen Videos gilt im Prinzip das Gleiche, wie f√ľr die Bildgr√∂√üe von Rastergrafiken, die in dem Abschnitt Bildgr√∂√üe und Aufl√∂sung beschrieben wird.

Zusammen mit der Bildgr√∂√üe sollte immer das Seitenverh√§ltnis angegeben werden, da aufgrund des analogen Ursprungs von einigen Videoformaten die Pixel nicht in jedem Fall quadratisch sind und f√ľr die Darstellung entsprechend umgerechnet werden m√ľssen. Das Seitenverh√§ltnis bezieht sich auf die Darstellung des Bildes und wird als Verh√§ltnis von Breite zu H√∂he angegeben, wie beispielsweise 4:3 f√ľr SD PAL.

Wenn ein analoges Video digitalisiert wird, muss darauf geachtet werden, dass das urspr√ľngliche Bild nicht verzerrt oder beschnitten wird, also das Seitenverh√§ltnis gleich bleibt. Bei der Wiedergabe kann das Bild in das Format des Wiedergabemediums durch sogenanntes Pillarboxing eingef√ľgt werden, wobei schwarze R√§nder in Kauf zu nehmen sind. Ein typisches Beispiel hierf√ľr ist die Wiedergabe von Videokassetten mit dem Verh√§ltnis 4:3 auf Breitbildmonitoren mit einem Seitenverh√§ltnis von 16:9.

video_4-3zu16-9.png

Das Bild links im Seitenverh√§ltnis 4:3 wurde rechts mittels Pillarboxing in das Seitenverh√§ltnis 16:9 √ľbertragen, wodurch links und rechts davon schwarze Balken zu sehen sind. (Blender Foundation)
Das Bild links im Seitenverh√§ltnis 4:3 wurde rechts mittels Pillarboxing in das Seitenverh√§ltnis 16:9 √ľbertragen, wodurch links und rechts davon schwarze Balken zu sehen sind. (Blender Foundation)

Farbinformationen

Was Farbtiefe und Farbraum bedeutet, wird in dem Kapitel √ľber Rastergrafiken in dem Abschnitt Farbtiefe und in dem Abschnitt Farbmodell und Farbraum erl√§utert.

Speziell f√ľr die Farbdarstellung auf selbstleuchtenden Ger√§ten wurden eigene Farbmodelle entwickelt, zu denen YUV, YCbCr und YPbPr mit jeweils drei Kan√§len geh√∂ren. Dabei beschreibt der erste Kanal, das Y, die Helligkeit der einzelnen Bildpunkte (Luma oder auch Luminanz). Der Y-Kanal wird somit f√ľr die √úbertragung eines Schwarz-Wei√ü-Bildes verwendet. Der Farbanteil (Chroma oder Chrominanz) wird jeweils mit den zwei √ľbrigen Kan√§len (U & V, Cb & Cr oder Pb & Pr) repr√§sentiert.

video_YUV-YCbCr.png

Links die Aufteilung eines Bildes in die drei Kanäle Y, U und V. Auf der rechten Seite wurde das Bild in die drei Kanäle Y, Cb und Cr aufgeteilt. (Wikimedia Commons)
Links die Aufteilung eines Bildes in die drei Kanäle Y, U und V. Auf der rechten Seite wurde das Bild in die drei Kanäle Y, Cb und Cr aufgeteilt. (Wikimedia Commons)

Da das menschliche Auge Farben im Vergleich zu Helligkeiten schlechter aufl√∂sen kann, wird eine Reduzierung in der Aufl√∂sung von Farbanteilen schlechter wahrgenommen. Wenn also der Y-Kanal vollst√§ndig √ľbertragen wird, w√§hrend die beiden Farbkan√§le jeweils reduziert √ľbertragen werden, ist optisch f√ľr den Menschen kein Unterschied in der Sch√§rfe feststellbar. Diesen Umstand macht sich die Farbunterabtastung (engl. chroma subsampling) zunutze, die im Folgenden und in der untenstehenden Abbildung kurz erl√§utert wird.

Farbunterabtastung wird meist durch drei Zahlen dargestellt, die jeweils mit einem Doppelpunkt voneinander getrennt werden, wie beispielsweise 4:2:0. Die erste Ziffer bezieht sich auf die Luminanz, die als Referenz f√ľr die weiteren Ziffern verwendet wird. Es handelt sich dabei √ľblicherweise um eine Vier.

Die zweite Ziffer beschreibt die horizontale Abtastung beider Farbkanäle im Verhältnis zur Luminanz. Handelt es sich dabei um eine Vier, wird die Chrominanz vollständig abgetastet, während eine Zwei bedeutet, dass die Chrominanz in der Horizontalen nur halb so oft, wie die Luminanz abgetastet wird.

Die dritte Ziffer bezieht sich auf die vertikale Abtastung. Wenn die dritte Ziffer gleich der zweiten Ziffer ist, wird keine vertikale Farbunterabtastung angewendet. Wenn die dritte Ziffer eine Null ist, findet eine vertikale Farbunterabtastung im Verhältnis 2:1 beider Farbkanäle statt.

Eine vierte Ziffer, die immer den gleichen Wert der ersten Ziffer hat, wird verwendet, wenn zusätzlich Transparenz kodiert werden soll.

video_farbunterabtastung.png

Schematische Darstellung der Farbunterabtastung. Bei 4:4:4 werden die Informationen aller drei Kanäle vollständig abgetastet. Bei 4:2:2 wird der Y-Kanal vollständig und im U- und V-Kanal jeweils nur jeder zweite Pixel jeder Zeile gelesen. Bei 4:2:0 wird der Y-Kanal ebenfalls vollständig gelesen, während die Farbkanäle U und V jeweils nur zur Hälfte in der Horizontalen und in der Vertikalen gelesen werden, also nur jeder zweite Pixel in jeder zweiten Zeile. Werden die drei Kanäle zusammengerechnet, weisen die Gesamtbilder optisch kaum sichtbare Unterschiede auf.
Schematische Darstellung der Farbunterabtastung. Bei 4:4:4 werden die Informationen aller drei Kanäle vollständig abgetastet. Bei 4:2:2 wird der Y-Kanal vollständig und im U- und V-Kanal jeweils nur jeder zweite Pixel jeder Zeile gelesen. Bei 4:2:0 wird der Y-Kanal ebenfalls vollständig gelesen, während die Farbkanäle U und V jeweils nur zur Hälfte in der Horizontalen und in der Vertikalen gelesen werden, also nur jeder zweite Pixel in jeder zweiten Zeile. Werden die drei Kanäle zusammengerechnet, weisen die Gesamtbilder optisch kaum sichtbare Unterschiede auf.

Datenrate

Die Datenrate, gibt an wie viele Daten in einer bestimmten Zeitspanne √ľbertragen oder gelesen werden. Bei digitalen Videos wird die Datenrate in Bits pro Sekunde gemessen, weshalb hier auch von Bitrate gesprochen wird.

Wenn eine konstante Bitrate (constant bitrate, CBR) angewendet wird, wird pro Sekunde immer die gleiche Datenmenge √ľbertragen, was zur Folge haben kann, dass komplexe Bildinhalte an Qualit√§t verlieren. Bei der Anwendung einer variablen Bitrate (variable bitrate, VBR) variiert die Menge der √ľbertragenen Daten je nach Komplexit√§t des Bildinhaltes, was eine h√∂here Bildqualit√§t zur Folge hat. Da bei der VBR ruhige und einfache Bild√ľberg√§nge und -inhalte mit einer niedrigen Datenrate gespeichert werden, kann der Speicherplatzverbrauch verringert werden.

In den meisten Codecs wird eine variable Bitrate verwendet.

Letzte Änderung: 12. September 2016