Format, Top-Story: 07.03.2013

Pandora 2013: Immer mehr Codecs und HD-Formate

Eine der Herausforderungen in der digitalen Kamerawelt und der filebasierten Postproduktion besteht darin, möglichst hohe Bildqualität mit möglichst kleinen Datenraten zu erzielen. Zu diesem Zweck werden zahlreiche Codecs eingesetzt, die mit Hilfe von Analysefunktionen und Rechenvorschriften (Algorithmen) die Datenflut reduzieren. Dieser Beitrag geht auf Codecs, Containerformate und File-Systeme ein, die aktuell im HD-Bereich eingesetzt werden.

B_0213_Cubics_ShutterstockTranskodierung ist die Geißel des digitalen Videozeitalters: Selbst wenn moderne Verfahren denn Qualitätsverlust minimieren, bleibt immer noch der Zeitaufwand, den das Wandeln vom einen ins andere Format verlangt. Schon allein deshalb lohnt es sich Workflows so aufzusetzen, dass möglichst wenige Transcoding-Schritte erforderlich sind.

Der eine oder andere kennt die Situation: Da sitzen Leute aus der Branche bei einem Workshop oder einer Präsentation zusammen und diskutieren über aktuelle Trends und Tendenzen in der Aufzeichnung. Sehr oft erreicht die Diskussion dann einen Punkt, an dem ein Teil der Anwesenden Mühe hat, angesichts der zahllosen Begriffe und Schlagworte überhaupt noch zu folgen, während ein anderer Teil der Diskutanten mit Vehemenz, bis hin zur Verbissenheit, um die Feinheiten aus dem Reich der Bits und Bytes streitet. Die einen haben dann schon längst innerlich auf Standby geschaltet, wenn sich die anderen Theoreme aus Mathematik und Nachrichtentechnik um die Ohren hauen, um zu belegen, dass die eine oder andere Form der Aufzeichnung absolut nichts tauge.

Dazwischen stehen die Pragmatiker, an die sich dieser Artikel wendet: Leute, die einfach nur eine Lösung brauchen, die funktioniert – und das dafür nötige Basiswissen, um die richtige Entscheidung treffen zu können, ohne sich in die Hände irgendwelcher Digital-Taliban begeben zu müssen, die fanatisch an der einen Technologie hängen und alle anderen verdammen.

Lassen Sie sich nicht ins Bockshorn jagen: Die Zeiten ändern sich, es gibt überaus rasche Entwicklungen, es spielen viele Kriterien eine Rolle — und wenn man das Ganze einigermaßen pragmatisch betrachtet und angeht, muss man sagen, dass heutzutage der Einsatz unterschiedlichster Produktionstechnik am Ende zu guten Ergebnissen führen kann. Damit soll keineswegs gesagt sein, dass es keine relevanten Unterschiede zwischen den verschiedenen Codecs und Formaten gäbe und dass es ganz gleichgültig sei, wofür man sich entscheidet — ganz im Gegenteil.

Die Frage sollte aber vielleicht eher lauten, ob man auch den optimalen und effizientesten Weg zum Ziel geht — das ist auch gleichzeitig die wichtigste Workflow-Frage schlechthin. Eine gute, bewährte Methode, sich dem Ideal anzunähern, besteht darin, zunächst mal vom gewünschten Endergebnis auszugehen.

Was will ich am Ende haben und was muss ich dafür am Anfang der Produktionskette an Qualität bereitstellen? Die Grundregel ist dabei ziemlich simpel: Was am Anfang nicht aufgenommen wurde, steht in der Postproduction und im End­ergebnis auch nicht mehr zur Verfügung — und diese Tatsache kann allenfalls mit viel Aufwand und Mühe kaschiert werden. In der Postproduktion kann man letztlich nur dafür sorgen, dass das, was man hat, möglichst gut aussieht. Wer etwa im Camcorder Signale mit geringem Kontrastumfang, 8 Bit Quantisierung, reduziertem Farbraum und niedriger Datenrate aufzeichnet, der sollte sich lieber nicht darauf verlassen, den gewünschten Look erst in der Postproduction und im Grading erreichen zu können. Sprich: Wer in AVCHD aufnimmt, kann nicht die Möglichkeiten von Raw-Material erwarten – aber er kann dafür einen preisgünstigen, kompakten Camcorder einsetzen, mit kostengünstigen, bestens verfügbaren Speichermedien. Und wenn er damit ein Bild aufnimmt, dessen Look schon relativ nah am Endergebnis liegt, dann spricht absolut nichts dagegen, so zu verfahren.

Kurzum: Es geht bei der Wahl des richtigen Produktionssystems um mehr als um einen Codec, ein Format, die Quantisierung oder das Sampling: Der ganze Workflow muss stimmen.

Ein paar Grundlagenfragen dazu: Gibt mir das gewählte System ausreichend Sicherheit und Flexibilität beim Dreh, beim Sichten und in der Nachbearbeitung — und kann ich mir die Folgekosten leisten? Wirkt das System zukunftssicher? Die Aussicht mit langen Amortisierungszeiträumen planen zu können, haben viele Endkunden mittlerweile ohnehin aufgegeben, aber wer investiert, sollte sich zumindest noch ein bisschen in der Sicherheit wähnen können, dass er das investierte Geld (idealerweise natürlich mehr) auch wieder einspielen kann.

Aber welches ist denn nun der bes­te Codec? Gegenfrage: Für welchen Zweck? Als grobe Richtschnur und Tendenz kann aber sicher gelten: Ein Signal mit einer Videodatenrate von 200 Mbps und einem Abtastverhältnis von 4:4:4 kann eine höhere Bildqualität aufzeichnen, als eines mit 100 Mbps und 4:2:2, das wiederum mehr Qualität erlaubt, als 4:2:0 mit 25 Mbps – aber es kommt eben auch auf den jeweils verwendeten Codec an.

Codecs im Überblick

AVC-Intra/H.264

Sonderform von MPEG-4, Part 10
Umgesetzt in P2HD von Panasonic.
AVC-Intra/H.264 ist ein HD-Kompressionsverfahren, das auf H.264 basiert, aber anders als das Consumer-Format AVCHD nur Intraframe-Kompression durchführt, also immer nur innerhalb eines Bildes komprimiert.
Panasonic nutzt AVC-Intra in P2HD-Geräten, weil dieses Verfahren effektiver ist, als der früher von Panasonic hier ausschließlich genutzte DVCPROHD-Codec: Das ermöglicht gleiche Bildqualität bei geringerer Datenrate oder bessere Bildqualität bei gleicher Datenrate.
AVC-Intra gibt es in den Varianten AVC-I 100 und AVC-I 50:
•    AVC-I 100 arbeitet mit 10-Bit-Quantisierung, 4:2:2 und den Auflösungen 1.920 x 1.080 sowie 1.280 x 720. Die Datenrate liegt bei 112 Mbps.
•    AVC-I 50 arbeitet mit 10-Bit-Quantisierung, einer Abtastung von 4:2:0 und den Auflösungen 1.440 x 1.080 und 960 x 720. Die Datenrate liegt bei 54 Mbps. Aufgrund der Abtastung von 4:2:0 ist AVC-I 50 aus der Sicht einiger Sender nur eingeschränkt nutzbar.
•    Panasonic setzt DVCPROHD und AVC-Intra derzeit noch parallel ein, auf absehbare Zeit dürfte AVC-Intra aber DVCPROHD ablösen.

AVC-Ultra

Sonderform von MPEG-4, Part 10
Umgesetzt in P2HD von Panasonic.
Panasonic vermarktet AVC-Ultra als Codec-Familie, die einerseits den AVC-Intra-Codec einschließt, aber andererseits auch Codecs für 1080p und 4K umfasst, sowie etwa auch Proxy-Auflösungen:
•    So gehört zu AVC-Ultra der Codec AVC-Intra Class 200. Dieses Profil soll ohne sichtbare Qualitätsverluste komprimieren und 720p, 1080i, 1080p24 sowie 1080p50/60 unterstützen. Panasonic sieht in AVC-Intra Class 200 den passenden Codec, wenn es darum geht, HD-Master-Tapes in ein file-basiertes Format zu bringen.
•    Ebenfalls neu ist AVC-Intra 444. Dieses Format soll neben 12-Bit-Recording in 1080p50/60p auch 2K- und 4K-Daten unterstützen. Panasonic zeigte schon verschiedentlich damit kodiertes 4K-Footage mit 400 Mbps.
•    Ein weiteres Mitglied der Familie ist AVC-Long-G. Der 10-Bit-Codec mit 4:2:2 soll eine Qualität liefern, die mit der von MPEG-2 4:2:2 vergleichbar ist, aber nur die Hälfte von dessen Datenrate benötigt.
•    AVC-Proxy bewegt sich innerhalb von 800 kbps bis 3,5 Mbps, abhängig von der verfügbaren Datenrate. Dieser Codec wendet sich an die cloud-basierte Produktion, wie sie etwa Avid mit seinem ­Interplay-Sphere-System vorsieht. In der höchsten Qualitätsstufe soll AVC-Proxy ein unkomprimiertes Audiosignal enthalten.

CinemaDNG

Adobe hat mit CinemaDNG ein offenes, freies Format für Video-Rohdaten entwickelt. Damit lassen sich Video-, Audio- und Metadaten speichern (auch S3D). Für die Kodierung wird DNG eingesetzt. Dabei lassen sich Bildsequenzen frame-basiert in eine MXF-Datei packen. Es ist aber auch möglich, die Einzelbilder in speziellen Dateiverzeichnissen abzu­legen.

DNxHD

DCT-basierend, entwickelt von Avid, im Einsatz auch bei Kameras von Ikegami, Arri und bei einigen Recordermodellen, etwa von Atomos.
DNxHD ist ein Codec, den Avid entwickelt hat, der aber mittlerweile von der SMPTE standardisiert wurde. Damit lassen sich HD-Signale sehr effektiv komprimieren. DNxHD produziert ausschließlich I-Frames und arbeitet mit 4:2:2-Signalverarbeitung.
DNxHD gibt es in diversen Qualitätsstufen mit unterschiedlichen Datenraten und Bit-Tiefen, wobei die Zahl, die den Begriff DNxHD ergänzt, die jeweilige Datenrate in Mbps angibt. Die Datenrate unterscheidet sich zwischen 720p/50 und 1080i/25 nur geringfügig.
•    DNxHD185x / DNxHD175: arbeitet mit 8 oder 10 Bit
•    DNxHD 120 / 85 / 36: arbeitet mit 8 Bit

DPX

Digital Picture Exchange
Genormt von ANSI / SMPTE
Das DPX-Format wird vielfach eingesetzt, wenn es darum geht, hohe Kontrastumfänge zu speichern. Beim DPX-Format wird jeder Farbkanal mit 32 Bit linear oder logarithmisch gespeichert. Das Format basiert auf Kodaks Cineon-Format und wurde auf dieser Basis weiterentwickelt.

JPEG2000

Wavelet-basierend.
Entwickler: Joint Photographic Experts Group
JPEG2000 ist ein standardisiertes Kompressionsverfahren für Bilder auf Basis der Wavelet-Transformation (siehe auch Erläuterungen im Abschnitt Wavelet). Eine Besonderheit von JPEG2000 besteht darin, dass sich verschiedene Auflösungen aus der gleichen Datei herauslesen lassen, was beispielsweise die Möglichkeit eröffnet, etwa in der Postproduktion schnelle Vorschaudateien zu generieren.
JPEG2000 ist stark verbreitet im digitalen Kino, wo es für die Speicherung und Distribution von ­Filmen eingesetzt wird. In der Akquisition verbreitet sich JPEG2000 nur langsam bis gar nicht, was offenbar an ­Lizenzfragen wie auch an teuren Hardware-Komponenten liegt.

MPEG

MPEG ist ein standardisiertes Kompressionsverfahren, das sich speziell zur Datenreduktion von Bewegt­bildern eignet.
MPEG ist ein asymmetrisches Kompressionsverfahren: Das Kodi­eren ist erheblich aufwändiger als das Dekodieren. Wichtig hierbei: MPEG schreibt das Datenformat und die Dekodierung genau vor — wie die Daten erzeugt werden, ist dagegen ­Sache des jeweiligen Geräteherstellers. Jeder kann beim Kodieren seine eigenen Techniken und Algorithmen einsetzen, solange am Ende norm­gerechte MPEG-kodierte Datenströme entstehen, die sich mit jedem standardgerechten MPEG-Decoder lesen und wiedergeben lassen.
MPEG komprimiert nicht nur einzelbildweise (Intraframe), sondern kann darüber hinaus auch die Daten mehrerer aufeinanderfolgender Bilder analysieren und die daraus gewonnenen Information für die Kompression nutzen (Interframe). Die Einzelbilder einer Videosequenz setzen sich gemäß MPEG-Standard aus I-, B- und P-Frames zusammen. Der MPEG-Standard bezeichnet die Folge von I-, B- und P-Frames als Group of Pictures (GoP). Eine GoP muss mindestens ein I-Frame enthalten.

MPEG-2

XDCAM, XDCAM EX, XDCAM HD, XDCAM HD 422 von Sony sind MPEG-2-basiert. Neben Sony nutzen auch Canon und JVC MPEG-2-­basierte Formate, die identisch oder eng verwandt mit den Sony-Formaten sind.
MPEG-2 ist das derzeit im Profibereich immer noch am weitesten verbreitete MPEG-Verfahren. Es ist in verschiedene Profiles und Levels unterteilt, für die jeweils unterschiedliche Eckdaten festgelegt wurden: Datenraten, GoP-Strukturen, die Auflösung, also die Anzahl der Zeilen und Pixel, sowie Sampling und Bildwechselfrequenz. Es gibt MPEG-2-Profile für SD- und solche für die HD-Aufzeichnung.
Diverse Sony-Formate basieren auf MPEG-2:
•    XDCAM von Sony nutzt MPEG-2 für SD-Videosignale.
•    XDCAM EX basiert auf MPEG-2 (MP@HL, Long GoP; Raster 1.440 x 1.080 und 1.920 x 1.080) und ­arbeitet mit einer Quantisierung von 8 Bit und in 4:2:0. Die Videodaten­rate liegt bei 35 Mbps, es ist aber auch eine HDV-kompatible Aufzeichnung in 4:2:0 mit 25 Mbps vorgesehen.
•    XDCAM HD basiert auf MPEG-2 (MP@HL, Long GOP; Raster 1.440 x 1.080), arbeitet mit 8-Bit-Quantisierung in 4:2:0 und sieht Datenraten von 18 und 35 Mbps vor. Zudem ist eine HDV-kompatible Aufzeichnung in 4:2:0 mit 25 Mbps vorgesehen.
•    XDCAM HD 422 ist ebenfalls MPEG-2-basiert (422P@HL, Long GOP; Raster 1.920 x 1.080), arbeitet mit 8-Bit-Quantisierung in 4:2:2 und einer Videodatenrate von 56 Mbps.

MPEG-4

MPEG-4 fasst diverse Teilstandards unter einem Dach zusammen und basiert letztlich auf MPEG-2, wenngleich MPEG-4 deutlich effizienter ist. MPEG-4 kombiniert Intra- und Interframe-Technologie. Diverse Formate setzen auf MPEG-4 auf, darunter etwa AVC-Intra, aber auch HDCAM SR.

ProRes

ProRes von Apple wurde für die Postproduktion entwickelt. Das Ziel war es, wie bei DNxHD von Avid, HD-Signale so effizient zu komprimieren, dass man in vielen Fällen keinen Unterschied zu unkomprimierten Signalen sieht, aber auf Daten­raten kommt, die nur wenig über denen von unkomprimierten SD-Video­datenströmen liegen.
ProRes produziert ausschließlich I-Frames, was in der Postproduction generell ein klarer Vorteil ist, weil weniger Kodierarbeit anfällt, was den Prozessor entlastet und schnelleres, unkomplizierteres Arbeiten ermöglicht.
Mit der Arri Alexa gibt es eine prominente und sehr erfolgreiche Digitalkamera, die auch direkt in ProRes aufzeichnen kann, Blackmagic bietet dieses Format bei seiner Cinema Camera ebenfalls an, auch diverse Fieldrecorder können in ProRes aufzeichnen.
Mittlerweile gibt es ProRes in mehreren Spielarten und Daten­raten: ProRes 422 (Proxy), ProRes 422 (LT), ProRes 422, ProRes 422 (HQ) und ProRes 4444. Abhängig von der gewählten Variante und dem Aufzeichnungsraster er­geben sich Datenraten von 12 bis 315 Mbps.
•    ProRes 4444 bietet maximale Qualität für 4:4:4-Quellen sowie für Material mit Alphakanal. Geeignet für Material mit Auflösungen bis 4K.
•    ProRes 422 (HQ) eignet sich für 4:2:2- oder 4:2:0-Material (Auf­lösung bis 1.920 x 1.080) und arbei­tet mit 220 Mbps Datenrate.
•    ProRes 422 arbeitet im Vergleich zu 422 (HQ) mit geringerer Datenrate von 145 Mbps.
•    ProRes 422 (LT) erreicht etwa 70% der Datenrate von ProRes 422.
•    ProRes 422 (Proxy) eignet sich als Proxy-Format, etwa fürs Offline-Editing. ProRes 422 (Proxy) arbeitet mit einer ­Datenrate, die etwa ein Drittel der Datenrate von ProRes 422 beträgt.

Wavelet

Wavelet wird als Kurzform für ein mathematisches Verfahren namens diskrete Wavelet-Transformation (DWT) verwendet. Dieses Verfahren kann unter anderem zur Bildkompression verwendet werden. JPEG2000 beruht auf Wavelet, auch die Red One nutzt Wavelet, um die Raw-Daten der Kamera zu komprimieren.
Auch bei höheren Kompressionsfaktoren treten mit Wavelet deutlich weniger sichtbare Bildfehler (Artefakte) auf, allenfalls lokale Störungen, die sich im Bild als Unschärfen äußern und weit weniger auffallen.

XAVC

Sonderform von MPEG-4, Part 10
Sony stellte diesen neuen Codec mit der Ankündigung der Kameras F5 und F55 vor.
XAVC unterstützt Auflösungen bis 4K (4.096 x 2.160, 3.840 x 2.160) sowie HD- und Proxy-Auflösung und arbeitet mit 12, 10 oder 8 Bit Farbtiefe und 4:4:4, 4:2:2 oder 4:2:0. MXF-Wrapping kann genutzt werden.
XAVC soll zunächst die Raster 4.096 x 2.160, 3.840 x 2.160 sowie 2.048 x 1.080 und 1.920 x 1.080 bedienen. Die 4K-Raster werden in 4:2:2 mit 10 Bit per Intraframe-­Kodierung komprimiert, die Datenrate kann bis zu 600 Mbps betragen, die Bildrate 23,98 bis 59,94 Hz in progressiver Bildfolge.
Auch das 2K- und das Full-HD-Raster werden die Farbinformation in Form von 4:2:2/10-Bit-Signalen verarbeiten, die intraframe-kodiert werden. Die Datenrate ist bei diesen niedrigeren Rastern auf 200 Mbps ­limitiert, als Bildraten stehen 23,98 bis 59,94 Hz in progressiver Bildfolge und zusätzlich 50i und 59,94i zur Verfügung.
Werden XAVC und AVC-Ultra, die ja ähnliche Zielanwendungen haben, kompatibel sein? Bedingt: Sony sagt, dass man mit XAVC durch die Unterstützung des sogenannten Level 5.2 in der Lage sei, AVC-Intra-Material wiederzugeben, das von Pana­sonic-Geräten kodiert wurde.

MPEG-4 SStP

MPEG4-SStP Simple Studio Profile, von Sony bei HDCAM SR und SR Master verwendet.
Besser bekannt als der dahinter stehende Codec sind die darauf basierenden Formate HDCAM SR und SR Master – oder genauer gesagt die file-basierte Videoaufzeichnung dieser Formate.
Der Codec verpackt die Daten in einen MXF-OP-1a-Wrapper. Er komprimiert die Daten und stellt 220, 440 oder 880 Mbps als Datenrate zur Verfügung. Bildsignale können damit in Form von 4:2:2 mit 10 Bit oder als RGB mit 10- oder 12-Bit-Quantisierung verarbeitet werden — zusammen mit bis zu 16 Audiokanälen.

Dateisysteme

In der file-basierten Welt kann es bei der Aufzeichnung auch eine Rolle spielen, in welchem Format das jeweilige Aufzeichnungsmedium formatiert wird.
•    FAT-32 (File Allocation Table): Dieses Dateisystem wurde von Microsoft für Floppy Disks entwickelt und wird bei Festspeichermedien noch eingesetzt.
•    UDF (Universal Disk Format) wird verwendet, um optische Medien zu formatieren. Wenn man mit bestimmten Sony-Camcordern auf Festspeicherkarten aufzeichnen will, müssen diese auch zuvor UDF-formatiert werden, etwa damit darauf eine Aufzeichnung in XDCAM HD 422 möglich ist.

Container-Formate, Wrapper

Wie der Name es schon andeutet, bilden Containerformate letztlich eine Hülle (Wrapper), die wiederum unterschiedliche Nutzdateien und Dateitypen enthalten kann.
•    MP4 ist ein Containerformat, das auf Quicktime basiert. Die Inhalte des MP4-Containers können ­Video- und Audiosignale, Bilder und Untertitel sein. Teilweise wird das Containerformat MP4 verwechselt mit MPEG-4 Part 10 oder Part 2. Die Dateiendung des Containerformats gibt aber letztlich noch keinen Hinweis auf den tatsächlichen Inhalt des Files.
•    Quicktime ist ein von Apple entwickeltes Containerformat (.mov), das aber plattformübergreifend mit Windows- und Apple-Rechnern genutzt werden kann. Es kann durchaus vorkommen, dass ein Rechner prinzipiell in der Lage ist, Quicktime-Files abzuspielen, weil die entsprechende Software vorhanden ist, im konkreten Einzelfall aber kein Bewegtbild anzeigt. Das Containerformat Quicktime (.mov) kann nämlich Files enthalten, die der Rechner nicht wiedergeben kann, weil der passende Codec nicht installiert ist.
•    MXF steht für Material Exchange Format – ein Daten-Austauschformat. MXF-Files enthalten Video-, Audio- und Metadaten, das Format ist als allgemeines digitales Austauschformat konzipiert, es ist sowohl kompressions- als auch plattformunabhängig. In der Variante MXF-Op-1a ist das Austauschformat unter anderem bei Sony im Einsatz bei den MPEG-2-Formate, bei XAVC und MPEG-4 SStP.
•    OMF steht für Open Media Framework – ein von Avid entwickeltes Containerformat, mit dem sich Audio- und Videodateien austauschen lassen.
•    AAF ist das Kürzel für Advanced Authoring Format. Dieses Con­tainerformat wurde entwickelt, um Video- und Audiodaten zwischen verschiedenen nonlinearen Systemen austauschen zu können.

Weitere Infos, Sonderheft

Diesen und weitere themenverwandte Artikel hat film-tv-video.de zu einem Sonderheft gebündelt, das Sie unter dem untenstehenden Link als PDF oder als Print-Ausgabe bestellen können. Natürlich finden Sie alle Infos auch online bei film-tv-video.de, aber wenn Sie das Heft oder das PDF erwerben, sparen Sie Zeit, erhalten alles gesammelt in grafisch ansprechender Form und Sie unterstützen die Arbeit dieser Plattform.

Anzeige:

Empfehlungen der Redaktion:

14.03.2013 – Pandora 2013: Minikameras — kompakt und leistungsfähig
08.03.2013 – Pandora 2013: Sensorgrößen — Darf’s ein bisschen mehr sein?
01.03.2013 – Pandora 2013: Das Neue und das Alte
09.03.2013 – Pandora 2013: Objektivübersicht — Eyes Wide Shut
19.03.2013 – Pandora 2013: Grundlagen der Raw-Aufzeichnung
12.03.2013 – Pandora 2013: Kameratrends — Größer und besser
01.03.2013 – Pandora 2013: HD-Formate im Überblick
13.03.2013 – Pandora 2013: SLS-Kameras
16.03.2013 – Pandora 2013: Highspeed-Kameras — Slow down
20.03.2013 – Pandora 2013: Speichermedien im Überblick
21.03.2013 – Pandora 2013: Übersicht mobile Recorder

Autor
Christine Gebhard, Gerd Voigt-Müller

Bildrechte
cybrain/Shutterstock.com (Titelbild), Nonkonform

Schlagwortsuche nach diesen Begriffen
Format, Top-Story