Anzeige

Video: Schnitt in der Live-Produktion – neu gedacht

Die BBC präsentierte auf dem AWS-Stand die neueste Version des innovativen Open-Source-Projekts »Time Addressable Media Store« (TAMS). Jens Gnad von Logic erläutert, wie das Ganze funktioniert.

Dieses Architekturdiagramm zeigt das Konzept, wie ein Time Addressable Media Store (TAMS) im Mittelpunkt eines schnellen Workflows zur Verarbeitung von Live- oder Near-Live-Video- und Audioinhalten steht.


Jens Gnad von Logic Media Solutions erläutert das TAMS-Konzept.

Die TAMS- Initiative, die bereits auf der IBC vorgestellt wurde, denkt den Ansatz des Videoschnittverfahrens komplett neu.

Im Gegensatz zu traditionellen Methoden, die auf dedizierte, hochperformante Speichersysteme für Growing Files angewiesen sind, arbeitet TAMS mit einem völlig anderen Konzept: Live-Videosignale werden nicht als anwachsende Dateien, sondern als einzelne »Chunks« gespeichert – ähnlich dem HLS-Verfahren (HTTP Live Streaming).

©Nonkonform

TAMS-Präsentation am Stand von AWS.

Diese Chunks können in ihrer Länge variieren – von einzelnen Frames bis hin zu den auf der Messe demonstrierten den auf der Messe demonstrierten Chunks mit einer Länge von zwei Sekunden. Sobald ein Chunk fertiggestellt ist, wird er abgelegt und steht sofort für die Verarbeitung durch angeschlossene Systeme zur Verfügung – sei es ein Videomischer, Player oder Schnittsystem.

©Nonkonform

Jens Gnad.

Der besondere Vorteil dieses Ansatzes liegt darin, dass jede Datei nur einmal existieren muss. Nach der einmaligen Erstellung kann mit jedem TAMS-kompatiblen Gerät darauf zugegriffen werden. Mittlerweile gibt es bereits Cloud-Native-Editoren und Videoschnittsysteme, die nativ mit diesem Format arbeiten können, sowie Videomischer von AWS-Partnerunternehmen und einen neuen Open-Source-Player für die sofortige Wiedergabe.

©Nonkonform

Es gibt schon jetzt diverse TAMS-Anwendungen.

Die Besonderheit dieses Ansatzes besteht darin, dass TAMS den Videoschnitt auf objektbasierten Speichern wie AWS S3 ermöglicht – sowohl in der Cloud als auch on-premises. Dies eliminiert den Bedarf an teuren, hochperformanten Spezialservern und macht den Videoschnitt deutlich flexibler und kostengünstiger.

Das Projekt ist auf GitHub verfügbar und kann dort heruntergeladen werden.

AWS-Präsentation: TAMS-Workflow
©AWS
 
      1. Alle Medien werden in einem Time Addressable Media Store (TAMS) gespeichert. Dieser enthält blockweise Medien auf Objektspeichern mit einer API, um die Verbindung zwischen Inhalt und Medienessenz herzustellen.
      2. Live-Video-Feeds werden als kleine Medienblöcke hochgeladen und im TAMS registriert, um den Effekt wachsender Inhalte zu erzielen.
      3. Dateibasierte Inhalte können je nach Bedarf nativ oder in Teilen vor dem Import hochgeladen werden.
      4. Inhalte können nahezu in Echtzeit verarbeitet werden, wobei zusätzliche Versionen, wie z. B. Proxys, generiert werden, die durch Benachrichtigungen vom Speichersystem ausgelöst werden.
      5. Die Inhaltsanalyse kann asynchron und nahezu in Echtzeit erfolgen und ermöglicht einen schnellen Zugriff auf die Ergebnisse von Modellen des maschinellen Lernens und der künstlichen Intelligenz (KI/ML). Beispiele hierfür sind die Live-Untertitelung, die Erstellung von Highlights und Content Logging.
      6. Es kann eine einfache Bearbeitung auf Clip-Basis durchgeführt werden, und die daraus resultierenden Bearbeitungen können unter Verweis auf den Originalinhalt wieder im TAMS veröffentlicht werden.
      7. Craft Editing kann auf Inhalte aus dem TAMS zugreifen und neue Segmente zurückveröffentlichen.
      8. Inhalte aus dem Speicher können als Echtzeit-Videostream in Regien von linearen Channel Playout Facilities wiedergegeben werden.
      9. TAMS API kann einfach in HTTP Live Streaming (HLS) konvertiert werden, um das Streaming von Live- oder On-Demand-Inhalten aus dem TAMS zu ermöglichen.
      10. Clips und Dateien können aus dem Store exportiert werden, um sie für andere Zwecke zu verwenden, z. B. für die schnelle Verbreitung von Inhalten auf Social-Media-Plattformen.
      11. Das Media-Asset-Management-System (MAM) verwaltet Verweise auf die im TAMS gespeicherten Inhalte zusammen mit den zugehörigen umfangreichen redaktionellen und zeitbasierten Metadaten.

Anzeige

Most Popular

Anzeige

Newsletter

Keine Story mehr verpassen und
einfach den Newsletter abonnieren!

Anzeige

Anzeige

NABShow 2026

Die NABShow 2026 findet vom 18. bis 22. April in Las Vegas statt, die Ausstellungsflächen sind vom 19. bis 22. April geöffnet.
Las Vegas
19. bis 22. April

MPTS

MPTS 2026 – Wir feiern 10 Jahre Content Creation
London
13. bis 14. Mai

Anga Com 2026

Kongressmesse für Breitband, Medien & Konnektivität.
Köln
19. bis 21. Mai

Broadcast Asia 2026

Die BroadcastAsia 2026 findet vom 20. bis 22. Mai im Singapore EXPO statt.
Singapur
20. bis 22. Mai

CABSAT

CABSAT wurde 1993 gegründet und hat sich zu einer etablierten Veranstaltung für die Medien- und Kommunikationsbranche in der MEASA-Region (Naher Osten, Afrika, Südasien) entwickelt
Dubai
2. bis 4. Juni

IBC

Führende Veranstaltung für Content und Technologie in der Medienbranche.
Amsterdam
11. bis 14. September

Anzeige