HTML5-VIDEOFORMATE: CODECS, PROTOKOLLE UND KOMPATIBILITÄT

Bild von ALEX BERSIN
ALEX BERSIN

Vom Desktop über das Handy bis hin zum CTV - die Zahl der Geräte, mit denen Zuschauer Videos ansehen, ist breit gefächert und nimmt ständig zu. Für Produzenten von Inhalten bedeutet dies, dass ihre Rohinhalte nahtlos in verschiedene HTML5-Videoformate konvertiert werden müssen.

Mit HTML5 wurden zwar zusätzliche Plugins überflüssig, aber die breite Palette an Geräten erfordert immer noch verschiedene HTML-Videoformate, um die Abspielbarkeit, Qualität und Sicherheit zu maximieren. Bevor wir uns mit den spezifischen HTML5-Videotypen beschäftigen und welche für verschiedene Szenarien am besten geeignet sind, sollten wir uns genauer ansehen, wie Videos in diese Formate konvertiert werden.

WAS IST VIDEOCODIERUNG?

Einfach ausgedrückt, bedeutet Videocodierung die Umwandlung der rohen Videodaten von Kameras in ein digitales Format.

Dieser Vorgang des Komprimierens und Dekomprimierens macht den Inhalt jedoch nicht unbedingt auf allen Geräten verfügbar. Bei der Transkodierung, die oft mit der Kodierung verwechselt wird, wird das komprimierte Video von einem Format in ein anderes umgewandelt (z. B. von .mov in .mp4).

Im ersten Schritt wird ein Codec (kurz für Coder/Decoder) verwendet, um große Videodateien für die Übertragung und Speicherung auf eine handlichere Größe zu komprimieren. Wenn die Datei zur Wiedergabe bereit ist, dekomprimiert der Codec sie, so dass sie in ihrer ursprünglichen oder nahezu ursprünglichen Qualität angezeigt werden kann. Durch diesen Komprimierungs- und Dekomprimierungsprozess werden die Videodateien für eine effiziente Speicherung und minimale Bandbreitennutzung optimiert.

Aber was genau ist ein Codec, und wie unterscheidet er sich von einem Container?

CODECS VS. CONTAINERFORMATE

  • Codecs. Codecs sind die Algorithmen oder Software, die zum Komprimieren und Dekomprimieren der Rohdaten verwendet werden. Beliebte HTML5-Videocodecs sind H.264 und Audiocodecs sind AAC, MP3 und Opus.
  • Container. Container sind die HTML5-Dateiformate, die das kodierte Video und Audio in einer einzigen Datei zusammenfassen. Diese Dateien enthalten auch Metadaten und andere wichtige videospezifische Informationen wie Untertitel und Kapitelmarkierungen.

VIDEO-CODECS

Jeder Codec bietet einzigartige Vorteile und Kompromisse in Bezug auf die Komprimierungseffizienz, die Videoqualität und die Kompatibilität mit verschiedenen Geräten und Plattformen. Sie müssen sich mit den gängigsten Typen vertraut machen, um zu verstehen, welche(r) für Ihre speziellen Anforderungen am besten geeignet ist.

  • H.264. Dieser weit verbreitete Codec, der auch als Advanced Video Coding (AVC) bekannt ist, erzeugt Videos in hoher Qualität bei kleinen Dateigrößen und ist mit den meisten Geräten und Plattformen kompatibel.
  • H.265. High Efficiency Video Coding (HEVC) ist ein weiterer gängiger Codec, der sich ideal für hochwertige Videos wie 4K eignet, da er etwa die Hälfte der Bitrate von AVC benötigt. Tatsächlich bezieht sich die "hohe Effizienz" in HVEC auf seine Komprimierungsfähigkeiten.
  • H.266 und Open-Source-Codecs. H.266, oder Versatile Video Coding (VVC), ist einer der neuesten Komprimierungsstandards und bietet bis zu 50 % mehr Effizienz als HEVC. Dies macht ihn ideal für 4K-Streaming sowie 8K und darüber hinaus. Open-Source-Codecs wie VP9 von Google und AV1 von der Alliance for Open Media treiben die Komprimierungseffizienz noch weiter voran. Wie bei VVC und anderen neuen Codes ist die Akzeptanz jedoch noch im Entstehen begriffen und die Kompatibilität ist relativ begrenzt.

CODEC-KOMPATIBILITÄT MIT BROWSERN UND GERÄTEN

Die Kompatibilität von Browsern und Geräten ist je nach Videocodec sehr unterschiedlich. Während AVC die breiteste Unterstützung auf fast allen gängigen Systemen genießt, ist VVC so neu, dass es überhaupt keine Hardware-Unterstützung gibt. HEVC wird ebenfalls von den meisten Geräten unterstützt, hat aber noch Probleme mit mobilen Browsern. Und sowohl VP9 als auch AV1 haben große Fortschritte auf dem Markt gemacht, aber beide werden von Apple-Browsern und -Geräten noch nicht unterstützt.

UNTERSTÜTZUNG FÜR DESKTOP-BROWSING

Codec Google Chrome Mozilla Firefox Microsoft Edge Safari Oper
H.264 (AVC)
H.265 (HEVC)
(Windows 10+ mit Hardware-Unterstützung)

(macOS High Sierra+)
H.266 (VVC)
VP9
AV1

 

UNTERSTÜTZUNG FÜR MOBILES SURFEN

Codec Chrome (Android) Firefox (Android) Safari (iOS) Rand (Android / iOS) Opera (Android / iOS)
H.264 (AVC)
H.265 (HEVC)
(iOS 11+)
H.266 (VVC)
VP9
AV1

 

UNTERSTÜTZUNG FÜR MOBILE GERÄTE

Codec Android-Geräte iOS-Geräte Samsung-Geräte Google Pixel Huawei-Geräte
H.264 (AVC)
H.265 (HEVC)
(eingeschränkt)

(iOS 11+)

(eingeschränkt)

(eingeschränkt)
H.266 (VVC)
VP9
AV1

 

SMART-TV-UNTERSTÜTZUNG

Codec Samsung Smart TVs LG Smart TVs Sony Smart TVs Roku-Fernseher Apple TV
H.264 (AVC)
H.265 (HEVC)
H.266 (VVC)
VP9
AV1
(neuere Modelle)

(neuere Modelle)

(neuere Modelle)

 

KODIERUNGSÜBERLEGUNGEN

  • Qualität (4K+ Unterstützung). Für Produzenten von Inhalten, die HD- und UHD-Videos (4K und mehr) bereitstellen möchten, sollte die Wahl des Codecs eine wichtige Rolle spielen. H.265 (HEVC) und H.266 (VVC) bieten die beste Kompressionseffizienz, um eine hohe Videoqualität bei niedrigeren Bitraten zu gewährleisten. Open-Source-Codecs wie AV1 eignen sich ebenfalls hervorragend für hochwertige Videos wie 4K. Stellen Sie nur sicher, dass die Geräte und Plattformen, auf die Sie abzielen, diese unterstützen.
  • Latenzzeit. Die Latenzzeit ist die Zeit, die vergeht, bis ein Video abgespielt wird. Wenn Sie z. B. Live-Streaming oder interaktive Videos einsetzen, ist eine niedrige Latenzzeit von entscheidender Bedeutung, da selbst kleine Verzögerungen das Zuschauererlebnis erheblich beeinträchtigen können. H.264 (AVC) ist für seine geringe Latenz bekannt und wird daher häufig für Echtzeitanwendungen verwendet. Neuere HTML5-Codecs wie AV1 bieten zwar eine bessere Komprimierung, aber ihre komplexen Kodierungsprozesse können zu einer höheren Latenz führen.
  • Lizenzierung. Bei der Entscheidung, welcher Codec für Sie am besten geeignet ist, sollten Sie auch die Kosten für die Lizenzierung berücksichtigen. Proprietäre Codecs wie H.265 (HEVC) und H.266 (VVC) erfordern Lizenzgebühren, die sich bei einer groß angelegten Verteilung schnell summieren können.

WAS IST VIDEO-PACKAGING?

Nachdem die Codecs die Videodaten komprimiert und dekomprimiert haben, ist die Verpackung der Schlüssel zur Vorbereitung der Daten für die Bereitstellung an den Zuschauer.

Bei der Videopaketierung werden alle erforderlichen Elemente für ein hochwertiges Seherlebnis kombiniert. Dazu gehören kodierte Video- und Audiodateien, Manifeste zur Synchronisierung der Dateien, Metadaten und Untertitel.

Hier ist ein kurzer Überblick über die Funktionsweise:

  • Kodierung. Zunächst werden die rohen Video- und Audiodaten mit Hilfe von Codecs kodiert, und die Dateigrößen werden zur einfacheren Speicherung und Übertragung komprimiert.
  • Multiplexing (Muxing). Die kodierten Video- und Audioströme werden dann in einer Containerdatei kombiniert und für eine nahtlose Wiedergabe organisiert. Beispiele sind MP4, MKV und WebM.
  • Auswahl der Eigenschaften. Der Produzent wählt die wichtigsten Eigenschaften für das HTML5-Videoformat aus, darunter Bitrate, Bildrate und Auflösung.
  • Hinzufügen von Metadaten. Metadaten wie Titel, Dauer, Kapitelmarkierungen und Untertitel werden dem Container hinzugefügt.

Obwohl sie einige Gemeinsamkeiten aufweisen, ist es wichtig, die Unterschiede zwischen Packaging und Transmuxing zu beachten. Ein wesentlicher Unterschied besteht darin, dass beim Packaging neue Container erstellt werden, während beim Transmuxing der Container von einem Format in ein anderes konvertiert wird, ohne dass der ursprüngliche Audio-, Video- und Metadateninhalt geändert wird. Sie könnten zum Beispiel ein Video von einem MP4-Container in einen WebM-Container transmuxen, um die Kompatibilität mit verschiedenen Geräten und Plattformen zu unterstützen.

HTTP GEGENÜBER ANDEREN PROTOKOLLEN

Sobald die Datei verpackt ist, wirkt sich die Wahl des Übertragungsprotokolls auf Leistung und Kompatibilität aus. Im Folgenden erfahren Sie, was Sie über HTTP wissen müssen und wie es im Vergleich zu anderen Übertragungsprotokollen abschneidet.

  • HTTP. HTTP (Hypertext Transfer Protocol) ist das Standardprotokoll, das im gesamten Internet verwendet wird. Aus diesem Grund können HTTP-basierte Streaming-Formate die allgegenwärtige Browserunterstützung und die massive, skalierbare Infrastruktur nutzen, die bereits für das Web vorhanden ist. HTML5-Videoformate wie HLS (HTTP Live Streaming) und DASH (Dynamic Adaptive Streaming over HTTP) sind ideal für das Videostreaming, da sie ein großes Publikum effizient erreichen können. HTTP kann jedoch zu höheren Latenzzeiten führen und je nach den Netzwerkbedingungen des Zuschauers Probleme mit der Aufrechterhaltung einer gleichbleibenden Qualität und Zuverlässigkeit mit sich bringen.
  • WebRTC / SRT / RIST. Andere Protokolle wie WebRTC (Web Real-Time Communication), SRT (Secure Reliable Transport) und RIST (Reliable Internet Stream Transport) bieten eine bessere Kontrolle über Latenz, Qualität und Zuverlässigkeit. Diese Protokolle eignen sich besser für Echtzeitanwendungen wie Videokonferenzen, Live-Videoproduktion, Beitragsströme und Online-Spiele. Sie bieten häufig geringere Latenzzeiten und eine gleichmäßigere Qualität, können aber problematisch oder kostspielig sein, wenn sie für große Zielgruppen skaliert werden sollen. Aufgrund dieser Faktoren eignen sie sich besser für kleinere oder begrenzte Zielgruppen, aber vielleicht weniger für das weit verbreitete Videostreaming im Vergleich zu HTTP-basierten Lösungen.

STREAMING-PROTOKOLLE

Streaming-Protokolle sind HTTP-basiert und wurden speziell für die Bereitstellung von Video- und Audioinhalten in Echtzeit entwickelt. Sie ermöglichen eine adaptive Wiedergabe, die sich an die Netzwerkbedingungen des Zuschauers anpasst, um Pufferzeiten zu reduzieren und ein insgesamt flüssigeres Seherlebnis zu bieten. Es gibt zwei primäre Streaming-Protokolle sowie ein Zwischenformat.

  • HLS. HLS von Apple ist eines der am häufigsten verwendeten Streaming-Protokolle. Es zerlegt Videoinhalte in kleine, HTTP-basierte Dateisegmente, die in Echtzeit heruntergeladen und abgespielt werden. Es ist ein besonders anpassungsfähiges Protokoll, das die Pufferung effektiver macht und mit einer Vielzahl von Geräten kompatibel ist.
  • MPEG-DASH. DASH, ein von der Moving Picture Experts Group (MPEG) entwickelter offener Standard, ähnelt HLS insofern, als er den Videoinhalt segmentiert. Da die Segmente mit unterschiedlichen Qualitäten kodiert sind, kann die Qualitätsstufe sogar mitten im Video gewechselt werden, um den aktuellen Netzwerkbedingungen gerecht zu werden. Es ist äußerst flexibel, da es eine Vielzahl von Codecs unterstützen kann und auch von vielen Browsern und Geräten unterstützt wird.
  • CMAF. Common Media Application Format (CMAF) ist zwar technisch gesehen kein Protokoll, aber ein Zwischenformat, das für die Zusammenarbeit mit HLS und DASH entwickelt wurde. Es wurde von Apple und Microsoft mit dem Ziel entwickelt, einen Standard zu schaffen, der dazu beiträgt, die Komplexität, die Kosten und den Speicherbedarf bei der Bereitstellung von Online-Videos zu reduzieren. Anstatt also separate Dateien für MP4, .mov und andere zu erstellen und zu speichern, verwendet CMAF einen einzigen Satz von Videodateien für HLS- und DASH-Streaming.

CODEC-KOMPATIBILITÄT MIT STREAMING-PROTOKOLLEN

  • H.264 (AVC). AVC wird nativ von HLS, DASH und fast allen Streaming-Protokollen unterstützt. Aufgrund seiner hohen Komprimierungseffizienz und weitreichenden Kompatibilität erleben die Zuschauer im Allgemeinen eine bessere Wiedergabe und weniger Pufferung.
  • H.265 (HEVC). HEVC wird von HLS unterstützt, insbesondere auf Apple-Geräten mit iOS 11 und höher. DASH ist ebenfalls mit HEVC kompatibel, erfordert aber kompatible Wiedergabesoftware oder -geräte.
  • Open-Source-Codecs. VP9 ist mit DASH und mit den wichtigsten Browsern kompatibel. DASH und HLS unterstützen AV1 jedoch nicht von Haus aus.

ÜBERLEGUNGEN ZUR VERPACKUNG

SICHERHEIT

Die Verhinderung der unbefugten Wiedergabe ist für viele Medienmarken ein wichtiges Anliegen. Die Implementierung von Digital Rights Management (DRM) kann jedoch aufgrund der unterschiedlichen HLS/DASH-Paketformate sehr komplex sein. Um die DRM-Implementierung zu vereinfachen, hat die Branche ein Standard-Verschlüsselungsmodell namens Common Encryption (CENC) entwickelt.

CENC arbeitet mit dem CMAF-Format und ermöglicht es den Produzenten von Inhalten, Medien einmal zu kodieren und zu verschlüsseln und dann bei Bedarf verschiedene DRM-Anbieter zur Entschlüsselung einzusetzen. Um dies zu erreichen, unterstützt das HTML5-Video-Tag die so genannte Encrypted Media Extension (EME). EME arbeitet mit CENC zusammen, um zu standardisieren, wie verschlüsselte Videoinhalte gehandhabt werden. Im Wesentlichen verschlüsseln Sie Ihr Video mit einem 128- oder 256-Bit-CENC-Schlüssel. Um das Video zu entschlüsseln und abzuspielen, können Sie DRM-Systeme wie Google Widevine, Apple FairPlay und Microsoft PlayReady nutzen. Diese DRM-Anbieter verwalten die Schlüssel, die zum Entsperren der verschlüsselten Inhalte erforderlich sind, und stellen sicher, dass nur autorisierte Benutzer auf sie zugreifen können.

Obwohl CENC als universelle Methode zur Verschlüsselung von Medien gedacht war, kann es in der Praxis vorkommen, dass Sie HLS- und CMAF/DASH-Inhalte aufgrund unterschiedlicher Implementierungen von CENC getrennt behandeln müssen.

MONETARISIERUNG (WERBEEINBLENDUNG)

Moderne HTTP-Streaming-Standards erleichtern die Monetarisierung von Videoinhalten durch Werbeeinblendungen. Durch die Erstellung von Anweisungen für den Videoplayer, den so genannten Manifesten, können sie Videosegmente, so genannte Chunks, festlegen. Diese Chunks können durch explizite Mediendateien (z. B. segment1.ts, segment2.ts, segment3.ts) oder durch die Nutzung von Byte-Bereichsanforderungen (z. B. mediaFile.mp4 bytes 0 bis 1000) erstellt werden. Jedes dieser Manifeste enthält Anzeigensignalisierungsinformationen darüber, wann und wo Anzeigen eingefügt werden sollen. Diese Funktionalität für die Monetarisierung nimmt weiter zu, einschließlich der von Apple für 2024 angekündigten Unterstützung für das Attribut Interstitial in HLS.

Neben der Angabe der Werbeunterbrechungen kann das Manifest auch genutzt werden, um den Player zur besseren Personalisierung auf alternative Inhalte zu verweisen. Durch "virtuelle Manifeste" ist jeder Zuschauer oder jede Zuschauergruppe mit einem personalisierten Manifest verbunden, in das bestimmte Anzeigen in Echtzeit eingefügt werden können, je nachdem, wer gerade zuschaut. Dies ist der Kern unserer Server-Side Ad Insertion (SSAI) Lösung, die sicherstellt, dass jeder Zuschauer gezielte Werbung sieht, die auf seine Vorlieben und demografischen Daten zugeschnitten ist.

Ein weiterer Anwendungsfall für manifeste Manipulationen ist das Angebot alternativer Programme für die Zuschauer. Ein Sender wie CBS könnte zum Beispiel ein nationales Feed haben, das ein Fußballspiel überträgt. Alle Zuschauer, die mit diesem Feed verbunden sind, sehen das Spiel - es sei denn, sie befinden sich in einem bestimmten Markt, wie z. B. Cleveland. In Cleveland können die Anweisungen des Manifests den Spieler auf einen zweiten Feed verweisen, der während des Spiels alternative Inhalte zeigt. Dieses Verfahren, das als "Blackout"- oder "Alternativ"-Programmierung bekannt ist, gewährleistet die Einhaltung der regionalen Übertragungsrechte und bietet ein maßgeschneidertes Seherlebnis für unterschiedliche Zielgruppen.

Es ist anzumerken, dass weder HLS noch DASH bei der Werbeeinblendung effektiver sind als das jeweils andere. Beide ermöglichen dies auf die gleiche Weise durch Manifeste, und die meisten Marken werden beide verwenden, um die Gerätekompatibilität zu verbessern. Dennoch sollten die zugrundeliegenden Codecs und Kodierungskonfigurationen Ihrer Inhalte und Anzeigen übereinstimmen, um ein optimales Anzeigeerlebnis zu gewährleisten. Nicht übereinstimmende Inhalte und Anzeigen können zu Wiedergabe- und Qualitätsproblemen führen. Mit einer SSAI-Lösung wie der unseren kann dies vermieden werden, da die Anzeigen mit demselben Ingest-Profil konditioniert werden, mit dem auch die Inhalte erstellt wurden.

ZUGÄNGLICHKEIT

Ein weiterer wichtiger Aspekt ist die Zugänglichkeit, einschließlich mehrsprachiger Spuren und Untertitel. Glücklicherweise kann dieser Prozess durch die Verwendung von Manifesten effizient verwaltet werden, was bedeutet, dass sowohl HLS als auch DASH gleichermaßen kompetent sind. Um dies zu erreichen, werden zur Laufzeit lokalisierte Varianten erstellt und im Manifest angegeben. Das Manifest verweist dann auf diese Varianten und die zugehörigen Zusatzstreams, einschließlich Video- und Audiowiedergaben sowie Untertitelwiedergaben.

Unser Partner SyncWords beispielsweise nimmt unseren Livestream auf und erstellt sekundäre Audiospuren (übersetzt und in andere Sprachen synchronisiert) sowie Untertitel- und Untertitelspuren. Der ursprünglich kodierte Live-Stream enthält zunächst nur die primären Inhalte, wie z. B.:

  • Meister Manifest
  • Video-Variante 720p
  • Video-Variante 1080p
  • Audio-Variante - Englisch
  • Beschriftungsvariante - Englisch

SyncWords nimmt das Master-Manifest, extrahiert eine der Audiospuren und/oder die Untertitelspur und führt eine Echtzeitübersetzung durch. Dieser Prozess erzeugt mehrsprachige Untertitel und kann KI-Synchronisation anwenden, um alternative Audiospuren zu erzeugen, bei denen die Sprache des Sprechers an andere gewünschte Sprachen angepasst wird. Dies ist ein klares Beispiel dafür, wie die Technologie sowohl die Produktion als auch den Konsum von Inhalten effizienter, umfassender und zugänglicher macht.

GESCHICHTE DES VIDEOSTREAMING

Um zu wissen, welche HTML5-Videoformate für Ihren speziellen Anwendungsfall am besten geeignet sind, müssen Sie die Prozesse der Videokodierung und -verpackung verstehen. Wenn Sie jedoch Ihre aktuellen Abläufe auf die Zukunft vorbereiten möchten, lohnt sich ein Blick auf die Geschichte der Streaming-Technologie. Mehrere Innovationen sind gekommen und gegangen, und es lohnt sich zu wissen, welche davon bestehen bleiben und sich weiter anpassen.

PROGRESSIVER DOWNLOAD UND FRÜHES STREAMING

In den Anfängen von Webvideos waren Media Player wie Windows Media, QuickTime und RealPlayer die wichtigsten Plattformen für die Wiedergabe. Sie nutzten die progressive Download-Technologie, bei der die Dateien linear heruntergeladen wurden, das Video aber schon vor der Übertragung der gesamten Datei abgespielt wurde. Diese für die damalige Zeit innovative Methode führte häufig zu Pufferungsproblemen und erforderte proprietäre Software für die Wiedergabe.

FLASH

Mit Adobe Flash wurde die Anzeige im Web durch ein gemeinsames Framework vereinfacht, das in verschiedenen Browsern weitaus häufiger verfügbar war. Obwohl die Videos weniger zwischengespeichert wurden und die Leistung insgesamt besser war, beruhte sie auf einem schweren, ineffizienten Browser-Plugin, das in einigen Fällen erhebliche Sicherheitsrisiken barg.

HLS

Die Einführung des Apple iPad hat die gesamte Videostreaming-Landschaft erheblich verändert. Unter Berufung auf Sicherheits- und Batterieverbrauchsprobleme stellte Apple die Unterstützung von Flash ein. Etwa zur gleichen Zeit wurde HTML5 veröffentlicht und enthielt ein natives HTML5-Video-Tag, das Browsern die native Unterstützung der Videowiedergabe ermöglichte. Unter Ausnutzung dieser Technologie führte Apple HLS ein und verwendete HTTP-Manifeste, um den Player anzuweisen, das HTTP-Protokoll zur Anforderung von Streamsegmenten zu verwenden. Diese Innovation baute auf der bestehenden Webinfrastruktur auf und ermöglichte eine skalierbare Videoverteilung über standardmäßige HTTP-Anfragen und HTML5-Videotags.

MPEG-DASH

Nach dem Vorbild von Apple führte das MPEG-Konsortium einen nicht von Apple stammenden Standard namens MPEG-DASH (Dynamic Adaptive Streaming over HTTP) ein. Wie HLS verwendet auch MPEG-DASH segmentbasiertes Streaming und HTTP-Protokolle. Da MPEG-DASH jedoch von einem neutralen Normungsgremium unterstützt wird, wurde es von vielen anderen Geräteherstellern in viel größerem Umfang übernommen.

CMAF

CMAF wurde als offener Standard eingeführt, der es ermöglicht, Inhalte als Basismedienformat vorzubereiten, das sowohl mit dem MPEG-DASH- als auch mit dem HLS-Manifestformat kompatibel ist. Damit entfällt die Notwendigkeit, für jedes Format separate Medieninhalte zu erstellen, was den Prozess der Inhaltsvorbereitung rationalisiert und die Effizienz verbessert.

KOMPLIKATIONEN UND INNOVATIONEN

Trotz dieser Fortschritte bleibt das HTML5-Videostreaming ein komplexes Gebiet. Herausforderungen wie extrem niedrige Latenzzeiten, Blackout-Regeln, HDR-Metadaten und andere haben eine Vielzahl verschiedener Erweiterungen für MPEG-DASH, HLS und andere HTML5-unterstützte Videoformate erforderlich gemacht. Allerdings entwickeln sich diese Standards auch weiterhin schnell weiter. So erhielt HLS während der Apple Worldwide Developer Conference (WWDC) 2024 mehrere neue Erweiterungen zur Verbesserung der Anzeigenbereitstellung und Unterstützung von HDR-Deklarationen.

Wie die Geschichte zeigt, wird es mit der Weiterentwicklung von HTML5-Videoformaten und Streaming-Protokollen auch weiterhin Innovationen in der bestehenden Technologie geben. Ein grundlegendes Verständnis des Prozesses, der Software und der Tools wird Ihnen helfen, sich schneller an die Entwicklungen anzupassen und gleichzeitig das bestmögliche Seherlebnis zu gewährleisten.

Teilen Sie

Brightcove half einem Hersteller von Diagnosegeräten dabei, die Unterrichtszeit und die Kosten zu reduzieren und gleichzeitig den Erfolg ...
Brightcove unterstützte den bekanntesten Automobilmarktplatz bei der Verwaltung seiner umfangreichen, älteren Videobibliothek und deren Monetarisierung...
Um die Markenintegrität zu wahren, benötigen Einzelhandelsmarken anpassbare Videoplayer, die es ihnen ermöglichen, die Farben, die Schriftart...

SIND SIE BEREIT, LOSZULEGEN?

Setzen Sie sich mit uns in Verbindung, um zu erfahren, wie wir Ihre Videomarketing-Bemühungen verbessern und Ihnen dabei helfen können, die gewünschten Ergebnisse und den gewünschten ROI zu erzielen.