FORMATS VIDÉO HTML5 : CODECS, PROTOCOLES ET COMPATIBILITÉ

Photo d'ALEX BERSIN
ALEX BERSIN

De l'ordinateur de bureau au téléphone portable en passant par le CTV, le nombre d'appareils utilisés par les téléspectateurs pour regarder des vidéos est très varié et ne cesse de s'accroître. Pour les producteurs de contenu, cela signifie que votre contenu brut doit être converti de manière transparente en divers formats vidéo HTML5.

Bien que HTML5 ait éliminé le besoin de plugins supplémentaires, le large éventail d'appareils nécessite toujours différents formats vidéo HTML pour maximiser la lisibilité, la qualité et la sécurité. Avant d'explorer les types de vidéo HTML5 spécifiques et ceux qui conviennent le mieux aux différents scénarios, examinons de plus près la manière dont la vidéo est convertie dans ces formats.

QU'EST-CE QUE L'ENCODAGE VIDÉO ?

En termes simples, l'encodage vidéo est la manière dont les données vidéo brutes provenant des caméras sont converties en un format numérique.

Toutefois, cet acte de compression et de décompression ne rend pas nécessairement le contenu disponible sur tous les appareils. Le transcodage, souvent confondu avec l'encodage, convertit la vidéo compressée d'un format à un autre (par exemple, de .mov à .mp4).

La première étape consiste à utiliser un codec (abréviation de codeur/décodeur) pour compresser les fichiers vidéo volumineux en une taille plus facile à gérer pour la transmission et le stockage. Lorsqu'il est prêt à être lu, le codec décompresse le fichier, ce qui permet de le visionner dans sa qualité d'origine ou presque. Ce processus de compression et de décompression optimise les fichiers vidéo pour un stockage efficace et une utilisation minimale de la bande passante.

Mais qu'est-ce qu'un codec et en quoi diffère-t-il d'un conteneur ?

CODECS ET FORMATS DE CONTENEURS

  • Codecs. Les codecs sont les algorithmes ou les logiciels utilisés pour compresser et décompresser les données brutes. Les codecs vidéo HTML5 les plus répandus sont H.264 et les codecs audio sont AAC, MP3 et Opus.
  • Conteneurs. Les conteneurs sont les formats de fichiers HTML5 qui rassemblent la vidéo et l'audio encodés en un seul fichier. Ces fichiers comprennent également des métadonnées et d'autres informations importantes spécifiques à la vidéo, telles que le sous-titrage et les marqueurs de chapitre.

CODECS VIDÉO

Chaque codec offre des avantages et des compromis uniques en termes d'efficacité de la compression, de qualité vidéo et de compatibilité avec différents appareils et plateformes. Vous devrez vous familiariser avec les types de codecs les plus courants pour savoir lequel ou lesquels répondront le mieux à vos besoins spécifiques.

  • H.264. Également connu sous le nom de Advanced Video Coding (AVC), ce codec très répandu produit des vidéos de haute qualité dans des fichiers de petite taille, et il est compatible avec la plupart des appareils et des plateformes.
  • H.265. Le High Efficiency Video Coding (HEVC) est un autre codec courant, idéal pour les vidéos de haute qualité, comme la 4K, puisqu'il utilise environ la moitié du débit binaire de l'AVC. En fait, la "haute efficacité" de HVEC fait référence à ses capacités de compression.
  • H.266 et codecs libres. H.266, ou Versatile Video Coding (VVC), est l'une des normes de compression les plus récentes et peut offrir jusqu'à 50 % d'efficacité en plus que HEVC. Il est donc idéal pour la diffusion en continu en 4K, ainsi qu'en 8K et au-delà. Les codecs libres, tels que VP9 de Google et AV1 de l'Alliance for Open Media, améliorent également l'efficacité de la compression. Toutefois, comme pour le VVC et d'autres nouveaux codes, l'adoption est encore balbutiante et la compatibilité est relativement limitée.

COMPATIBILITÉ DES CODECS AVEC LES NAVIGATEURS ET LES APPAREILS

La compatibilité des navigateurs et des appareils varie considérablement d'un codec vidéo à l'autre. Alors que l'AVC bénéficie de la prise en charge la plus large sur presque tous les systèmes courants, le VVC est si récent qu'il ne bénéficie d'aucune prise en charge matérielle. HEVC bénéficie également d'une large prise en charge sur la plupart des appareils, mais il a encore du mal à s'adapter aux navigateurs mobiles. Enfin, VP9 et AV1 ont tous deux fait de grands progrès sur le marché, mais ils ne sont toujours pas pris en charge par les navigateurs et les appareils Apple.

SOUTIEN À LA NAVIGATION SUR LE BUREAU

Codec Google Chrome Mozilla Firefox Microsoft Edge Safari Opéra
H.264 (AVC)
H.265 (HEVC)
(Windows 10+ avec support matériel)

(macOS High Sierra+)
H.266 (VVC)
VP9
AV1

 

SUPPORT DE LA NAVIGATION MOBILE

Codec Chrome (Android) Firefox (Android) Safari (iOS) Edge (Android / iOS) Opera (Android / iOS)
H.264 (AVC)
H.265 (HEVC)
(iOS 11+)
H.266 (VVC)
VP9
AV1

 

SUPPORT POUR LES APPAREILS MOBILES

Codec Appareils Android Appareils iOS Appareils Samsung Google Pixel Appareils Huawei
H.264 (AVC)
H.265 (HEVC)
(limité)

(iOS 11+)

(limité)

(limité)
H.266 (VVC)
VP9
AV1

 

PRISE EN CHARGE DES TÉLÉVISEURS INTELLIGENTS

Codec Téléviseurs intelligents Samsung Téléviseurs intelligents LG Téléviseurs intelligents Sony Téléviseurs Roku Apple TV
H.264 (AVC)
H.265 (HEVC)
H.266 (VVC)
VP9
AV1
(modèles plus récents)

(modèles plus récents)

(modèles plus récents)

 

CONSIDÉRATIONS RELATIVES À L'ENCODAGE

  • Qualité (prise en charge 4K+). Pour les producteurs de contenu qui souhaitent diffuser des vidéos HD et UHD (4K et au-delà), le choix du codec doit être une priorité. Les codecs H.265 (HEVC) et H.266 (VVC) offrent la meilleure efficacité de compression pour maintenir une qualité vidéo élevée à des débits binaires plus faibles. Les codecs open-source comme AV1 sont également parfaits pour les vidéos de haute qualité comme la 4K ; assurez-vous simplement que les appareils et les plateformes que vous visez les prennent en charge.
  • Temps de latence. Le temps de latence est le temps qui s'écoule avant que la vidéo ne commence à être lue. Par exemple, si vous utilisez la diffusion en direct ou la vidéo interactive, il est essentiel de réduire le temps de latence, car même de petits retards peuvent avoir un impact significatif sur l'expérience du spectateur. Le codec H.264 (AVC) est bien connu pour sa faible latence et est donc souvent utilisé pour des applications en temps réel. Les codecs HTML5 plus récents comme AV1 peuvent fournir une meilleure compression, mais leurs processus d'encodage complexes peuvent entraîner une latence plus élevée.
  • Les licences. Vous devez également tenir compte du coût des licences lorsque vous choisissez le codec qui vous convient le mieux. Les codecs propriétaires tels que H.265 (HEVC) et H.266 (VVC) requièrent des droits de licence, qui peuvent rapidement s'accumuler en cas de distribution à grande échelle.

QU'EST-CE QUE L'EMBALLAGE VIDÉO ?

Une fois que les codecs ont compressé et décompressé les données vidéo, le conditionnement est la clé pour préparer les données à être livrées au spectateur.

L'habillage vidéo est le processus qui combine tous les éléments nécessaires à une expérience de visionnage de qualité. Cela comprend les fichiers vidéo et audio encodés, les manifestes qui synchronisent les fichiers, les métadonnées et les sous-titres.

Voici un bref aperçu de son fonctionnement :

  • Encodage. Tout d'abord, les données vidéo et audio brutes sont encodées à l'aide de codecs, et la taille des fichiers est comprimée pour faciliter le stockage et la transmission.
  • Multiplexage (muxing). Les flux vidéo et audio encodés sont ensuite combinés dans un fichier conteneur et organisés pour une lecture transparente. Les exemples incluent MP4, MKV et WebM.
  • Sélection des propriétés. Le producteur sélectionne les propriétés clés du format vidéo HTML5, notamment le débit binaire, la fréquence d'images et la résolution.
  • Ajout de métadonnées. Des métadonnées telles que le titre, la durée, les marqueurs de chapitre et les sous-titres sont ajoutées au conteneur.

Bien qu'ils présentent certaines similitudes, il est important de noter les distinctions entre l'empaquetage et le transmuxing. L'une des principales différences est que l'empaquetage crée de nouveaux conteneurs, tandis que le transmuxing convertit le conteneur d'un format à un autre sans modifier le contenu audio, vidéo et les métadonnées d'origine. Par exemple, vous pouvez transmuter une vidéo d'un conteneur MP4 vers un conteneur WebM pour assurer sa compatibilité avec différents appareils et plateformes.

HTTP VS AUTRES PROTOCOLES

Une fois que le fichier est emballé, le choix du protocole pour le livrer aura un impact sur les performances et la compatibilité. Voici ce que vous devez savoir sur le protocole HTTP et comment il se compare aux autres protocoles de transmission.

  • HTTP. HTTP (Hypertext Transfer Protocol) est le protocole standard utilisé sur Internet. C'est pourquoi les formats de diffusion en continu basés sur HTTP sont capables de tirer parti de la prise en charge omniprésente des navigateurs et de l'infrastructure massive et échelonnée déjà en place pour le web. Les formats vidéo HTML5 tels que HLS (HTTP Live Streaming) et DASH (Dynamic Adaptive Streaming over HTTP) sont idéaux pour la diffusion vidéo en continu en raison de leur capacité à atteindre efficacement un large public. Cependant, le HTTP peut entraîner une latence plus élevée et des difficultés à maintenir une qualité et une fiabilité constantes en fonction des conditions du réseau du spectateur.
  • WebRTC / SRT / RIST. D'autres protocoles comme WebRTC (Web Real-Time Communication), SRT (Secure Reliable Transport) et RIST (Reliable Internet Stream Transport) offrent un meilleur contrôle de la latence, de la qualité et de la fiabilité. Ces protocoles sont mieux adaptés aux applications en temps réel telles que les vidéoconférences, la production vidéo en direct, les flux de contribution et les jeux en ligne. Ils offrent souvent une latence plus faible et une qualité plus constante, mais il peut être difficile ou coûteux de les adapter pour atteindre de vastes audiences. Ces facteurs peuvent les rendre plus idéales pour des audiences plus petites ou limitées, mais peut-être moins adaptées à la diffusion vidéo généralisée que les solutions basées sur le protocole HTTP.

PROTOCOLES DE DIFFUSION EN CONTINU

Les protocoles de diffusion en continu sont basés sur le protocole HTTP et conçus spécifiquement pour la diffusion de contenus vidéo et audio en temps réel. Ils permettent une lecture adaptative qui s'ajuste aux conditions du réseau du spectateur afin de réduire la mise en mémoire tampon et d'offrir une expérience de visionnage globalement plus fluide. Il existe deux principaux protocoles de diffusion en continu, ainsi qu'un format intermédiaire.

  • HLS. Le protocole HLS d'Apple est l'un des protocoles de diffusion en continu les plus utilisés. Il décompose le contenu vidéo en petits segments de fichiers HTTP qui sont téléchargés et lus en temps réel. Il s'agit d'un protocole particulièrement adaptatif, ce qui le rend plus efficace pour réduire la mise en mémoire tampon, et il est compatible avec un large éventail d'appareils.
  • MPEG-DASH. DASH, une norme ouverte développée par le Moving Picture Experts Group (MPEG), est similaire à HLS en ce sens qu'il segmente le contenu vidéo. Comme les segments sont encodés à des qualités différentes, il peut changer de niveau de qualité même au milieu d'une vidéo pour s'aligner sur les conditions actuelles du réseau. Il est très flexible puisqu'il peut prendre en charge une variété de codecs et est également largement pris en charge par les navigateurs et les appareils.
  • CMAF. Le Common Media Application Format (CMAF), qui n'est pas techniquement un protocole, est un format intermédiaire conçu pour fonctionner avec HLS et DASH. Développé par Apple et Microsoft, leur objectif était de créer une norme permettant de réduire la complexité, le coût et le stockage de la diffusion de vidéos en ligne. Ainsi, au lieu de devoir créer et stocker des fichiers distincts pour MP4, .mov et autres, le CMAF utilise un seul ensemble de fichiers vidéo pour les flux HLS et DASH.

COMPATIBILITÉ DU CODEC AVEC LES PROTOCOLES DE DIFFUSION EN CONTINU

  • H.264 (AVC). L'AVC est pris en charge de manière native par HLS, DASH et presque tous les protocoles de diffusion en continu. En raison de sa grande efficacité de compression et de sa compatibilité étendue, les téléspectateurs bénéficient généralement d'une meilleure lecture et d'une mise en mémoire tampon réduite.
  • H.265 (HEVC). HEVC est pris en charge par HLS, en particulier sur les appareils Apple fonctionnant avec iOS 11 et les versions ultérieures. DASH est également compatible avec HEVC, mais nécessite un logiciel ou des appareils de lecture compatibles.
  • Codecs à source ouverte. VP9 est compatible avec DASH et avec les principaux navigateurs. Cependant, DASH et HLS ne prennent pas en charge AV1 de manière native.

CONSIDÉRATIONS RELATIVES À L'EMBALLAGE

SÉCURITÉ

La prévention de la lecture non autorisée est une considération essentielle pour de nombreuses marques de médias. Cependant, la mise en œuvre de la gestion des droits numériques (DRM) peut s'avérer complexe en raison des variations dans les formats de paquets HLS/DASH. Pour simplifier la mise en œuvre de la DRM, l'industrie a développé un modèle de cryptage standard appelé Common Encryption (CENC).

Le CENC fonctionne avec le format CMAF, ce qui permet aux producteurs de contenu d'encoder et de crypter les médias une seule fois, puis d'appliquer différents fournisseurs de DRM pour décrypter selon les besoins. Pour ce faire, la balise vidéo HTML5 prend en charge ce que l'on appelle une extension de média crypté (EME). L'EME travaille avec la CENC pour normaliser la manière dont le contenu vidéo crypté est traité. Essentiellement, vous cryptez votre vidéo à l'aide d'une clé CENC de 128 ou 256 bits. Pour décrypter et lire la vidéo, vous pouvez utiliser des systèmes DRM tels que Google Widevine, Apple FairPlay et Microsoft PlayReady. Ces fournisseurs de DRM gèrent les clés nécessaires pour déverrouiller le contenu crypté et s'assurer qu'il n'est accessible qu'aux utilisateurs autorisés.

Bien que la CENC ait été conçue pour fournir une méthode universelle de cryptage des médias, dans la pratique, il se peut que vous deviez traiter séparément les contenus HLS et CMAF/DASH en raison des différentes implémentations de la CENC.

MONÉTISATION (INSERTION D'ANNONCES)

Les normes modernes de diffusion en continu HTTP facilitent grandement la monétisation du contenu vidéo par l'insertion de publicités. En créant des instructions pour le lecteur vidéo, connues sous le nom de manifestes, ils peuvent spécifier des segments vidéo appelés "chunks". Ces morceaux peuvent être créés par le biais de fichiers multimédias explicites (par exemple, segment1.ts, segment2.ts, segment3.ts) ou en exploitant les demandes de plages d'octets (par exemple, mediaFile.mp4 octets 0 à 1000). Chacun de ces manifestes contient des informations sur le moment et l'endroit où les publicités doivent être insérées. Cette fonctionnalité de monétisation continue de se développer, notamment avec l'annonce par Apple en 2024 de la prise en charge de l'attribut Interstitiel dans HLS.

En plus de spécifier les pauses publicitaires, le manifeste peut également être utilisé pour orienter le lecteur vers d'autres contenus afin d'améliorer la personnalisation. Grâce aux "manifestes virtuels", chaque téléspectateur ou groupe de téléspectateurs est connecté à un manifeste personnalisé dans lequel des publicités spécifiques peuvent être intégrées en temps réel en fonction des téléspectateurs. C'est le cœur de notre solution Server-Side Ad Insertion (SSAI), qui garantit que chaque spectateur voit des publicités ciblées adaptées à ses préférences et à ses caractéristiques démographiques.

Un autre cas d'utilisation de la manipulation du manifeste consiste à offrir aux téléspectateurs une programmation alternative. Par exemple, un radiodiffuseur comme CBS peut avoir un flux national diffusant un match de football. Tous les téléspectateurs connectés à ce flux verront le match, sauf s'ils se trouvent dans un marché spécifique, comme Cleveland. À Cleveland, les instructions du manifeste peuvent orienter le joueur vers un flux secondaire diffusant un contenu alternatif pendant le match. Ce processus, connu sous le nom de "blackout" ou de programmation "alternative", garantit la conformité avec les droits de diffusion régionaux et offre une expérience de visionnage adaptée aux différents publics.

Il convient de noter que ni HLS ni DASH ne sont plus efficaces l'un que l'autre pour l'insertion de publicités. Les deux le permettent de la même manière par le biais de manifestes, et la plupart des marques utiliseront les deux pour améliorer la compatibilité des appareils. Cela dit, les codecs sous-jacents et les configurations d'encodage de votre contenu et de vos publicités doivent correspondre pour offrir la meilleure expérience de visualisation. Un contenu et des publicités mal adaptés peuvent entraîner des problèmes de lecture et de qualité. L'utilisation d'une solution SSAI comme la nôtre permet d'éviter cela, car elle conditionne les publicités avec le même profil d'ingestion que celui qui crée le contenu.

ACCESSIBILITÉ

Une autre considération essentielle est l'accessibilité, y compris les pistes en plusieurs langues et les sous-titres. Heureusement, ce processus peut être géré efficacement grâce à l'utilisation de manifestes, ce qui signifie que HLS et DASH sont tout aussi compétents l'un que l'autre. Pour ce faire, des variantes localisées sont créées au moment de l'exécution et spécifiées dans le manifeste. Le manifeste pointe ensuite vers ces variantes et leurs flux auxiliaires associés, y compris les rendus vidéo, les rendus audio et les rendus de sous-titres.

Par exemple, notre partenaire, SyncWords, ingère notre flux en direct et produit des pistes audio secondaires (traduites et doublées dans d'autres langues) et des pistes de sous-titres/caption. Au départ, le flux en direct encodé original ne contient que les ressources primaires, telles que :

  • Manifeste du maître
  • Variante vidéo 720p
  • Variante vidéo 1080p
  • Variante audio - anglais
  • Variante de légende - anglais

SyncWords prend le manifeste principal, extrait l'une des pistes audio et/ou la piste des sous-titres, et effectue une traduction en temps réel. Ce processus produit des sous-titres multilingues et peut appliquer le doublage automatique pour générer des pistes audio alternatives avec la langue du locuteur ajustée à d'autres langues souhaitées. C'est un exemple clair de la façon dont la technologie continue à rendre la production et la consommation de contenu plus efficaces, plus inclusives et plus accessibles.

HISTOIRE DU STREAMING VIDÉO

Pour connaître les formats vidéo HTML5 les mieux adaptés à votre cas d'utilisation spécifique, il faut comprendre les processus d'encodage et de conditionnement vidéo. Mais si vous voulez préparer vos opérations actuelles pour l'avenir, il est utile d'examiner l'histoire de la technologie de diffusion en continu. Plusieurs innovations ont vu le jour et ont disparu, il est donc intéressant de noter celles qui subsistent et continuent de s'adapter.

TÉLÉCHARGEMENT PROGRESSIF ET DIFFUSION ANTICIPÉE

Dans les premiers temps de la vidéo sur le web, les lecteurs multimédias tels que Windows Media, QuickTime et RealPlayer étaient les principales plates-formes de visualisation. Ils utilisaient la technologie de téléchargement progressif, dans laquelle les fichiers étaient téléchargés de manière linéaire, mais la vidéo commençait à être lue avant que le fichier complet ne soit transféré. Bien que novatrice à l'époque, cette méthode entraînait souvent des problèmes de mise en mémoire tampon et nécessitait un logiciel propriétaire pour la lecture.

FLASH

Avec Adobe Flash, la visualisation sur le web a été simplifiée grâce à un cadre commun qui était beaucoup plus largement disponible sur les différents navigateurs. Bien que les vidéos soient moins mises en mémoire tampon et globalement plus performantes, elles reposent sur un plugin de navigateur lourd et inefficace qui, dans certains cas, présente des risques de sécurité importants.

HLS

L'introduction de l'iPad d'Apple a considérablement modifié l'ensemble du paysage de la diffusion vidéo. Invoquant des problèmes de sécurité et d'utilisation de la batterie, Apple a cessé de prendre en charge Flash. À peu près au même moment, HTML5 a été lancé et comprenait une balise vidéo HTML5 native qui permettait aux navigateurs de prendre en charge la lecture vidéo en mode natif. En s'appuyant sur cette technologie, Apple a introduit HLS et utilisé les manifestes HTTP pour indiquer au lecteur comment utiliser le protocole HTTP pour demander des segments de flux. Cette innovation s'appuie sur l'infrastructure web existante pour permettre une distribution vidéo évolutive par le biais de requêtes HTTP standard et de balises vidéo HTML5.

MPEG-DASH

Suivant l'exemple d'Apple, le consortium MPEG a introduit une norme non-Apple appelée MPEG-DASH (Dynamic Adaptive Streaming over HTTP). Comme HLS, MPEG-DASH utilise la diffusion en continu par segment et les protocoles HTTP. Cependant, étant soutenu par un organisme de normalisation neutre, MPEG-DASH a été adopté beaucoup plus largement par de nombreux autres fabricants d'appareils.

CMAF

La CMAF a été introduite en tant que norme ouverte permettant de préparer le contenu en tant que format média de base compatible avec les formats de manifeste MPEG-DASH et HLS, ce qui élimine la nécessité de créer des ressources média distinctes pour chaque format, rationalisant ainsi le processus de préparation du contenu et améliorant l'efficacité.

COMPLICATIONS ET INNOVATIONS

Malgré ces avancées, le streaming vidéo HTML5 reste un domaine complexe. Des défis tels que la latence ultra-faible, les règles d'occultation, les métadonnées HDR et d'autres ont nécessité une multitude d'extensions pour MPEG-DASH, HLS et d'autres formats vidéo supportés par HTML5. Cela dit, ces normes continuent d'évoluer rapidement. Par exemple, HLS a reçu plusieurs nouvelles extensions pour améliorer la diffusion des publicités et la prise en charge des déclarations HDR lors de la conférence mondiale des développeurs Apple 2024 (WWDC).

Comme le montre l'histoire, des innovations continueront d'être apportées à la technologie existante à mesure que les formats vidéo HTML5 et les protocoles de diffusion en continu évolueront. Une bonne compréhension des processus, des logiciels et des outils vous permettra de vous adapter plus rapidement aux évolutions tout en garantissant la meilleure expérience de visionnage possible.

Partager

Brightcove a aidé un fabricant d'équipements de diagnostic à réduire le temps et les dépenses consacrés à la salle de classe tout en améliorant la réussite ...
Brightcove a aidé la place de marché automobile la plus reconnue à gérer son énorme vidéothèque et à la rentabiliser...
Pour préserver l'intégrité de leur marque, les enseignes de distribution ont besoin de lecteurs vidéo personnalisables qui leur permettent d'ajuster les couleurs, la police...

PRÊT À COMMENCER ?

Contactez-nous pour savoir comment nous pouvons améliorer vos efforts de marketing vidéo et vous aider à générer les résultats et le retour sur investissement dont vous avez besoin.