Vidéo : Comment optimiser son infrastructure cloud pour le streaming et l’encodage ? - Compte-rendu de webinar

Il est impossible aujourd’hui de se passer du cloud pour traiter de la vidéo. Plutôt logique, lorsqu’on considère que Netflix et YouTube représentent plus d’un quart du trafic web mondial. C’est dans doute pour cette raison que les dépenses IT du secteur global des médias et du divertissement ont augmenté de 34% entre 2019 et 2024, d’après Gartner.

Qu’impliquent ces tendances pour les entreprises du secteur aujourd’hui particulièrement pour les acteurs de la vidéo ? Nous en avons réuni trois pour un webinar dédié, fin mars 2024. En voici les points saillants !

“Cela fait 18-20 ans que je fais de la vidéo, notamment sur les projets VLC, FFmpeg et x264”, a dit Jean-Baptiste Kempf, président de VideoLAN, en guise d’introduction. “Aujourd’hui, l’intégralité de la vidéo que l’on trouve sur le cloud et sur les sites web est gérée par ces projets open source, que cela soit sur Facebook, YouTube ou Twitch. C’est un des seuls domaines du cloud où il n’y a quasiment plus de concurrence non-open source ; et toutes les solutions propriétaires sont basées sur ces solutions. Mais c’est vrai qu'aujourd'hui il faut des ressources importantes pour faire du transcodage, donc beaucoup de puissance, et des infrastructures adaptées, qui sont capables de scaler en fonction de vos besoins à certains moments. L’importance des cloud providers est donc primordiale.”

Ensuite, nos trois intervenants ont présenté leurs solutions.

blastream

Emmanuel Fréard, Co-Fondateur et Directeur Technique de blastream, a présenté son service de livestreaming cloud, qui permet de produire et diffuser des événements directement sur le web. “Une sorte de mini-OBS dans le cloud, piloté directement depuis le web, comme ce que proposent nos concurrents américains, comme StreamYard,” a précisé Fréard. Blastream a la particularité d’être en marque blanche, qui s’adapte à des utilisations comme des webinars, mais aussi du spectacle vivant, ainsi qu’à des activations particulières comme la diffusion d’une course de voitures téléguidées, avec Orange (ci-dessus). Pour ce faire, blastream s’appuie sur des technologies MCU, avec ingestion et diffusion notamment par WebRTC. Côté cloud, blastream compte sur l’équilibre et la disponibilité des ressources CPU de Scaleway - “on a une moyenne de 25 secondes de mise à disposition des instances, ce qui est très confortable pour nos clients et end users”, a affirmé Fréard - ainsi que sur l’aspect souverain, les données vidéo devant rester conformes au RGPD à tout moment.

Streamfizz

Geoffrey Signorato, Lead Développeur chez Streamfizz, a ensuite présenté cette plateforme de streaming vidéo créée en 2012, au sein de l’entreprise Webcastor. Streamfizz propose notamment un player responsive et personnalisable, qui permet de se passer des solutions des GAFAM, ainsi qu’un focus important sur la confidentialité des données. En effet, la configuration cloud de Streamfizz (ci-dessus) permet notamment “à veiller à ce que les vidéos ne soient pas envoyées à des services en dehors de France”, a précisé Signorato ; “c’est pour cette raison que Streamfizz a développé en interne toute notre logique d’encodage”. Cette logique consiste en un upload de vidéo sur de l’object storage, avant de passer dans un pool de GPUs (3070 et RENDER-S) en private network pour encodage, avant de repasser sur l’object storage. Streamfizz s’appuie également sur Kubernetes Kapsule de Scaleway, pour gérer le scale-up et -down des Instances GPU.

EMPREINTE.COM

François Caron, PDG d’EMPREINTE.COM, a enfin expliqué comment ce “pionnier de la vidéo en ligne” a commencé en 1989, en produisant des CD-ROM pour Wanadoo (France Télécom), avant de passer aux webTV, au streaming, au display et aux webinars. Pour ce faire, Empreinte s’appuie sur Kapsule, Load Balancer, Object Storage, Container Registry et MySQL, ce qui lui permet de répondre à ces charges conséquentes, telles que 70 000 utilisateurs chez un client, ou 3 000 diffusions live multilingues par an pour un autre. Caron s’est notamment réjoui que son secteur a créé 40 000 emplois à date “nous avons des talents dans ce pays, et des applications qui sont utilisées mondialement” - tout en regrettant que ces acteurs “ne se parlent pas assez.”

Pourquoi la souveraineté prime avec la vidéo

La **souveraineté **étant le point commun entre ces trois acteurs, la partie “Q&A” du webinar a commencé sur ce sujet. “C’est déterminant”, a insisté Caron, notamment lorsqu’on gère le contenu vidéo des intranets de ses clients, comme c’est le cas d’Empreinte. “Certains serveurs sont aux US, ce qui peut révéler des informations sensibles. Les DSI ne veulent pas regarder cela… sauf quand on leur parle de cybersécurité. Essayer de maîtriser le mieux possible les périmètres cloud est déterminant pour sa sécurité.”

Il s’agit également d’un argument commercial, d’après Signorato : “c’est un vrai argument de vente de pouvoir dire à nos clients qu’on sait exactement où ira leur vidéo au moment où ils l’uploadent. On sait qu’elle reste en France, qui l’encode et où, où elle est uploadée… Le client n’y pense pas forcément, mais quand on lui le dit, cela a tendance à le rassurer.”

En plus de rassurer les clients, la souveraineté est “mandatory pour certains clients”, d’après Fréard ; “certains DSI l’imposent. Et cela nous arrange ! On préfère travailler avec des personnes à côté de nous, à qui on peut parler, ce qui n’est pas toujours le cas pour les sociétés non-européennes. C’est un argumentaire commercial, mais aussi technique, et qui a une vraie valeur ajoutée pour nous en tant que startup.”

Disponibilité et flexibilité : le nerf de la guerre

Fréard est ensuite revenu sur son besoin d’avoir des Instances CPU garanties et disponibles sous 25 secondes. “On va éviter d’avoir tout un pool de serveurs disponibles à tout moment mais qu’on ne va utiliser que 10 % du temps ; on préfère récupérer des ressources à un instant T”, a-t-il dit. “C’est intéressant économiquement, et d’un point de vue environnemental. Et plus ces ressources sont disponibles rapidement, mieux c’est pour le client final”.

Ce besoin de flexibilité est couvert par l’autoscaling de Kubernetes pour Streamfizz, “qui nous permet de définir un minimum syndical de réplicats qui vont tourner sur des Instances”, a expliqué Signorato. “Dès lors que Kubernetes va recevoir de la charge CPU ou RAM, l’autoscaler va automatiquement allumer des Instances”, a-t-il précisé. “Cette élasticité nous permet et de gérer les pics, et de limiter les creux en redescendant au minimum” lorsque Streamfizz n’a pas besoin de ressources. “Il y a toute une configuration à faire en amont, mais une fois bien mis en place, on a une certaine robustesse sur la production.”

“On essaie de faire mieux avec moins”, a résumé par sa part le PDG d’Empreinte. L’année dernière, son chiffre d’affaires a progressé de 40 %, tandis que sa facture cloud a baissé de 50 %, “simplement parce qu’on a mieux géré”, a expliqué Caron. “L’optimisation de l’application, la gestion intelligente des répartitions, les opérations multi-opérateurs, la reprise d’activité transparente, la gestion de la montée en charge, le passage à l’activité objet… permet d’économiser considérablement, et d’avoir des applicatifs de plus en plus fiables.”

Ces aspects de FinOps sont des préoccupations de nombreux clients, a confirmé Fabien Ganderatz, Solution Architect de Scaleway ; “on met un point d’honneur à permettre aux clients de consommer comme ils souhaitent, quand ils veulent, et assez rapidement en termes d’allumage des ressources.”

GPUs, CPUs, et optimisation des coûts

Comme Signorato l’a déjà expliqué sur notre blog, le passage de CPUs aux GPUs pour l’encodage vidéo a apporté à Streamfizz des atouts considérables en termes de temps et de coûts. “Pour encoder de la vidéo avec des CPUs, il faut vite monter très haut [en puissance de calcul]”, a-t-il dit lors du webinar. “Dans notre V2, on a décidé de partir sur des GPUs. Ils mettent un peu plus de temps à démarrer, mais les tâches vidéo sont beaucoup plus rapides. Ca plus le Kubernetes pour le scale-up/in, on est allés quatre fois plus vite pour quatre fois moins cher [avec des GPU 3070], à qualité quasiment égale qu’avec des CPU.” Streamfizz utilise également des GPUs RENDER-S pour faire de la retranscription et créer des sous-titres automatiquement.

Enfin, l’entreprise teste actuellement les nouveaux GPUs L4 d’NVIDIA, et “les résultats sont plutôt encourageants ; on arrive à une qualité égale, un temps d’encodage quasiment égale, mais à un coût moindre, puisque les GPUs sont moins chers, et surtout facturés à la minute.” Ce dernier point est très important, a précisé Signorato, car avec des GPUs facturées à l’heure, on peut être amenés à payer une heure pour seulement dix minutes d’utilisation.

Mais au final, **entre CPUs et GPUs, qui gagne, en ce qui concerne la vidéo ? **

En finesse d’encodage, le GPU n’est pas plus performant que le CPU”, a affirmé Caron. “Le GPU va plus vite, mais fait certaines choses moins bien pour cette raison. Et quand on veut traiter les 20 % qui restent, on a 80 % d’énergie à dépenser en trop”. Empreinte reste donc majoritairement sur les CPUs, sauf quand les clients ont des besoins spécifiques.

Quant à Fréard et blastream, “pour l’encodage en temps réel, on a constaté qu’avec des GPU, on peut augmenter la puissance de l’encodage. Là où avec les CPUs on peut aller jusqu’à [une résolution de] 1080p et 30 fps [images par seconde], avec des GPUs on peut atteindre la 4K [ultra-haute résolution]. Sauf que streamer du 4K sur le web aujourd’hui n’a pas beaucoup de sens, en tout cas en direct, d’autant qu’il y a des impacts environnementaux conséquents. Mais voilà : sur des cas spécifiques, les GPU nous aident - ceux qui streament avec OVS peuvent faire le test - mais on reste sur des CPUs dans la plupart des cas.”

En conclusion ces trois acteurs français apparemment similaires ont trois pratiques très différentes quant aux GPUs et CPUs. Comme l’a souligné Caron : “cela illustre bien le marché !” De plus, “cela évolue sans cesse,” a précisé Signorato.

Quoi qu’il en soit, la récente intégration des nœuds de CPUs ARM dans l’offre Kubernetes de Scaleway va ouvrir de nouvelles perspectives pour l’orchestration de la vidéo, a souligné Ganderatz. Une évolution d’autant plus intéressante que l’ARM va apporter de nouvelles possibilités en la matière de la vidéo, a-t-il précisé.

Les grandes tendances vidéo à venir

“On n’est encore sûrs de rien,” a affirmé Signorato, tout en reconnaissant que l’ARM reste un nouveau domaine intéressant à explorer.

“Côté encodage, il y a sûrement des choses qui vont arriver”, a dit Fréard. “HEVC [High Efficiency Video Coding] arrive ; et l'aspect prédictif va certainement s'améliorer, grâce au machine learning. J’ai vu qu’Opus a inclu cette fonctionnalité sur son codec audio, et donc peut-être que d’autres codecs reprendront ces aspects.”

“Le grand défi de la vidéo, c’est l'écologie”, a insisté Caron. “Comme nous avons baissé notre consommation cloud de 50 %, on doit lancer cette tendance internationalement.”

Fréard a conclu dans ce sens, en soulignant l’expertise française en la matière - comme en témoigne Jean-Baptiste Kempf - et en rappelant l’importance de mouvements comme Greening of Streaming, et comment réduire l’impact environnemental du streaming au global. Une tendance clé à regarder à l’avenir, donc !

_Pour revoir le webinar en entier, c'est par ici ! _

Articles recommandés