Latence dans la surveillance vidéo sur IP en direct

juin, 2024

Avant-propos

La diffusion de flux de données vidéo en direct dans la surveillance vidéo sur IP consiste à capturer la vidéo dans la caméra, à l'empaqueter pour la transporter sur le réseau, puis à la dépaqueter dans le récepteur pour l'afficher. Chacune de ces étapes ajoute plus ou moins de latence.

  • Latence introduite du côté de la caméra. La capture vidéo est suivie du traitement de l'image, de la compression et de l'empaquetage. Chaque étape introduit une certaine latence, mais dans l'ensemble, les processus au sein de la caméra ne contribuent qu'à une petite fraction de la latence totale de bout en bout.

  • Latence introduite par le réseau. Elle peut être très importante ou très faible, et elle constitue le facteur le plus imprévisible dans l'« équation » de la latence de bout en bout. Vous pouvez la rendre plus prévisible en investissant dans des logiciels et des équipements réseau de qualité. La latence du réseau dépend très fortement du rapport entre les données et la bande passante. Vous pouvez configurer la caméra pour réduire la quantité de données qu'elle génère et, par la même occasion, la quantité de paquets à envoyer sur le réseau.

  • Latence introduite du côté du client. Côté client, les données sont reçues et mises en tampon pour être triées et mises en file d'attente vers la carte graphique et le moniteur. La latence est surtout influencée, jusqu'à plusieurs secondes, par le tampon de réception du client. Sans un tampon important, la lecture du flux vidéo risque de manquer de fluidité.

La réduction de la latence est toujours une question de coût. Les gains les plus importants peuvent être obtenus en améliorant le réseau ainsi que les matériels et les logiciels côté client.

Introduction

Dans le contexte de la vidéosurveillance, la latence est le temps qui s'écoule entre l'instant où une image est capturée et l'instant où cette même image est affichée. On parle également de latence de bout en bout ou de latence entre le capteur et l'écran. Le transport d'une image, depuis le capteur de la caméra jusqu'au moniteur d'affichage, comporte une longue série d'étapes.

Ce livre blanc présente les différentes étapes qui contribuent à la latence totale. Il fournit également des recommandations sur la manière de réduire la latence.

Qu'est-ce que la latence ?

La définition de la latence dépend du contexte. Dans la technologie des réseaux, la latence est généralement perçue comme le délai entre le moment où une information est envoyée depuis la source et le moment où cette même information est reçue à sa destination finale.

Dans cet article, nous abordons la question de la latence dans les systèmes de surveillance vidéo sur IP. Nous définissons ici la latence comme le délai entre le moment où une image est capturée par une caméra et le moment où elle est visible sur un moniteur vidéo. Pendant cette période, l'image est capturée, compressée, transmise, décompressée et affichée. Chaque étape ajoute sa propre part de retard au retard total. Pour simplifier, on peut considérer que la latence complète se compose de trois étapes principales :

  • Latence introduite par la caméra (latence de traitement de l'image, latence de compression)

  • Latence introduite par le réseau (latence de transmission)

  • Latence introduite par le côté récepteur (tampon du client, latence de décompression, latence d'affichage)

Pour atteindre l'objectif de latence d'un système de vidéosurveillance, chacune de ces latences doit être prise en compte lors de la conception de la solution vidéo.

Comment mesurer la latence ?

La latence est généralement exprimée en unités de temps, typiquement en secondes ou en millisecondes (ms). Il est très difficile de mesurer la latence exacte, car il faudrait pour cela que les horloges de la caméra et du périphérique d'affichage soient exactement synchronisées. Un moyen simple (avec une réserve pour un écart minimal par rapport aux valeurs exactes) consiste à utiliser la fonction d'incrustation d'un horodatage. Cette méthode permet de mesurer la latence de bout en bout d'un système de vidéosurveillance, c'est-à-dire l'écart de temps entre la capture d'une image dans l'objectif et le rendu de cette même image sur un périphérique de surveillance.

Notez que cette méthode produira une erreur possible pouvant aller jusqu'à un intervalle d'image. Cela dépend du fait que les horodatages utilisés pour calculer la latence ne sont collectés qu'au moment de la capture de l'image. Nous ne pourrons donc calculer la latence qu'avec le facteur de la fréquence d'image. Par conséquent, si nous avons une fréquence d'image de 25 ips, nous pouvons calculer la latence comme un multiple de 40 ms. Si nous avons une fréquence d'image d'1 ips, nous pouvons calculer la latence comme un multiple de secondes. Cette méthode n'est donc pas recommandée pour les fréquences d'image faibles.

Pour mesurer la latence à l'aide de la fonction d'incrustation d'horodatage :

  1. Activez l'horodatage dans l'incrustation en utilisant (%T:%f).

  2. Positionnez la caméra à l'oblique de sorte qu'elle capture sa propre sortie de flux de données vidéo en direct.

  3. Prenez des captures d'écran de la sortie du flux de données vidéo en direct pour comparer l'écart entre l'heure affichée dans l'incrustation de texte d'origine et l'heure affichée dans la boucle de l'écran.

    Exemple de mesure de la latence à l'aide de la fonction d'incrustation d'horodatage. Nous constatons un écart de temps de 25,46-25,30=0,16 seconde ou 160 ms. Autrement dit, la latence de bout en bout est de 160 ms.

Qu'est-ce qui affecte la latence ?

La latence totale est la somme des latences introduites par la caméra, par le réseau et du côté du client.

Latence introduite par la caméra.

Chaque image prend un temps d'exposition d'environ 1/30 s, suivi d'un court temps de mise à l'échelle et d'encodage de l'image. L'image encodée est découpée et empaquetée, et une image est transmise sur le réseau toutes les 33 ms. Le temps nécessaire à ce processus dans la caméra peut être inférieur à 50 ms, mais est plus souvent de l'ordre de quelques centaines de ms. Il varie légèrement en fonction de la caméra (PTZ non compris) et selon que l'image est une image I ou une image P.

Latence de capture

Jetons un coup d'œil à l'intérieur de la caméra. Le capteur d'image de la caméra est composé de millions de photodétecteurs (points photosensibles), communément appelés pixels. Le capteur capture la lumière dans ses pixels tout au long d'un intervalle d'exposition, avant de convertir l'énergie lumineuse enregistrée en signaux électroniques. Les pixels sont alors vides et prêts pour une nouvelle exposition. Le nombre d'expositions que le capteur délivre par unité de temps, c'est-à-dire le nombre d'images que la caméra peut capturer par seconde, définit la fréquence de capture du capteur.

La latence de capture dépend de la fréquence de capture. Si vous réglez la fréquence de capture sur 30 ips, ce qui signifie que le capteur capturera une image tous les 1/30e de seconde, la latence de capture atteindra 33,3 ms.

Latence de traitement de l'image

Chaque image capturée passe par toute une série d'étapes de traitement d'image, telles que le désentrelacement, la mise à l'échelle et la rotation de l'image, qui ajoutent de la latence. Plus le traitement est conséquent et plus la latence introduite par la caméra est importante. Mais comme le traitement dans la caméra influe sur la quantité de données produites, la quantité de traitement a également des effets sur la latence du réseau lorsque les données sont transférées sur le réseau.

Certains paramètres influencent la latence, par exemple :

  • Rotation de l'image. La rotation du flux vidéo de 90 ou 270 degrés ajoute une charge supplémentaire au processeur d'encodage. Les pixels devront être réorganisés et mis en tampon, ce qui entraîne un certain retard.

  • Résolution. Une résolution plus élevée signifie plus de pixels à encoder par le processeur. L'augmentation du temps de traitement pour une résolution plus élevée par rapport à une résolution plus faible est généralement insignifiante car elle est compensée par une unité de traitement plus rapide dans les caméras à haute résolution. Mais une résolution plus élevée se traduit par une plus grande quantité de données par image et par conséquent, par un plus grand nombre de paquets à transmettre. Dans un réseau dont la bande passante est limitée, cela peut entraîner des retards de transmission. Ceci, à son tour, entraînera la nécessité d'un tampon plus important du côté du récepteur, avec pour conséquence une latence plus longue.

  • Filtrage du bruit. Le filtrage avancé du bruit nécessite la mise en tampon de plusieurs images, ce qui introduit une latence supplémentaire.

  • Masquage de confidentialité. Les fonctions avancées de masquage de confidentialité, comme AXIS Live Privacy Shield, peuvent introduire une latence supplémentaire. Cela est dû au tampon nécessaire pour garantir que les masques de confidentialité corrects sont appliqués au bon moment.

Latence de compression

La vidéo est encodée afin de compresser les données avant leur transfert. La compression fait appel à un ou plusieurs algorithmes mathématiques qui suppriment des données des images. Cela prend plus ou moins de temps en fonction de la quantité de données à traiter. La latence de compression introduite dans cette étape est affectée par plusieurs aspects de la compression :

  • Complexité des algorithmes de compression

    H.264 et H.265 sont des méthodes de compression plus avancées que MJPEG. Toutefois, les caméras Axis ont généralement une capacité de compression H.264 et H.265 plus élevée que la compression MJPEG et par conséquent, la latence de compression avec H.264 ou H.265 n'est pas nécessairement plus élevée. En revanche, elle peut être plus élevée sur le site de décodage. Les flux de données H.264 et H.265 produits par les caméras Axis nécessitent que le décodeur mette en tampon au moins une image, alors que le décodage MJPEG ne nécessite pas de tampon. Le profil de stockage Zipstream ajoute quant à lui jusqu'à deux images de latence supplémentaires, soit 66,7 ms pour une vidéo à 30 ips.

  • Efficacité de la méthode de compression

    Les schémas d'encodage les plus courants utilisés dans les caméras Axis sont MJPEG, H.264 et H.265. Ils introduisent tous une latence dans la caméra. H.264 et H.265 réduisent davantage le débit vidéo que MJPEG et par conséquent, il y aura moins de paquets de données à envoyer sur le réseau, à décompresser et à rendre au niveau du récepteur. Cela permettra de réduire la latence totale.

  • Choix du débit binaire

    La compression vidéo permet de réduire le volume des données vidéo. Cependant, toutes les images n'auront pas le même volume après compression. Le volume des données compressées peut varier en fonction de la scène. En d'autres termes, les données compressées d'origine sont constituées de flux à débit binaire variable (VBR), qui se traduisent par la transmission sur le réseau d'un débit binaire variable. Vous devez tenir compte des contraintes du réseau disponible, telles que les limitations de bande passante. Les limitations de bande passante d'un système de flux vidéo nécessitent généralement une régulation du débit binaire de transmission. Dans certains encodeurs, vous pouvez choisir entre VBR et le débit binaire maximal (MBR). En choisissant MBR, vous avez la garantie que le réseau reçoit une quantité limitée de données. En évitant de surcharger le réseau, vous réduisez les retards réseau et la nécessité d'un tampon plus important dans la partie réceptrice du système.

    Dans les caméras Axis, les encodeurs H.264 et H.265 permettent de sélectionner VBR ou MBR, au choix. En général, nous recommandons toutefois d'utiliser VBR avec la vidéo sur IP lorsque la qualité est adaptée au contenu de la scène en temps réel. Il n'est pas recommandé d'utiliser systématiquement MBR comme méthode générique de réduction du stockage ou pour pallier la faiblesse des connexions réseau, car les caméras diffusant de la vidéo MBR peuvent être contraintes d'effacer d'importants détails forensiques dans des situations critiques.

    L'utilisation de Zipstream dans la caméra réduit le débit binaire. La quantité de données reste ainsi réduite, ce qui a pour effet de diminuer la latence dans le réseau.

  • Nombre de flux. Si plusieurs types de flux sont demandés à la caméra (différentes fréquences d'image ou résolutions), le traitement du type de flux supplémentaire ajoutera de la latence car tous les flux doivent être encodés par le même processeur.

Lorsque vous choisissez une méthode de compression, vous devez prendre tous ces aspects en considération. D'une part, un algorithme d'encodage avancé peut prendre plus de temps à coder et à décoder, mais d'autre part, il réduira le volume de données transmises par internet, ce qui raccourcira les délais de transition et réduira la taille du tampon récepteur.

Latence du tampon

La vidéo étant traitée image par image, seule une quantité limitée de données peut être compressée à la fois. Des tampons à court terme sont parfois nécessaires entre les étapes de traitement, ce qui contribue à la latence dans la caméra.

Latence audio

Dans certains cas, le flux vidéo est accompagné d'audio. L'encodeur audio doit attendre un certain nombre d'échantillons avant qu'un bloc soit disponible pour commencer l'encodage de l'audio, ce qui ajoute un délai du côté de la caméra. Les fréquences d'échantillonnage et les tailles de bloc sont différentes selon les algorithmes d'encodage audio.

Latence dans le réseau

Une fois l'image capturée, traitée et compressée, les données vidéo transitent par un réseau avant d'atteindre le client pour le rendu. Pour comprendre l'influence du réseau sur la latence, il faut d'abord comprendre certains concepts de base des réseaux vidéo sur IP : débit binaire, bande passante et débit. La latence d'un réseau est proportionnelle au débit binaire et inversement proportionnelle à la bande passante.

  • Le débit binaire est la quantité de données, mesurée en bits, qui est traitée par unité de temps. Dans le domaine de la vidéosurveillance, le débit binaire est défini par la quantité de données générées par la caméra à envoyer sur le réseau par unité de temps. Il dépend de nombreux facteurs, en particulier de la scène filmée, du traitement effectué dans la caméra et des paramètres du flux vidéo. Lorsque la caméra produit plus de données à transmettre, il faut s'attendre à une latence de réseau plus élevée en cas de bande passante limitée.

  • La bande passante est la quantité de données que le réseau entre la caméra et le moniteur peut potentiellement traiter. Il s'agit de la capacité maximale de votre liaison. La bande passante dépend de la longueur et de l'infrastructure de la liaison, c'est-à-dire des commutateurs, des routeurs, des câbles, des proxys, etc. Si nous augmentons la capacité du réseau, davantage de données pourront transiter, ce qui entraînera une diminution de la latence.

  • Le débit est la vitesse réelle (en bits/s) de votre transfert de données. Il varie selon que vous partagez la liaison avec d'autres flux et dépend des interférences électromagnétiques des câbles de la liaison. Le débit peut également être limité par les paramètres QoS (quality of service) configurés sur les ports.

    Si nous comparons la liaison (le réseau) entre la caméra et le moniteur à un tuyau, le débit binaire (1) correspondrait à la quantité de données acheminées vers le tuyau par unité de temps, la bande passante (2) serait le diamètre du tuyau, et le débit (3) serait une mesure du volume de données transitant effectivement à travers le tuyau par unité de temps.
  1. Débit binaire
  2. Bande passante
  3. Débit

La latence totale du réseau dépend de trois facteurs principaux : l'infrastructure de la liaison entre la caméra et le périphérique de visualisation vidéo (qui détermine la bande passante), la quantité de données produites par la caméra (qui détermine le débit binaire) et le choix du protocole de transmission.

Infrastructure

Le réseau est la source la plus imprévisible dans la latence de bout en bout. Commutateurs, routeurs, câbles, proxys : tous les équipements réseau entre l'expéditeur et le destinataire influent sur la latence totale. La latence d'un réseau LAN pourrait n'être que de quelques ms, ce qui est insignifiant et peut être ignoré. Toutefois, si le flux vidéo doit être transmis sur internet par des itinéraires non spécifiés, la latence du réseau sera difficile à prévoir et pourrait, dans de nombreux cas, être le principal facteur contribuant à la latence de bout en bout.

Grâce à une gestion du réseau et à une allocation de la bande passante judicieuses, les facteurs imprévisibles de la latence du réseau peuvent devenir plus prévisibles. Le débit de la liaison entre la caméra et le périphérique de visualisation doit être garanti.

Dans un réseau LAN, il est possible d'y parvenir en s'assurant que la liaison présente aussi peu de sauts que possible. La liaison ne doit pas être partagée avec un autre trafic comme la voix sur IP (VoIP) ou d'autres protocoles prioritaires par défaut face à la vidéo par défaut, ou avec d'autres services exigeants qui surchargeront la liaison.

Si la liaison est sur un réseau étendu (WAN), la QoS doit être garantie dans chaque saut, c'est-à-dire dans les routeurs et les commutateurs. Il est aussi possible de le faire en réservant un chemin point à point auprès de votre fournisseur d'accès internet local.

Facteurs configurables qui affectent le débit :

  • Informations d'administration du paquet (exemple dépendant du protocole : en-tête VLAN)

  • proxys et pare-feu

  • QoS de chaque liaison sur l'ensemble de l'itinéraire

  • Mode rafale ou non (activé —> débit plus élevé)

  • MTU : volume de la charge utile de la vidéo

Facteurs liés aux coûts qui affectent le débit :

  • Vitesse du processeur et tampon des ports des commutateurs et des routeurs

  • Type de câble (ou sans fil)

Volume de données du flux vidéo

Le choix de la méthode de traitement et de compression de l'image dans la caméra influe sur la latence du réseau car ces choix ont une incidence sur la quantité de données vidéo produites. L'envoi d'une plus petite quantité de données prendra manifestement moins de temps.

Protocoles de transmission

Les images vidéo de la caméra sont transmises à une application de protocole de transport, généralement RTP ou HTTP. La transmission vers le client de rendu s'effectue sur un réseau IP. La transmission s'effectue soit par le biais d'un protocole TCP fiable, qui est un protocole orienté connexion avec retransmission des paquets de données perdus, soit par le biais d'un protocole UDP, qui est un protocole plus simple ne garantissant pas la livraison et n'offrant aucune possibilité de retransmission des paquets perdus.

Avec les caméras Axis, vous disposez des options suivantes lorsque vous encapsulez le flux de données encodées pour la transmission :

Options d'encapsulation du flux de données encodées.
TopologieModes d'encapsulation recommandés pour les paquets vidéo Axis
LAN / moins de sauts et de nœuds directement gérésMJPEG / HTTP / TCP
LAN / moins de sauts et de nœuds directement gérésH.264, H.265 ou MJPEG / RTP / RTSP / HTTP / TCP
LAN / moins de sauts et de nœuds directement gérésH.264, H.265 ou MJPEG / RTP / RTSP / TCP
WAN / plusieurs sauts où vous n'avez pas un contrôle total sur les nœudsH.264, H.265 ou MJPEG / RTP / Unicast / UDP
WAN / plusieurs sauts où vous n'avez pas un contrôle total sur les nœudsH.264, H.265 ou MJPEG / RTP / Multicast / UDP

Connexion à distance / cloud / WAN / plusieurs sauts où vous n'avez pas un contrôle total sur les nœuds

H.264, H.265 ou MJPEG / RTP / WebRTC / UDP ou TCP

Normalement, le transport d'un paquet par TCP prend plus de temps que par UDP en raison de la configuration supplémentaire de la connexion, des messages d'accusé de réception et de la retransmission des paquets lorsqu'une perte est détectée. En revanche, avec UDP, l'utilisateur subit des artefacts ou des interruptions dans le flux vidéo lorsque des paquets sont perdus en cours de route. TCP produit une gigue en cas de perte de paquets, tandis qu'UDP produit des artefacts et/ou des interruptions en cas de perte de paquets. Si la perte de données et la dégradation temporaire de la qualité sont acceptables, UDP pourrait être une option pour les réseaux à faible bande passante.

Si vous utilisez le protocole TCP, il y aura plus de paquets à envoyer et par conséquent, vous aurez besoin d'une bande passante plus importante. Si vous savez que le réseau est très congestionné, vous devriez choisir UDP comme protocole de transmission. L'acceptation de la perte de paquets entraînera parallèlement une perte de paquets qui se traduira par une image de moins bonne qualité.

Avec WebRTC et le débit binaire adaptatif, la vidéo sera adaptée au réseau pour éviter les pics de latence incontrôlables tels qu'ils peuvent se produire avec TCP.

Latence du côté du client

Une fois que la vidéo est reçue du côté du client du système vidéo, elle est dépaquetée, réordonnée et décodée, et un lecteur multimédia est utilisé pour restituer la vidéo. Chaque étape contribue à la latence totale générée du côté du client, et l'ordinateur lui-même joue un rôle important. La capacité du processeur, le système d'exploitation, la carte réseau et la carte graphique influencent la latence. En général, MJPEG est la méthode qui présente la latence de décodage et d'affichage la plus faible, car les données peuvent être tracées à l'écran à mesure qu'elles arrivent, sans codes temporels. H.264 et d'autres normes de compression vidéo assignent des codes temporels à chaque image et exigent qu'elles soient rendues en conséquence.

Tampon de lecture

Les réseaux réels sont souvent très vastes et compliqués, avec un trafic en rafale et des paquets arrivant dans un ordre différent. Pour compenser les variations introduites par le transport sur le réseau, un tampon est utilisé du côté du client. Appelé tampon de lecture ou tampon de gigue, ce tampon veille à ce que les paquets soient placés dans le bon ordre et met en mémoire tampon une quantité de données suffisante pour que le décodeur reste toujours « occupé » ; une fréquence d'image uniforme est affichée dans la visionneuse.

Ce tampon contribue à une latence relativement élevée. La taille du tampon de lecture varie d'une application de visionneuse à l'autre et peut être modifiée dans la plupart des visionneuses. Il importe toutefois de garder à l'esprit que la réduction du tampon augmentera la gigue et par conséquent, vous devez trouver un équilibre entre la gigue et une latence acceptable.

Tampon audio

En relecture, le flux audio est plus sensible aux contretemps ou aux retards que le flux vidéo. Un seul paquet audio retardé génère un craquement gênant dans la bande sonore, et l'audio doit être synchronisé avec la vidéo. Il est nécessaire, pour ces motifs, de paramétrer un tampon de lecture important lorsque la vidéo est accompagnée d'audio, ce qui augmente bien sûr la latence.

Décompression

Le temps nécessaire au processus de décompression dépend de la méthode d'encodage utilisée. La latence du décodage dépend en grande partie de la prise en charge du décodeur matériel disponible sur la carte graphique. Le décodage matériel est généralement plus rapide que le décodage logiciel. En général, le décodage H.264 prend plus de temps que le décodage MJPEG. Pour le décodage H.264, la latence dépend également du profil que vous avez choisi lors de la phase d'encodage. Le profil Baseline est le plus facile à décoder, tandis que le profil Main et le profil High prendront plus de temps à décoder. Le flux de données H.264 produit par les produits vidéo Axis nécessite que le décodeur mette en tampon au moins une image.

Périphérique d'affichage

Le périphérique d'affichage influe également sur la latence, par le biais du temps de transfert, de la fréquence de rafraîchissement et du temps de réponse.

Le temps de transfert est le temps nécessaire pour que les données vidéo décodées soient envoyées du décodeur au moniteur via le câble (par exemple HDMI). Il dépend du débit de transmission du câble et de la résolution du moniteur. Pour un moniteur Full HD connecté avec un câble HDMI standard, cela ajoute environ 10 ms de latence.

La fréquence de rafraîchissement du périphérique d'affichage a également une incidence sur la latence. Pour les moniteurs d'ordinateur, la fréquence de rafraîchissement est d'environ 17 à 20 ms, tandis que les moniteurs de jeu spéciaux présentent une fréquence de rafraîchissement de 4 à 5 ms.

Le temps de réponse est le temps nécessaire pour que les pixels du moniteur changent de valeur. Tout dépend de l'ampleur du changement, mais pour les changements les plus importants, cela peut ajouter 5 à 20 ms de latence.

Réduction de la latence

La conception d'un système permettant d'atteindre les objectifs de faible latence nécessitera d'autres compromis. Vous devez déterminer la latence acceptable et trouver un équilibre entre la qualité vidéo et le coût du système de surveillance. Ce chapitre fournit quelques recommandations simples concernant le côté caméra, le réseau et le côté client, afin de réduire la latence de bout en bout.

Réduction de la latence dans la caméra

  • Résolution. Choisissez une résolution plus basse si possible. Une résolution plus élevée implique une plus grande quantité de données à encoder, ce qui peut entraîner une latence plus élevée.

  • Améliorations. Réduisez les améliorations d'image comme la rotation, le désentrelacement et la mise à l'échelle. L'utilisation d'améliorations d'image peut ajouter de la latence.

  • Mode faible latence. Vous pouvez optimiser la durée de traitement d'image de votre flux de données vidéo en direct en activant le mode faible latence dans les paramètres de configuration de base. La latence de votre flux en direct est réduite au minimum, mais la qualité d'image est moins bonne que d'habitude.

  • Masquage de confidentialité. Envisagez de ne pas utiliser le masquage de confidentialité car il ajoute de la latence.

  • Encodage. Assurez-vous que l'encodeur offre le niveau de contrôle sur la latence dont votre système a besoin. Un équilibre doit être trouvé entre le volume de données et la capacité de l'infrastructure réseau. Si la vidéo est transmise par un réseau à bande passante limitée, choisissez H.264 ou H.265 comme méthode d'encodage. Cela se traduira par un débit binaire plus faible en raison d'une compression plus forte. Choisissez le profil Baseline si le réseau peut gérer le débit binaire, car il est plus facile à encoder et à décoder.

  • Profil de stockage dans Zipstream. Envisagez de ne pas utiliser le profil de stockage car il ajoute de la latence.

  • Nombre de flux. Limitez le nombre de flux de la caméra configurés avec des paramètres différents. Chaque combinaison unique de paramètres, tels que la résolution, la fréquence d'image et la compression, nécessite son propre processus d'encodage, ce qui alourdit le processeur et entraîne des retards.

  • Débit binaire. Essayez d'utiliser un débit binaire plus faible. Pour réduire la latence de la caméra, nous devons réduire la quantité de données générées. Le débit binaire est affecté par de nombreux facteurs, tels que les conditions d'illumination, le type de scène, le niveau de compression, la résolution, la fréquence d'image, etc.

  • Fréquence d’image. Utilisez une fréquence d'image la plus élevée possible. Comme les images sont encodées et décodées l'une après l'autre, les tampons accusent un retard d'au moins une image. Avec des fréquences d'image plus élevées, les retards causés dans les tampons seront réduits. Pour un flux de 30 ips, la capture de chaque image prend 1/30 de seconde. On peut alors s'attendre à une latence allant jusqu'à 33 ms dans les tampons. Pour 25 ips, le délai peut atteindre 40 ms.

  • Mode de capture. Envisagez d'utiliser un mode de capture avec une résolution aussi faible et une fréquence d'image aussi élevée que possible. La faible résolution signifie qu'il y a moins de pixels à traiter et la fréquence d'image élevée implique que le délai de mise en mémoire tampon est réduit.

  • Audio. Envisagez de ne pas utiliser l'audio. L'audio qui doit être synchronisé avec la vidéo nécessite un tampon de relecture plus important, ce qui entraîne une latence plus élevée.

Réduction de la latence dans le réseau

De nombreuses recommandations relevant du côté caméra visent à limiter le volume total de données envoyées sur le réseau. Dans la plupart des cas, les limitations du réseau forment la part majoritaire de la latence de bout en bout. Si le réseau présente une capacité élevée, bon nombre des recommandations ci-dessus ne sont pas nécessaires. Assurez-vous que votre réseau dispose d'une bonne qualité de service et que tous les sauts au sein du réseau sont configurés pour répondre aux demandes de votre vidéo. Assurez-vous que votre débit binaire sur le réseau est garanti pour pouvoir transmettre les données sortant de la caméra.

Réduction de la latence du côté du client

Les améliorations du côté du client ont un impact important sur la latence de bout en bout, et vous disposez généralement de plusieurs leviers d'action.

Processeur et carte graphique. Le processeur joue un rôle capital dans la latence du côté du client. Utilisez un bon processeur avec une capacité suffisante pour traiter le flux vidéo et d'autres demandes simultanément. Utilisez une bonne carte graphique dotée des derniers logiciels et de la prise en charge du décodage.

Visionneuse/VMS. Veillez à ce que votre visionneuse n'ait pas un tampon de lecture inutilement long, mais soyez conscient du compromis avec la gigue vidéo.

Écran. Utilisez un écran avec une fréquence de rafraîchissement aussi rapide que possible. Pour obtenir une vidéo en direct fluide (mais sans incidence sur la latence), réglez la fréquence de l'écran sur un multiple de la fréquence d'image de capture de la caméra. Par exemple, 60 Hz pour le mode 30 ips ou 50 Hz pour le mode 25 ips.