Disponible avec une licence Image Analyst.
Full Motion Video (FMV) dans l’extension ArcGIS Image Analyst propose des fonctionnalités de lecture et d’analyse géospatiale pour les vidéos compatibles avec FMV. La compatibilité FMV fait référence à la combinaison d’un flux vidéo et des métadonnées associées dans un même fichier vidéo, ce qui rend la vidéo géospatiale. Les systèmes de capteur collectent les informations relatives à l’orientation de la caméra, la position et l’attitude de la plateforme, ainsi que d’autres données, et les encodent dans le flux vidéo afin que chaque image vidéo soit associée à des informations de géopositionnement.
Ces données vidéo géospatiales, avec les fonctions de calcul de AllSource, vous permettent de visualiser et manipuler la vidéo, tout en prêtant attention aux dynamiques des capteurs et au champ de visibilité, et d’afficher ces informations dans la vue cartographique. Elles permettent également d’analyser et de mettre à jour les données d’entités dans la vue vidéo ou dans la vue cartographique, et d’appliquer des annotations à main levée sur la vidéo.
FMV utilise les métadonnées pour convertir facilement les coordonnées entre l’espace image vidéo et l’espace cartographique, de la même manière que le système de coordonnées d’image (ICS) dans l’analyse de l’espace image transforme les images fixes. Cette conversion fournit la base de l’interprétation des données vidéo dans le contexte intégral de toutes les autres données géospatiales et informations de votre SIG. Par exemple, vous pouvez afficher l'emprise des images vidéo, le centre des images et la position de la plateforme d'imagerie sur la vue cartographique à mesure de la lecture de la vidéo, avec vos couches SIG, telles que les bâtiments, et les ID, barrières géographiques et autres informations pertinentes.
Vous pouvez procéder à l’analyse forensique ou temps réel des données FMV, immédiatement après une collecte. Cela convient parfaitement pour la perception de situation, car il s’agit souvent de l’imagerie la plus actuelle disponible pour une localisation. Par exemple, si votre tâche consiste à évaluer les dégâts après une catastrophe naturelle, vous pouvez utiliser FMV pour analyser les dernières données vidéo collectées depuis un drone, ainsi que les couches de données SIG existantes. Comme l’emprise vidéo est visible sur la carte, vous savez exactement quels bâtiments et quelle infrastructure sont visibles sur la vidéo et vous pouvez évaluer leur condition, marquer les entités au sol dans la vidéo et sur la carte, ajouter leur position dans des géosignets et les décrire dans des notes. FMV est conçu pour évaluer, analyser et diffuser rapidement des informations exploitables pour faciliter les décisions.
Pour plus d’informations sur Full Motion Video, consultez le forum aux questions.
Fonctionnalités et avantages de FMV
FMV bénéficie de métadonnées cruciales, fournit des outils de traitement visuel et analytique et offre les fonctionnalités de la plateforme AllSource pour prendre en charge des processus de projets critiques.
- FMV est entièrement intégré à AllSource, qui tire parti de l’architecture système, des modèles de données, des outils et fonctionnalités et du partage sur toute la plateforme ArcGIS.
- Vous pouvez consulter et analyser des vidéos en direct et des vidéos archivées.
- Vous pouvez déplacer le lecteur vidéo n’importe où sur votre écran d’ordinateur, le redimensionner, le réduire et le fermer.
- Le lecteur vidéo est associé à l’affichage cartographique, ce qui permet les opérations suivantes :
- Afficher l’emprise vidéo, la localisation du capteur et le champ de vision sur la carte.
- Toutes les informations collectées dans le lecteur vidéo sont projetées et apparaissent sur la carte, avec les données SIG existantes.
- Mettre à jour la carte pour zoomer sur l’image vidéo et suivre les vidéos sur la carte.
- Vous pouvez ouvrir et lire plusieurs vidéos en même temps. Chaque vidéo, ainsi que ses informations associées, est identifiée par une couleur unique lorsqu’elle apparaît sur la carte.
- Utilisez les contrôles de lecture intuitifs, les outils de capture d’images et de clips vidéo et les outils d’analyse.
- Afficher les métadonnées en temps réel.
- Créer et gérer des géosignets.
- Marquer des emplacements et des phénomènes qui présentent un intérêt.
- L’affichage est accéléré par un GPU.
Ces fonctionnalités constituent le socle des processus qui intègrent un contexte spatial avancé dans le processus d’analyse vidéo.
Vue d’ensemble de Full Motion Video
Les données FMV sont principalement utilisées pour renforcer les décisions dans les environnements opérationnels. Comprendre qui utilise les données FMV et comment elles sont collectées et utilisées permet d’obtenir un contexte important pour évaluer les fonctions de FMV.
Secteurs d’activité qui utilisent FMV
FMV est utile pour surveiller les localisations distantes, inaccessibles ou dangereuses. Les types d’organisations qui utilisent FMV sont notamment les suivants :
- Sécurité civile et gestion des situations d’urgence
- Défense
- Compagnies pétrolières
- Gouvernements fédéraux et autorités locales
- Patrouille frontalière
- Utilitaires
- Professionnels des ressources naturelles
Il existe de nombreux types d’applications pour FMV :
- Gestion des situations d’urgence et sécurité civile
- Perception de situation
- Evaluation des dégâts
- Réponse
- Atténuation des risques
- Surveillance de sécurité
- Gestion des ressources
- Cartographie, surveillance et gestion des couloirs
- Transmission de service, tels que les réseaux de distribution d’électricité, de gaz, d’eau ou d’autres modes d’acheminement
- Transports, tels que les routes, ponts, voies ferrées, autoroutes et postes frontières aériens, terrestres et maritimes
- Communication, telle que les antennes-relais de téléphonie mobile et les infrastructures
- Hydrologie, telle que les infrastructures naturelles et humaines
- Zones riveraines, telles que les mémoires tampon de flux par portée, habitat, cartographie de la diversité et liens
- Défense
- Intelligence, surveillance et reconnaissance
- Support de mission
- Contre-espionnage
- Surveillance des infrastructures
- Inventaire
- Nouveau développement
- Vérification des dessins tels que construits et planifiés
- Conformité et sécurité
Mode de collecte des données FMV
L’application FMV dans AllSource utilise les données collectées à partir de différentes plateformes de télédétection. Les métadonnées et données vidéo sont collectées simultanément, puis les métadonnées sont encodées dans le fichier vidéo soit en temps réel dans la plateforme de capteur (compatible MISB), soit ultérieurement lors d’une étape de traitement nommée le multiplexage.
Les données FMV sont collectées à partir de différentes plateformes de capteur :
- Drones (aéronefs sans pilote, systèmes aériens sans pilote, aéronefs pilotés à distance, drones)
- Plateformes aériennes de type hélicoptère ou à ailes fixes
- Capteurs spatiaux en orbite
- Caméras montées sur véhicule
- Caméras et appareils mobiles portables
- Appareils stationnaires pour une surveillance constante
FMV prend en charge 13 formats vidéo :
Description | Extension |
---|---|
Flux de transport MPEG-2 | .ts |
Flux de programme MPEG-2 | .ps |
Fichier MPEG | .mpg |
Fichier MPEG-2 | .mpg2 |
Fichier MPEG-2 | .mp2 |
Fichier MPEG | .mpeg |
VLC (mpeg2) | .mpeg2 |
Film MPEG-4 | .mp4 |
Fichier MPEG-4 | .mpg4 |
MPEG-Dash | .mpd |
Fichier vidéo H264 | .h264 |
Fichier média VLC (mpeg4) | .mpeg4 |
Fichier média VLC (vob) | .vob |
HLS (à débit adaptatif [Adaptive Bitrate ou ABR]) | .m3u8 |
Configuration système requise pour FMV
Les configurations système requises minimale, recommandée et optimale pour FMV dans AllSource sont décrites ci-après. La configuration système requise minimale ne permet la lecture que d’une seule vidéo. La configuration système requise recommandée permet d’utiliser les outils FMV lors de la lecture d’une seule vidéo. La configuration système requise optimale permet d’utiliser les outils FMV lors de la lecture de plusieurs vidéos.
Élément | Pris en charge et recommandé |
---|---|
Processeur | Minimale : 4 cœurs à 2,6 GHz, multithreading simultané. Le multithreading simultané, ou hyperthreading, des processeurs comporte généralement deux threads par cœur. Un processeur double cœur multithread possède quatre threads disponibles pour le traitement, tandis qu’un processeur à six cœurs multithread en possède douze. Recommandée : 6 cœurs. Optimale : 2 cœurs. |
Fonctionnalités FMV
FMV prend en charge différents environnements opérationnels, de la perception de situation et de l’intervention d’urgence avec contrainte temporelle à l’aide d’une vidéo diffusée en continu en direct à l’analyse de vidéos archivées quotidiennement ou toutes les heures à des fins de surveillance en passant par l’analyse forensique de données historiques archivées. Chaque type d’application requiert des outils d’analyse et de visualisation intuitifs pour identifier et enregistrer rapidement des entités ou situations présentant un intérêt et pour diffuser les informations extraites auprès des décideurs et parties prenantes. Les fonctionnalités FMV comme support de décision sont classées dans les différentes fonctions essentielles ci-dessous.
Onglets vidéo contextuels
Lorsque vous chargez une vidéo sur la carte et la sélectionnez dans la fenêtre Contents (Contenu), les onglets contextuels Standalone Video (Vidéo autonome) et Player (Lecteur) s’affichent.
Onglet Vidéo autonome
Lorsqu’une vidéo est chargée à l’écran, le fichier vidéo est répertorié dans la fenêtre Contents (Contenu) et l’onglet Standalone Video (Vidéo autonome) est activé. Les outils de l’onglet Standalone Video (Vidéo autonome) permettent de gérer vos données vidéo. Cet onglet est organisé en quatre groupes : Open (Ouvrir), Bookmarks (Géosignets), Save (Enregistrer) et Manage (Gérer).
Les outils de l’onglet Standalone Video (Vidéo autonome) sont décrits dans l’onglet Vidéo autonome.
Onglet Lecteur
L’onglet contextuel Player (Lecteur) est activé lorsque vous sélectionnez une vidéo dans la fenêtre Contents (Contenu).
L’onglet Player (Lecteur) contient des outils pour naviguer dans la vidéo, ajouter et gérer des graphiques et consulter les métadonnées de la vidéo. Ces outils sont aussi disponibles dans le lecteur pour faciliter leur utilisation.
Les outils permettent notamment de zoomer sur la vue cartographique associée pour afficher l’image vidéo entière au sol, d’afficher la trace au sol du capteur et le champ de vision de l’image vidéo et de zoomer et se déplacer sur la carte pour suivre la vidéo au sol. Ces outils vous apportent un contexte géographique lorsque vous utilisez vos données vidéo.
Lecteur vidéo
Le lecteur vidéo comprend des contrôles vidéo standard, tels que la lecture, l’avance rapide, le retour rapide, l’avance d’une image, le recul d’une image, l’accès au début ou l’accès à la fin de la vidéo. Vous pouvez effectuer un zoom avant et faire défiler une vidéo lorsqu’elle est en mode lecture ou en pause.
D’autres outils permettent de capturer, d’annoter et d’enregistrer des géosignets vidéo, de capturer des images vidéo uniques et d’exporter des clips vidéo.
Géosignets
La création de géosignets vidéo est une fonction importante pour enregistrer des phénomènes et entités d’intérêt lors de l’analyse d’une vidéo. Vous pouvez collecter des géosignets vidéo dans les différents modes de lecture d’une vidéo (lecture, pause, avance rapide et retour rapide). Vous pouvez décrire les géosignets dans la fenêtre Bookmark (Géosignet) qui s’ouvre lorsque vous collectez un géosignet vidéo. Les géosignets sont collectés et gérés dans la fenêtre Bookmarks (Géosignets) disponible dans AllSource, sous l’onglet Map (Carte) du groupe Navigate (Naviguer).
Ajouter des métadonnées aux vidéos
Dans FMV, vous pouvez uniquement utiliser des vidéos qui contiennent des métadonnées essentielles. Les systèmes de collecte de données vidéo aériens professionnels collectent généralement les métadonnées requises et les encodent dans le fichier vidéo en temps réel. Ces données sont saisies directement dans l’application FMV, en mode diffusion en continu en direct ou depuis un fichier archivé.
Les systèmes de collecte vidéo grand public produisent généralement des fichiers de métadonnées et de données vidéo distincts qui doivent être combinés dans un fichier vidéo FMV unique. Ce traitement est réalisé dans le logiciel et se nomme le multiplexage. FMV fournit l’outil Multiplexeur vidéo, qui encode les métadonnées appropriées à la position convenue du fichier vidéo pour produire un fichier vidéo FMV unique. Chaque fichier de métadonnées et vidéo utilise des horodatages pour synchroniser l’encodage des métadonnées appropriées à la position convenue dans le fichier vidéo.
Les métadonnées sont générées à partir de capteurs appropriés, tels qu’un GPS pour la position x,y,z, l’altimètre et l’unité de mesure inertielle (UMI), ou d’autres sources de données pour l’orientation de la caméra. Le fichier de métadonnées doit être au format CSV (valeurs séparées par des virgules).
Les métadonnées FMV permettent de calculer la trajectoire de vol du capteur vidéo, le centre de l’image vidéo et l’emprise au sol des images vidéo. FMV prend également en charge les spécifications de métadonnées MISB (Motion Imagery Standards Board). Tous les paramètres MISB qui sont fournis seront encodés dans la vidéo finale compatible avec FMV.
Un ensemble des paramètres FMV inclut les coordonnées cartographiques des quatre angles de l’image vidéo projetée au sol. Si les coordonnées cartographiques de ces quatre angles sont fournies, elles sont utilisées. Sinon, l’outil calcule l’emprise vidéo à partir d’un sous-ensemble des paramètres requis.
Pour calculer et afficher les points d’angle relatifs de l’emprise d’image vidéo en tant que contour d’image sur la carte, FMV a besoin des 12 champs de métadonnées essentiels répertoriés ci-dessous :
- Horodatage de précision
- Latitude du capteur
- Longitude du capteur
- Hauteur ellipsoïdale du capteur ou altitude réelle du capteur
- Angle de cap de la plateforme
- Angle de tangage de la plateforme
- Angle de roulis de la plateforme
- Angle de roulis relatif du capteur
- Angle d’élévation relative du capteur
- Angle d’azimut relatif du capteur
- Champ de vision horizontal du capteur
- Champ de vision vertical du capteur
Une fois les métadonnées complètes et précises, l’outil calcule les angles de l’image vidéo et donc la taille, la forme et la position du contour de l’image vidéo, qui peut alors s’afficher sur la carte. Ces 12 paramètres comprennent les métadonnées minimales requises pour calculer la transformation entre la vidéo et la carte, pour afficher l’emprise vidéo sur la carte et pour activer d’autres fonctions telles que la numérisation et le marquage de la vidéo et de la carte.
FMV prend en charge les données VMTI (Video Moving Target Indicator), basées sur des méthodes de suivi d’objet dans l’imagerie animée. Si les données VMTI sont enregistrées dans un fichier distinct du fichier vidéo associé, vous pouvez les encoder dans le fichier vidéo à l’aide de l’outil Multiplexeur vidéo.
Les performances du fichier vidéo multiplexé obtenu dépendent du type et de la qualité des données contenues dans le fichier de métadonnées et du degré de précision avec lequel les fichiers de métadonnées et de données vidéo sont synchronisés. Si les métadonnées ne sont pas précises ou comportent des anomalies, ces différences sont encodées dans la vidéo et affichées sur la carte lors de la lecture de la vidéo. Si votre fichier metadata.csv contient uniquement les champs UNIX Time Stamp, Sensor Latitude et Sensor Longitude, la position du capteur apparaît sur la carte, mais l’emprise des images vidéo ne peut pas s’afficher et certaines fonctions telles que la numérisation des entités et la mesure de la distance dans la vidéo ne sont pas prises en charge.
Vos métadonnées peuvent être saisies dans le modèle de métadonnées FMV, FMV_Multiplexer_Field_Mapping_Template.csv, accessible à cet emplacement C:\Program Files\ArcGIS\Pro\Resources\FullMotionVideo. Ce modèle contient les 12 champs de métadonnées essentiels pour calculer l’emprise de l’image vidéo et des champs supplémentaires inclus dans la spécification MISB. Si les noms de vos champs de métadonnées ne concordent pas avec ceux requis pour FMV, ils peuvent être appariés avec les noms de champ FMV du modèle FMV_Multiplexer_Field_Mapping_Template.csv.
Dans l’idéal, les métadonnées et données vidéo sont temporellement synchrones. Si l’horodatage qui lie la vidéo et les métadonnées n’est pas synchronisé avec précision, l’emprise vidéo et la position du capteur sur la carte seront décalées par rapport à la vue dans le lecteur vidéo. Si le décalage temporel est observable et cohérent, le multiplexeur peut ajuster le minutage des métadonnées sur celui de la vidéo. Les décalages temporels sont appliqués en créant et en saisissant un fichier CSV facultatif dans l’outil Multiplexeur vidéo qui identifie la position du décalage dans la vidéo et sa différence temporelle associée. Utilisez le modèle FMV_Multiplexer_TimeShift_Template.csv accessible à cet emplacement C:\Program Files\ArcGIS\Pro\Resources\FullMotionVideo pour ajuster les décalages. Le modèle contient des colonnes étiquetéeselapsed time, qui correspond à la position du décalage temporel dans la vidéo et time shift, qui est la durée du décalage. Si le décalage temporel entre votre vidéo et les métadonnées est incohérent, vous pouvez répertorier plusieurs positions dans la vidéo avec le décalage temporel associé dans le modèle. Cela indique au multiplexeur où positionner les métadonnées appropriées par rapport au minutage de la vidéo.
Suivi d’objet
FMV prend en charge deux méthodes de suivi d’objet : indication de cible mobile vidéo (VMTI) et suivi basé sur le Deep Learning. Les méthodes VMTI suivent l’objet manuellement ou automatiquement et encodent sa position dans une image vidéo donnée. Un identifiant (ID) et un rectangle d’emprise est associé à chaque objet, qui est enregistré dans la vidéo archivée. Lors de la lecture de la vidéo, les informations associées à l’objet VMTI s’affichent. FMV exige que les métadonnées vidéo encodées respectent la norme MISB (Motion Imagery Standards Board) sur l’indicateur de cible mobile vidéo (VMTI) et le suivi des métadonnées (ST 0903).
La fonctionnalité de suivi d’objet basée sur le Deep Learning fournit des outils automatisés et assistés par ordinateur adaptés à diverses situations observées lors de l’identification et du suivi des objets d’une imagerie vidéo. Elle met la technologie de Deep Learning au service de la détection, de l’extraction et de l’appariement des objets. Créez un modèle de Deep Learning pour identifier des objets et classes d’entités spécifiques et utilisez la suite d’outils pour identifier, sélectionner et suivre ces objets d’intérêt. Vous pouvez numériser les centroïdes du rectangle d’identification d’un objet et les enregistrer sous forme de classe de points dans la géodatabase du projet. Vous pouvez ensuite afficher les objets pendant la lecture de la vidéo archivée.
Remarque :
Vous devez installer les paquetages de structure de Deep Learning pour exécuter un suivi d’objet basé sur le Deep Learning. Reportez-vous à la configuration système requise pour en savoir plus.
Résumé
Les caractéristiques géospatiales de FMV conviennent parfaitement aux applications d’analyse forensique ou temps réel et de perception de la situation. La capacité de projection et d’affichage de la trajectoire de vol et de l’emprise de l’image vidéo sur la carte fournit un contexte important à la vidéo et permet la collecte bidirectionnelle des entités dans le lecteur vidéo et la carte.
Ces fonctionnalités, alliées aux géosignets vidéo annotés, permettent à un analyste d’identifier des segments ou des images vidéo spécifiques pour réaliser des analyses plus poussées et partager ces informations avec d’autres intervenants. En intégrant la vidéo FMV aux fonctions SIG entières, vous pouvez synthétiser des informations contextuelles importantes pour favoriser une prise de décision éclairée dans des environnements opérationnels.
Vous avez un commentaire à formuler concernant cette rubrique ?