Détecter des objets à l’aide du Deep Learning (Map Viewer)

L’outil Detect Objects Using Deep Learning (Détecter des objets à l’aide du Deep Learning) utilise un modèle de Deep Learning pour identifier et localiser des objets dans une couche d’imagerie.

La sortie correspond à une couche d'entités hébergée.

Exemples

Cet outil peut par exemple s’utiliser dans les scénarios suivants :

  • Identifier des emprises de bâtiment afin de permettre à une collectivité locale ou à un groupe d’intervention d’urgence régional de mettre à niveau les données fiscales et foncières. La couche en sortie produite par l’outil est une couche d’entités capable d’identifier les bâtiments dans une zone. La couche d’entités créée permet de mettre en correspondance les registres d’un bien existant et l’emprise actuelle du bien.
  • Identifier les véhicules dans un parking afin de déterminer la fréquentation et de préparer des études sur le trafic. La couche d’entités créée peut être utilisée dans l’outil Classify Objects Using Deep Learning (Classer des objets à l’aide du Deep Learning) pour classer le type de véhicule détecté.

Remarques sur l’utilisation

Detect Objects Using Deep Learning (Détecter des objets à l’aide du Deep Learning) inclut des configurations pour la couche en entrée, les paramètres du modèle et la couche de résultat.

Couche en entrée

Le groupe Input layer (Couche en entrée) comprend les paramètres suivants :

  • Input imagery layer or feature layer (Couche d’imagerie ou couche d’entités en entrée) désigne la couche d’imagerie ou la couche d’entités avec pièces jointes qui sera utilisée pour détecter les objets identifiés dans le modèle de Deep Learning. La couche d’imagerie sélectionnée doit être fondée sur les exigences du modèle de Deep Learning qui sera utilisé pour classer les pixels.
  • Le Processing mode (Mode de traitement) indique la façon dont les éléments raster sont traités dans la couche d’imagerie. Les options sont les suivantes :
    • Process as mosaicked image (Traiter comme image mosaïquée) : tous les éléments raster dans le jeu de données mosaïque ou le service d’imagerie sont mosaïqués ensemble et traités. Il s’agit de l’option par défaut.
    • Process all raster items separately (Traiter tous les éléments raster séparément) : tous les éléments raster dans le jeu de données mosaïque ou le service d’imagerie sont traités en tant qu’images séparées.

Paramètres du modèle

Le groupe Model settings (Paramètres du modèle) comporte les paramètres suivants :

  • Model for object detection (Modèle pour la détection des objets) est le modèle de Deep Learning qui sera utilisé pour détecter les objets Le modèle de Deep Learning doit se trouver dans ArcGIS Online pour pouvoir être sélectionné dans l’outil. Vous pouvez sélectionner votre propre modèle, un modèle disponible publiquement dans ArcGIS Online ou un modèle de ArcGIS Living Atlas of the World.
  • Model arguments (Arguments du modèle) spécifie les arguments de fonction définis dans la classe de fonctions raster Python. Sont répertoriés les paramètres de Deep Learning supplémentaires et les arguments des expériences et améliorations, tels qu’un seuil de confiance pour l’ajustement de la sensibilité. Les noms des arguments sont renseignés à partir du module Python.
  • Non maximum suppression (NMS) (Suppression non maximale [NMS]) indique si une suppression non maximale doit être exécutée pour supprimer les objets en double identifiés grâce aux valeurs de confiance.
  • Confidence score field (Champ de score de confiance) désigne le nom du champ qui va enregistrer les scores de confiance créés comme sorties par la méthode de détection des objets. Ce paramètre est disponible si vous activez le paramètre Non Maximum Suppression (NMS) (Suppression non maximale (NMS)).
  • Class value field (Champ de valeur de classe) est le champ de la couche d’entités en sortie qui va contenir la valeur provenant de la couche d’imagerie en entrée. Si aucune valeur n’est spécifiée, les champs de valeur de classe standard Classvalue et Value sont utilisés. Si ces champs n’existent pas, toutes les entités seront traitées comme la même classe d’objets. Ce paramètre est disponible si vous activez le paramètre Non Maximum Suppression (NMS) (Suppression non maximale (NMS)).
  • Maximum overlap ratio (Ratio de superposition maximale) spécifie le rapport entre la zone d’intersection et la zone d’union pour deux entités superposées. La valeur par défaut est 0. Ce paramètre est disponible si vous activez le paramètre Non Maximum Suppression (NMS) (Suppression non maximale (NMS)).

Couche de résultat

Le groupe Result layer (Couche de résultat) comprend les paramètres suivants :

  • Le paramètre Output name (Nom en sortie) spécifie le nom de la couche qui a été créée et est affichée. Le nom doit être unique. Si une couche du même nom existe déjà dans votre organisation, l’outil échoue et vous êtes invité à utiliser un autre nom.
  • Le paramètre Save in folder (Enregistrer dans un dossier) indique le nom d’un dossier de My content (Mon contenu) dans lequel est enregistré le résultat.

Environnements

Les paramètres d’environnement d’analyse sont des paramètres supplémentaires qui affectent les résultats d’un outil. Vous pouvez accéder aux paramètres d’environnement d’analyse de l'outil à partir du groupe de paramètres Environment settings (Paramètres d'environnement).

Cet outil respecte les environnements d'analyse suivants :

Crédits

Cet outil consomme des crédits.

Utilisez le paramètre Estimate credits (Estimer les crédits) pour calculer le nombre de crédits requis pour exécuter l’outil. Pour plus d’informations, reportez-vous à la rubrique Comprendre les crédits pour l’analyse spatiale.

Sorties

La sortie est une couche d’entités où chaque objet détecté est défini comme entité individuelle, avec ajout des champs de valeur de classe et de confiance.

Conditions d’utilisation

Cet outil requiert le type d’utilisateur et les configurations suivants :

  • Type d’utilisateur Professional ou Professional Plus
  • Rôle d’éditeur, de facilitateur ou d’administrateur, ou rôle personnalisé équivalent avec le privilège Imagery Analysis (Analyse d’images)

Ressources

Référez-vous aux ressources suivantes pour en savoir plus :