Classer des objets à l’aide du Deep Learning (Map Viewer)

L’outil Classify Objects Using Deep Learning (Classer des objets à l’aide du Deep Learning) exécute un modèle de Deep Learning sur une couche d’imagerie afin de produire une table ou une couche d’entités dans laquelle chaque objet d’entrée est classé.

La sortie correspond à une couche d'entités hébergée.

Exemples

Cet outil peut par exemple s’utiliser dans les scénarios suivants :

  • Évaluez le nombre de bâtiments endommagés après une catastrophe naturelle. À partir d’une couche d’entités des emprises de bâtiment et une couche d’imagerie affichant les zones sinistrées, l’outil sait indiquer si les bâtiments existants ont été endommagés.
  • Indiquez l’état de la canopée pour des arbres existants. À partir d’une couche d’entités de canopées d’arbres et une couche d’imagerie affichant la canopée d’arbres actuelle, l’outil sait indiquer si les arbres existants sont sains ou menacés.

Remarques sur l’utilisation

Classify Objects Using Deep Learning (Classer des objets à l’aide du Deep Learning) inclut des configurations pour les couches en entrée, les paramètres du modèle et la couche de résultat.

Couche en entrée

Le groupe Input layer (Couche en entrée) comprend les paramètres suivants :

  • Input imagery layer or feature layer (Couche d’imagerie ou couche d’entités en entrée) désigne la ou les couches d’imagerie qui seront utilisées pour classer les objets. La couche d’imagerie sélectionnée doit être fondée sur les exigences du modèle de Deep Learning qui sera utilisé pour classer les objets. La couche d’imagerie peut être multidimensionnelle ou une collection d’images.
  • Input feature layer (Couche d’entités en entrée) désigne les entités qui indiquent les positions à classer. Chaque ligne dans la couche d’entités en entrée représente un seul objet. Si aucune couche d’entités en entrée n’est spécifiée, on suppose que chaque image en entrée contient un seul objet à classer.
  • Le Processing mode (Mode de traitement) indique la façon dont les éléments raster sont traités dans la couche d’imagerie. Les options sont les suivantes :
    • Process as mosaicked image (Traiter comme image mosaïquée) : tous les éléments raster dans le jeu de données mosaïque ou le service d’imagerie sont mosaïqués ensemble et traités. Il s’agit de l’option par défaut.
    • Process all raster items separately (Traiter tous les éléments raster séparément) : tous les éléments raster dans le jeu de données mosaïque ou le service d’imagerie sont traités en tant qu’images séparées.

Paramètres du modèle

Le groupe Model settings (Paramètres du modèle) comporte les paramètres suivants :

  • Model for object classification (Modèle pour la classification des objets) correspond au modèle de Deep Learning qui sera utilisé pour classer les objets. Le modèle de Deep Learning doit se trouver dans ArcGIS Online pour pouvoir être sélectionné dans l’outil. Vous pouvez sélectionner votre propre modèle, un modèle disponible publiquement dans ArcGIS Online ou un modèle de ArcGIS Living Atlas of the World.
  • Model arguments (Arguments du modèle) spécifie les arguments des fonctions définis dans la classe de fonctions raster Python. Sont répertoriés les paramètres de Deep Learning supplémentaires et les arguments des expériences et améliorations, tels qu’un seuil de confiance pour l’ajustement de la sensibilité. Les noms des arguments sont renseignés à partir du module Python.
  • Output class label field name (Nom du champ d’étiquette de classe en sortie) désigne le nom du champ qui contiendra l’étiquette de classification dans la table ou la couche d’entités hébergée en sortie.

Couche de résultat

Le groupe Result layer (Couche de résultat) comprend les paramètres suivants :

  • Le paramètre Output name (Nom en sortie) spécifie le nom de la couche créée et ajoutée à la carte. Le nom doit être unique. Si une couche du même nom existe déjà dans votre organisation, l’outil échoue et vous êtes invité à utiliser un autre nom.
  • Le paramètre Save in folder (Enregistrer dans un dossier) indique le nom d’un dossier de My content (Mon contenu) dans lequel est enregistré le résultat.

Environnements

Les paramètres d’environnement d’analyse sont des paramètres supplémentaires qui affectent les résultats d’un outil. Vous pouvez accéder aux paramètres d’environnement d’analyse de l'outil à partir du groupe de paramètres Environment settings (Paramètres d'environnement).

Cet outil respecte les environnements d'analyse suivants :

Crédits

Cet outil consomme des crédits.

Utilisez le paramètre Estimate credits (Estimer les crédits) pour calculer le nombre de crédits requis pour exécuter l’outil. Pour plus d’informations, reportez-vous à la rubrique Comprendre les crédits pour l’analyse spatiale.

Sorties

Cet outil comprend les sorties suivantes :

  • Couche d’entités hébergée contenant les entités ou les objets étiquetés en fonction de la classification déterminée par le modèle de Deep Learning
  • Table contenant les localisations étiquetées en fonction de la classification déterminée par le modèle de Deep Learning

Conditions d’utilisation

Cet outil requiert le type d’utilisateur et les configurations suivants :

  • Type d’utilisateur Professional ou Professional Plus
  • Rôle d’éditeur, de facilitateur ou d’administrateur, ou rôle personnalisé équivalent avec le privilège Imagery Analysis (Analyse d’images)

Ressources

Référez-vous aux ressources suivantes pour en savoir plus :