Détecter des objets à l’aide du Deep Learning (Map Viewer Classic)

Détecter des objets à l’aide d’algorithmes de Deep Learning L’outil Détecter des objets à l’aide d’algorithmes de Deep Learning exécute un modèle de Deep Learning entraîné sur un raster en entrée afin de générer une classe d’entités contenant les objets qu’il trouve. Les entités peuvent être des polygones autour des objets trouvés ou encore des points situés aux centres des objets trouvés.

Remarque :

Cet outil est maintenant disponible dans Map Viewer, l’outil moderne de création de cartes dans ArcGIS Online. Pour en savoir plus, reportez-vous à la rubrique Détecter des objets à l’aide du Deep Learning (Map Viewer).

Si vous ne voyez pas cet outil dans Map Viewer Classic, contactez l’administrateur de votre organisation. Votre compte doit être associé à un type d’utilisateur Professional ou Professional Plus et disposer du privilège Imagery Analysis (Analyse d’images)

Diagramme de workflow

Détecter des objets à l’aide d’algorithmes de Deep Learning - Processus

Exemples

  • Dans une image donné d’un voisinage, détectez l’emplacement de chaque toit doté d’un panneau solaire.
  • Dans une image donnée d’une zone sauvage située au nord du Canada, détectez l’emplacement de chaque lac gelé.

Remarques sur l’utilisation

Le modèle de Deep Learning en entrée pour cet outil doit être un élément de paquetage de Deep Learning (.dlpk) conservé sur votre portail. Vous pouvez générer un élément .dlpk à l’aide de l’outil de géotraitement Entraîner le modèle de Deep Learning dans ArcGIS Pro ou l’outil d’analyse raster de ArcGIS REST API.

L’élément .dlpk en entrée doit inclure un fichier de définition de modèle Esri (.emd). Reportez-vous au fichier exemple .emd ci-dessous.

{
    "Framework" :"TensorFlow",
    "ModelConfiguration": "ObjectDetectionAPI",
    
    "ModelFile": ".\\CoconutTreeDetection.model",
    "ModelType": "ObjectDetection",
    "ImageHeight": 850,
    "ImageWidth": 850,
    "ExtractBands": [0,1,2],
    "ImageSpaceUsed": "MAP_SPACE"
    "Classes": [
    {
        "Value": 0,
        "Name": "CoconutTree",
        "Color": [0, 255, 0]
    }
    ]
}

Cochez la case pour activer le paramètre Non Maximum Suppression (Suppression non maximale) afin d’identifier et supprimer les entités dupliquées dans la détection d’objets.

Si l’option Use current map extent (Utiliser l’étendue courante de la carte) est sélectionnée, seuls les pixels qui sont visibles dans l’étendue courante de la carte seront analysées. Si l’option n’est pas sélectionnée, la couche d’imagerie en entrée entière sera analysée.

Les paramètres de cet outil sont indiqués dans la table suivante :

ParamètreExplication
Choisir l’image utilisée pour détecter des objets

Image en entrée utilisée pour classer les objets.

Choisir le modèle d’apprentissage profond utilisé pour détecter des objets

L’entrée est l’URL d’un élément de paquetage de Deep Learning (.dlpk).

Le paquetage de Deep Learning contient le fichier JSON de définition du modèle Esri (.emd), le fichier de modèle binaire de Deep Learning et, éventuellement, la fonction raster Python à utiliser.

Spécifier les arguments du modèle d’apprentissage profond

Les arguments de la fonction sont définis dans la fonction raster Python référencée par le modèle en entrée. C’est là que vous répertoriez les paramètres de Deep Learning supplémentaires et les arguments permettant d’affiner l’apprentissage, tels qu’un seuil de confiance visant à ajuster la sensibilité.

Les noms des arguments sont alimentés par l’outil lors de la lecture du module Python.

Supprimer les entités dupliquées de la sortie (facultatif)

Spécifie si la suppression non maximale est réalisée, auquel cas les d’objets dupliqués trouvés sont identifiés et l’entité dupliquée dont la valeur de confiance est la plus faible est supprimée.

  • Désactivé : tous les objets détectés seront intégrés dans la classe d’entités en sortie. Il s’agit de l’option par défaut.
  • Activé : les objets dupliqués détectés seront supprimés.

Champ de score de confiance

Champ dans le service d’entités qui contient les scores de confiance utilisés en sortie par la méthode de détection d’objets.

Ce paramètre est obligatoire lorsque le paramètre Non maximum suppression (Suppression non maximale) est activée.

Champ de valeur de classe

Champ de valeur de classe dans le service d’entités. S’il n’est pas spécifié, l’outil utilise les champs de valeur de classe standard Classvalue et Value. Si ces champs n’existent pas, toutes les entités seront traitées comme la même classe d’objets.

Ce paramètre est obligatoire lorsque le paramètre Non maximum suppression (Suppression non maximale) est activée.

Ratio de superposition maximale

Ratio de superposition maximale de deux entités se chevauchant, défini comme le rapport entre la zone d’intersection et la zone d’union. La valeur par défaut est 0.

Ce paramètre est obligatoire lorsque le paramètre Non maximum suppression (Suppression non maximale) est activée.

Processing mode (Mode de traitement)

Indique la façon dont tous les éléments raster sont traités dans un service d’imagerie.

  • Process as mosaicked image (Traiter comme image mosaïquée) : tous les éléments raster dans le service d’imagerie sont mosaïqués ensemble et traités. Il s’agit de l’option par défaut.
  • Process all raster items separately (Traiter tous les éléments raster séparément) : tous les éléments raster dans le service d’imagerie sont traités en tant qu’images séparées.
.

Nom de la couche de résultat

Le nom de la couche qui sera créée dans la page My Content (Mon contenu) et ajoutée à la carte. Le nom par défaut repose sur le nom de l'outil et sur le nom de la couche en entrée. Si la couche existe déjà, vous êtes invité à fournir un autre nom.

Vous pouvez spécifier le nom d’un dossier dans My Content (Mon contenu), dans lequel le résultat sera enregistré via la zone de liste déroulante Save result in (Enregistrer le résultat dans).

Conseil :

Cliquez sur Show Credits (Afficher les crédits) avant d’exécuter l’analyse pour savoir combien de crédits seront consommés.

Environnements

Les paramètres d’environnement d’analyse sont des paramètres supplémentaires qui affectent les résultats d’un outil. Vous pouvez accéder aux paramètres d’environnement d’analyse de l’outil en cliquant sur le bouton des paramètres Analysis Environments (Environnements d’analyse) dans la partie supérieure de la fenêtre de l’outil.

Cet outil respecte les environnements d’analyse suivants :

  • Étendue : indique la surface à utiliser pour l’analyse.
  • Taille de cellule : taille de cellule à utiliser dans la couche en sortie.
  • Masque : désigne une couche de masque, où seules les cellules qui se trouvent dans la zone du masque seront utilisées pour l’analyse.

Fonctions raster et outils similaires

Utilisez l’outil Détecter des objets à l’aide d’algorithmes de Deep Learning pour détecter des objets dans une image. D’autres outils peuvent vous aider à résoudre des problèmes similaires.

Outils d’analyse et fonctions raster dans Map Viewer Classic

Utilisez l’outil Classer des objets à l’aide d’algorithmes de Deep Learning pour détecter l’emplacement d’objets dans une image. Utilisez l’outil Classer des pixels à l’aide d’algorithmes de Deep Learning pour classer chaque pixel dans une image.

Fonctions raster et outils d’analyse ArcGIS Pro

L’outil de géotraitement Détecter des objets à l’aide d’algorithmes de Deep Learning est disponible dans la boîte d’outils Image Analyst. D’autres outils du jeu d’outils Deep Learning permettent d’effectuer des processus de Deep Learning.

Ressources de développeur ArcGIS Enterprise

Si vous travaillez dans ArcGIS REST API, utilisez l’opération Detect Objects Using Deep Learning.

Si vous travaillez dans ArcGIS API for Python, procédez aux tâches de Deep Learning Site Web ArcGIS API for Python depuis le module arcgis.learn.