Disponible avec une licence Advanced.
Disponible avec une licence Image Analyst.
La détection d’objets interactive permet de trouver les objets d’intérêt à partir de l’imagerie affichée sur une carte ou dans une scène.
La détection des objets repose sur un modèle de Deep Learning qui a été entraîné pour détecter des objets spécifiques dans la vue affichée, comme les fenêtres ou les portes des bâtiments d’une scène. Les résultats de détection sont enregistrés dans une classe d’entités ponctuelles avec un score de confiance, des dimensions d’emprise et le nom d’étiquette comme attributs. Vous pouvez également détecter d’autres objets, comme des aéronefs stationnés ou des structures aéroportuaires, de manière interactive, avec un modèle générique, en cliquant dans la vue pour détecter le résultat.
Vous devez installer des bibliothèques de Deep Learning pour pouvoir utiliser la détection des objets.
Licence :
L’outil interactif de détection d’objets nécessite une licence ArcGIS Pro Advanced ou l’extension ArcGIS Image Analyst.
L’outil Détection des objets est accessible depuis le menu déroulant Exploratory 3D Analysis (Analyse exploratoire en 3D) du groupe Workflows dans l’onglet Analysis (Analyse). Lorsque vous sélectionnez l’outil Détection des objets, la fenêtre Exploratory Analysis (Analyse exploratoire) s’affiche.
Utilisez la fenêtre Exploratory Analysis (Analyse exploratoire) pour modifier les paramètres de détection des objets et définir quelle méthode de caméra utiliser pour les résultats de détection. À la première exécution de l’outil, le modèle utilisé est Esri Windows and Doors (Fenêtres et portes Esri). Le modèle est chargé et les détections sont calculées. Les exécutions supplémentaires n’exigent pas le rechargement du modèle et seront plus rapides. Si vous sélectionnez un autre modèle, celui-ci doit être chargé. Il n’est pas nécessaire de télécharger le modèle Generic Object (Objet générique).
Les images ci-dessous illustrent le résultat de détection des objets renvoyé avec les options de symbologie disponibles : une symbologie d’emprise ou le symbole X marquant le point central d’une localisation.
Détecter les objets dans une vue 3D
L’outil Détection des objets peut fonctionner avec n’importe quel modèle pris en charge entraîné pour détecter des objets particuliers. Il est fourni avec un modèle permettant de détecter les fenêtres et les portes, ainsi qu’avec un modèle générique permettant de détecter d’autres objets de manière interactive.
Le modèle de Deep Learning Esri Windows and Doors (Fenêtres et portes Esri) détecte les fenêtres et les portes en tant qu’entités ponctuelles. Les paramètres de détection des objets pour l’utilisation du modèle Esri Windows and Doors (Fenêtres et portes Esri) sont décrits dans le tableau suivant :
Option | Description |
---|---|
Modèle | Paquetage de Deep learning (.dlpk) à utiliser pour la détection d’objets. Les types de modèle pris en charge sont notamment FasterRCNN, YOLOv3, Single Shot Detector (SSD) et RetinaNet. Développez la flèche de liste déroulante de saisie Model (Modèle) et cliquez sur Download Model (Télécharger le modèle) pour accéder au modèle pré-entraîné Esri Windows and Doors (Fenêtres et portes Esri). Vous pouvez également cliquer sur Browse (Parcourir) pour choisir un paquetage de Deep Learning local ou en télécharger un depuis ArcGIS Online. |
Classes | Liste des objets du monde réel à détecter. Cette liste est renseignée à partir du fichier .dlpk. La valeur par défaut est All (Tout), mais vous pouvez spécifiquement indiquer uniquement les fenêtres ou uniquement les portes. |
Minimum Confidence Level (Niveau de confiance minimal) | Score de détection minimum auquel une détection doit satisfaire. Les détections dont les scores sont inférieurs à ce niveau de confiance sont ignorées. La valeur par défaut est 0,5. |
Maximum Overlap Threshold (Seuil de superposition maximal) | Seuil de l’intersection sur union par rapport à d’autres détections. Si la détection entraîne une superposition, celle affichant le score le plus élevé est considérée comme réellement positive. La valeur par défaut est 0. |
Process using GPU (Processus utilisant le GPU) | Utilisez la puissance de traitement du GPU (unité de traitement graphique) plutôt que le CPU (unité de traitement de l’ordinateur). Cette approche est recommandée si vous disposez d’une carte graphique avec au moins 8 Go de mémoire de GPU dédiée. |
Couche d'entités | Nom de la couche d'entités en sortie.
|
Description | Description à inclure dans la table attributaire. Les résultats de détections multiples peuvent être enregistrés vers la même couche d’entités et une description peut être utilisée pour distinguer ces multiples détections. |
Symbologie | Définissez la forme renvoyée de la couche d’entités en sortie avec la couleur par défaut, doré électron. Les choix de symbologie sont les suivants :
Si la couche en sortie est déjà sur la carte ou dans la scène et possède une symbologie personnalisée, sa symbologie ne change pas lors de l’exécution de l’outil. |
Distance | Définissez la distance maximale depuis l’appareil photo à laquelle les résultats seront conservés. Tout élément situé au-delà de la profondeur définie sera ignoré. |
Largeur | Définissez les valeurs de largeur minimale et maximale pour la taille du résultat retourné attendu. |
Hauteur | Définissez les valeurs de hauteur minimale et maximale pour la taille du résultat retourné attendu. |
Remarque :
Les paramètres Distance, Width (Largeur) et Height (Hauteur) se trouvent dans la section Filtrer les résultats, que vous devrez peut-être développer pour définir des valeurs.Les méthodes de création pour la détection des objets sont décrites dans le tableau suivant :
Méthode | Description |
---|---|
Il s’agit de la méthode de création par défaut. Elle utilise la position actuelle de la caméra pour détecter des objets. | |
Reposition Camera (Repositionner la caméra) (3D uniquement) | Repositionne la caméra sur un point de vue horizontal ou vertical avant de détecter des objets. Configurez la zone du point de vue d’intérêt et utilisez-la pour affiner l’alignement. Il n’est pas recommandé de positionner la caméra sur les objets au loin pour les rapprocher dans la vue. |
Détection interactive
Utilisez le modèle de Deep Learning Esri Generic Object (Objet générique Esri) pour détecter de manière interactive divers objets tels que des véhicules, des structures et des gens sur une carte ou dans une scène. Au lieu d’utiliser la caméra, vous pouvez cliquer directement dans la vue afin de détecter les résultats. Certaines options de détection, telles que les classes, le niveau de confiance, le seuil de superposition et la puissance de traitement, ne sont pas disponibles. Les résultats sont stockés en tant qu’entités ponctuelles avec l’option de symbologie définie pour l’outil.
Les paramètres de détection des objets utilisant le modèle Esri Generic Object (Objet générique Esri) sont décrits dans le tableau suivant :
Option | Description |
---|---|
Modèle | Développez la liste déroulante Model (Modèle) et choisissez Esri Generic Object (Objet générique Esri) pour définir le processus de détection des objets. |
Couche d’entités | Nom de la couche d'entités en sortie.
|
Description | Description à inclure dans la table attributaire sous forme de champ. Les résultats de détections multiples peuvent être enregistrés vers la même couche d’entités et une description peut être utilisée pour distinguer ces multiples détections. |
Symbologie | Définissez la forme renvoyée de la couche d’entités en sortie avec la couleur par défaut, doré électron. Les choix de symbologie sont les suivants :
Si la couche en sortie est déjà sur la carte ou dans la scène et possède une symbologie personnalisée, sa symbologie ne change pas lors de l’exécution de l’outil. |
Méthode de création | Interactive Detection (Détection interactive) : cliquez pour détecter un objet à cette localisation. |
Mettre à jour les résultats de détection
Pour modifier les résultats de sortie, par exemple, avec une autre valeur de confiance ou en choisissant une autre zone d’intérêt, modifiez ces propriétés et exécutez à nouveau l’outil Détection d’objets. Les objets nouvellement découverts sont ajoutés à la même couche. Sinon, renseignez un nouveau nom et créez une autre couche d’entités en sortie pour comparaison. Il n’est pas recommandé de mettre à jour manuellement les valeurs d’attribut des résultats de détection des objets. Vous pouvez également développer la section Filtrer les résultats pour spécifier les valeurs de taille et de distance afin d’affiner les résultats renvoyés.
Conseil :
Avant de réexécuter l’outil, désactivez la visibilité des couches comportant les résultats de détection précédents. Sinon, ces résultats risquent de superposer les objets en cours de détection, ce qui pourrait avoir un impact sur les résultats de détection.
Supprimer les résultats de détection
Les résultats de détection sont ajoutés comme entités ponctuelles. Vous pouvez supprimer des entités d’objets détectés individuelles à l’aide des workflows de mise à jour standard. Sinon, supprimez l’intégralité de la classe d’entités depuis la géodatabase par défaut du projet. La suppression de la couche depuis la fenêtre Contents (Contenu) ne supprime pas automatiquement vos résultats, puisqu’ils existent dans la géodatabase. Si vous exécutez à nouveau l’outil alors que la couche ne se trouve pas sur la carte ou dans la scène actuelle, une nouvelle classe d’entités au nom unique est créée dans la géodatabase par défaut et ajoutée à la carte ou à la scène.
Vous avez un commentaire à formuler concernant cette rubrique ?