Exporter les données d’entraînement pour le Deep Learning (Spatial Analyst)

Disponible avec une licence Spatial Analyst.

Disponible avec une licence Image Analyst.

Synthèse

Convertit des données vectorielles ou raster étiquetées en jeux de données d’entraînement pour l’apprentissage profond via une image télédétectée. La sortie est un dossier de fragments d’images et un dossier de fichiers de métadonnées au format spécifié.

Utilisation

  • Cet outil crée des jeux de données d’apprentissage en vue de prendre en charge les applications d’apprentissage en profondeur tierces, telles que Google TensorFlow, Keras, PyTorch ou Microsoft CNTK, etc.

  • Les échantillons d’apprentissage de classe Deep Learning reposent sur de petites images secondaires (appelées fragments d’image) contenant l’entité ou la classe présentant un intérêt.

  • Utilisez vos données d’échantillon d’apprentissage de classification existantes ou vos données de classes d’entités SIG (une couche d’emprise de bâtiment, par exemple) pour générer les fragments d’image contenant l’échantillon de classe à partir de l’image source. Les fragments d’image sont souvent composés de lignes de 256 pixels et de colonnes de 256 pixels, sauf si la taille de l’échantillon d’apprentissage est plus importante. Chaque fragment d’image peut contenir un ou plusieurs objets. Si le format de métadonnées du paramètre Tuiles étiquetées est utilisé, il ne peut exister qu’un seul objet par fragment d’image.

  • Vous pouvez attribuer une valeur au paramètre Système de référence pour exporter les données d’apprentissage dans l’espace cartographique ou l’espace pixel (espace image brut) à utiliser pour l’apprentissage du modèle Deep Learning.

  • Cet outil prend en charge l’exportation des données d’entraînement à partir d’une collection d’images. Vous pouvez ajouter un dossier d’images dans Raster en entrée. Si la valeur Raster en entrée est un jeu de données mosaïque ou un service d’imagerie, vous pouvez également préciser que le paramètre Mode de traitement traite la mosaïque en tant qu’entrée ou chaque élément du raster séparément.

  • La taille de cellule et l’étendue peuvent être ajustées grâce aux paramètres d’environnement de géotraitement.

  • Cet outil respecte le paramètre d’environnement Facteur de traitement parallèle. Par défaut, le paramètre Facteur de traitement parallèle n’est pas activé ; par conséquent, l’outil s’exécute sur un seul cœur. Lorsque des jeux de données volumineux sont utilisés, activez le paramètre Facteur de traitement parallèle en spécifiant le nombre de cœurs que l’outil peut employer pour distribuer la charge de travail.

  • Pour en savoir plus sur les exigences relatives à l’exécution de cet outil ainsi que sur les problèmes que vous pouvez rencontrer, consultez la FAQ sur le Deep Learning.

Paramètres

ÉtiquetteExplicationType de données
Raster en entrée

L’imagerie source en entrée, généralement une imagerie multispectrale.

Les exemples de types d’imagerie source en entrée sont par exemple l’imagerie satellite multispectrale, issue de drones, aérienne et du programme NAIP (National Agriculture Imagery Program). L’entrée peut être un dossier contenant des images.

Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder
Dossier en sortie

Dossier dans lequel les fragments d’images et les métadonnées seront stockés.

Le dossier peut aussi être une URL de dossier qui utilise un fichier de connexion au stockage cloud (*.acs).

Folder
Classe d’entités en entrée, raster classé ou table

Données d’échantillon d’entraînement sous forme vectorielle ou raster. Les entrées vectorielles doivent suivre le format d’échantillon d’apprentissage généré dans la fenêtre Gestionnaire d’échantillons d’apprentissage. Les entrées raster doivent suivre un format raster classé généré par l’outil Classer le raster.

L’entrée du raster peut également provenir d’un dossier de rasters classés. Les entrées de raster classé nécessitent une table attributaire de raster correspondante. Les tables en entrée doivent suivre un format d’échantillon d’entraînement généré par le bouton Étiqueter les objets pour le Deep Learning dans la fenêtre Gestionnaire d’échantillons d’entraînement. Le respect du format de l’échantillon d’entraînement permet de générer des résultats optimisés avec les informations statistiques. L’entrée peut cependant également être une classe d’entités ponctuelles sans champ de valeur de classe ou un raster de type entier sans informations de classe.

Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder
Format de l’image

Spécifie le format raster qui sera utilisé pour les fragments d’images en sortie.

Les formats PNG et JPEG prennent en charge jusqu’à trois canaux.

  • Format TIFFLe format TIFF sera utilisé.
  • Format PNGLe format PNG sera utilisé.
  • Format JPEGLe format JPEG sera utilisé.
  • MRF (Meta Raster Format)Meta Raster Format (MRF) va être utilisé.
String
Taille de tuile X
(Facultatif)

Taille des fragments d’images pour la dimension x.

Long
Taille de tuile Y
(Facultatif)

Taille des fragments d’images pour la dimension y.

Long
Pas en X
(Facultatif)

Distance de déplacement sur la direction x lors de la création des fragments d’image suivants.

Si le pas est égal à la taille de tuile, il n’y a pas de superposition. Si le pas est égal à la moitié de la taille de tuile, il y a une superposition de 50 %.

Long
Pas en Y
(Facultatif)

Distance de déplacement sur la direction y lors de la création des fragments d’image suivants.

Si le pas est égal à la taille de tuile, il n’y a pas de superposition. Si le pas est égal à la moitié de la taille de tuile, il y a une superposition de 50 %.

Long
Aucune tuile d’entités en sortie
(Facultatif)

Spécifie si les fragments d’images qui ne capturent pas d’échantillons d’apprentissage seront exportés.

  • Activé : tous les fragments d’images sont exportés, y compris ceux qui ne capturent pas d’échantillons d’apprentissage.
  • Désactivé : seuls les fragments d’images capturant des échantillons d’apprentissage sont exportés. Il s’agit de l’option par défaut.

Lorsque ce paramètre est activé, les fragments d’image ne capturant pas de données étiquetées sont également exportés ; s’il n’est pas sélectionné, ces fragments ne sont pas exportés.

Boolean
Format de métadonnées
(Facultatif)

Indique le format utilisé pour les étiquettes de métadonnées en sortie.

Si les données d’échantillons d’apprentissage en entrée sont une couche de classe d’entités, telle qu’une couche d’emprise de bâtiment ou un fichier d’échantillon d’apprentissage de classification standard, utilisez l’option Étiquettes KITTI ou PASCAL Visual Object Classes (KITTI_rectangles ou PASCAL_VOC_rectangles dans Python). Les métadonnées en sortie sont un fichier .txt ou un fichier .xml comportant les données d’échantillons d’apprentissage contenues dans le rectangle d’emprise minimale. Le nom du fichier de métadonnées correspond à celui de l’image source en entrée. Si les données d’échantillons d’apprentissage en entrée sont une carte de classe, utilisez l’option Tuiles classées (Classified_Tiles dans Python) comme format de métadonnées en sortie.

Pour le format de métadonnées KITTI, 15 colonnes sont créées, mais seulement 5 d’entre elles sont utilisées dans l’outil. La première colonne est la valeur de classe. Les 3 colonnes suivantes sont ignorées. Les colonnes 5 à 8 définissent le rectangle d’emprise minimale comportant quatre emplacements de coordonnées d’image : pixels de gauche, en haut, de droite et en bas. Le rectangle d’emprise minimale englobe le fragment d’apprentissage utilisé dans le classificateur d’apprentissage en profondeur. Les autres colonnes ne sont pas utilisées.

  • KITTI Labels (Étiquettes KITTI)Les métadonnées suivent le même format que celui du jeu de données Object Detection Evaluation (Vérification de la détection d’objets) du KITTI (Karlsruhe Institute of Technology and Toyota Technological Institute). Le jeu de données KITTI est une suite de référence en matière de conception. Les fichiers d’étiquettes sont des fichiers de texte brut. Toutes les valeurs, à la fois numériques ou de chaînes, sont séparées par des espaces et chaque ligne correspond à un objet.Ce format est utilisé pour détecter les objets.
  • Classes d’objets visuels PASCALLes métadonnées suivent le même format que celui du jeu de données PASCAL_VOC (Pattern Analysis, Statistical Modeling and Computational Learning, Visual Object Classes). Le jeu de données PASCAL VOC est un jeu de données d’image standardisé pour la reconnaissance des classes d’objets. Les fichiers d’étiquettes sont au format XML et contiennent des informations sur le nom des images, la valeur de classe et les emprises.Ce format est utilisé pour détecter les objets. Il s’agit de l’option par défaut.
  • Classified Tiles (Tuiles classées)La sortie sera un fragment d’image classé par fragment d’image en entrée. Aucune autre métadonnée n’est utilisée pour chaque fragment d’image. Seule la sortie statistique comporte plus d’informations concernant les classes, telles que les noms de classe, les valeurs de classe et les statistiques en sortie.Ce format est principalement utilisé pour la classification des pixels. Ce format est également utilisé pour la détection de changement lorsque la sortie est un fragment d’image classé issu de deux fragments d’image.
  • Masques RCNNLa sortie sera des fragments d’images comportant un masque sur les zones où se trouve l’échantillon. Le modèle génère des emprises et des masques de segmentation pour chaque instance d’un objet dans l’image. Ce format repose sur le réseau pyramidal d’entités (Feature Pyramid Network ou FPN) et une architecture ResNet101 dans le modèle d’infrastructure Deep Learning.Ce format est utilisé pour la détection des objets. Il peut également être utilisé pour le suivi des objets lorsque le type de modèle Siam Mask est utilisé pendant l’entraînement, ainsi que pour la classification des pixels de séries temporelles lorsque l’architecture PSETAE est utilisée.
  • Labeled Tiles (Tuiles étiquetées)Chaque tuile en sortie portera l’étiquette d’une classe spécifique.Ce format est utilisé pour la classification des objets.
  • Tuiles à plusieurs étiquettesChaque tuile en sortie est étiquetée selon une ou plusieurs classes. Par exemple, une tuile peut porter les étiquettes agriculture et nuageux.Ce format est utilisé pour la classification des objets.
  • Exporter des tuilesLa sortie consiste en des fragments d’image sans étiquette.Ce format est utilisé pour les techniques de conversion d’image (Pix2Pix et Super Resolution, par exemple).
  • CycleGANLa sortie consiste en des fragments d’image sans étiquette.Ce format est utilisé pour la technique de conversion d’image CycleGAN, qui est utilisée pour préparer les images qui ne se chevauchent pas.
  • ImagenetChaque tuile en sortie portera l’étiquette d’une classe spécifique.Ce format est utilisé pour la classification des objets. Il peut également être utilisé pour le suivi des objets lorsque le type de modèle DeepSort est utilisé pendant l’entraînement.
  • Segmentation panoptiqueLa sortie est un fragment d’image classé et une instance par fragment d’image en entrée. La sortie comporte également des fragments d’image qui masquent les zones où se trouve l’échantillon ; ces fragments d’image sont stockés dans un autre dossier.Ce format est utilisé pour la classification des pixels et la segmentation d’instances ; deux dossiers d’étiquettes en sortie sont donc générés.
String
Index de début
(Facultatif)

Héritage :

Ce paramètre est désormais obsolète.

Long
Champ de valeur de classe
(Facultatif)

Champ contenant les valeurs de classe. Si aucun champ n’est spécifié, le système recherche un champ value ou classvalue. Le champ doit être numérique, généralement un entier. Si l’entité ne contient pas de champ de classe, le système détermine que tous les enregistrements appartiennent à une même classe.

Field
Rayon de la zone tampon
(Facultatif)

Rayon d’une zone tampon autour de chaque échantillon d’apprentissage qui est utilisé pour délimiter une zone d’échantillon d’entraînement. Vous pouvez ainsi créer des échantillons d’apprentissage surfaciques circulaires à partir de points.

L’unité linéaire de la référence spatiale de la valeur du paramètre Classe d’entités en entrée, raster classé ou table est utilisée.

Double
Input Mask Polygons (Polygones de masque en entrée)
(Facultatif)

Classe d’entités surfaciques qui délimite la zone de création des fragments d’images.

Seuls les fragments d’images totalement inclus dans les polygones seront créés.

Feature Layer
Angle de rotation
(Facultatif)

Angle de rotation utilisé pour générer des fragments d’image.

Un fragment d’image est d’abord généré sans rotation. Il subit ensuite une rotation selon l’angle spécifié afin de créer d’autres fragments d’image. L’image est pivotée et un fragment est créé, jusqu’à sa rotation complète. Par exemple, si vous spécifiez un angle de rotation de 45 degrés, l’outil crée huit fragments d’image. Les huit fragments d’image sont créés aux angles suivants : 0, 45, 90, 135, 180, 25, 270 et 315.

L’angle de rotation par défaut est de 0, ce qui crée un fragment d’image par défaut.

Double
Système de référence
(Facultatif)

Indique le type de système de référence à utiliser pour interpréter l’image en entrée. Le système de référence spécifié doit correspondre au système de référence utilisé pour entraîner le modèle d’apprentissage profond.

  • Espace cartographiqueUn système de coordonnées basé sur la carte est utilisé. Il s’agit de l’option par défaut.
  • RésolutionL’espace image est utilisé, sans rotation ni distorsion.
String
Mode de traitement
(Facultatif)

Spécifie comment tous les éléments raster figurant dans un jeu de données mosaïque ou un service d’imagerie seront traités. Ce paramètre est appliqué lorsqu’un raster en entrée est un jeu de données mosaïque ou service d’imagerie.

  • Process as mosaicked image (Traiter en tant qu’image mosaïquée)Tous les éléments raster figurant dans le jeu de données mosaïque ou le service d’imagerie seront mosaïqués ensemble, puis traités. Il s’agit de l’option par défaut.
  • Process all raster items separately (Traiter tous les éléments raster séparément)Tous les éléments raster figurant dans le jeu de données mosaïque ou le service d’imagerie seront traités en tant qu’images séparées.
String
Blacken Around Feature (Assombrir autour de l’entité)
(Facultatif)

Indique si les pixels autour de chaque objet ou entité de chaque tuile d’images sont masqués.

Ce paramètre s’applique uniquement lorsque le paramètre Format de métadonnées est défini sur Tuiles étiquetées et qu’une classe d’entités en entrée ou qu’un raster classé a été spécifié.

  • Désactivé : les pixels entourant les objets ou les entités ne sont pas masqués. Il s’agit de l’option par défaut.
  • Activé : les pixels entourant les objets ou les entités sont masqués.
Boolean
Crop Mode (Mode de rognage)
(Facultatif)

Spécifie si les tuiles exportées sont rognées de telle sorte qu’elles fassent toutes la même taille.

Ce paramètre s’applique uniquement lorsque le paramètre Format de métadonnées a pour valeur Tuiles étiquetées ou Imagenet et qu’une classe d’entités en entrée ou qu’un raster classé a été spécifié.

  • Taille fixeLes tuiles exportées sont rognées de telle sorte qu’elles fassent la même taille et sont centrées sur l’entité. Il s’agit de l’option par défaut.
  • Bounding box (Emprise)Les tuiles exportées sont rognées de telle sorte que l’emprise géométrique entoure uniquement l’entité dans la tuile.
String
Raster en entrée supplémentaire
(Facultatif)

Source d’imagerie en entrée supplémentaire qui est utilisée pour les méthodes de conversion d’image.

Ce paramètre est valide lorsque le paramètre Format de métadonnées est défini sur Tuiles classées, Exporter des tuiles ou CycleGAN.

Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder
Classe d’entités d’instance
(Facultatif)

Données d’échantillons d’entraînement collectées contenant les classes pour la segmentation d’instances.

L’entrée peut également être une classe d’entités ponctuelles sans champ de valeur de classe ou un raster de type entier sans informations de classe.

Ce paramètre est seulement valide si le paramètre Metadata Format (Format des métadonnées) est défini sur Panoptic Segmentation (Segmentation panoptique).

Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder
Champ de valeur de classe d’instance
(Facultatif)

Champ contenant les valeurs de classe pour la segmentation d‘instances. Si aucun champ n’est spécifié, l’outil utilise un champ de valeur ou de valeur de classe le cas échéant. Si l’entité ne contient pas de champ de classe, l’outil détermine que tous les enregistrements appartiennent à une même classe.

Ce paramètre est seulement valide si le paramètre Metadata Format (Format des métadonnées) est défini sur Panoptic Segmentation (Segmentation panoptique).

Field
Ratio de superposition de polygone minimale
(Facultatif)

Pourcentage de superposition minimale pour qu’une entité soit incluse dans les données d’entraînement. Si le pourcentage de superposition est inférieur à la valeur spécifiée, l’entité est exclue du fragment d’entraînement et n’est pas ajoutée au fichier d’étiquette.

La valeur de pourcentage est exprimée sous la forme d’un nombre décimal. Par exemple, pour spécifier une superposition de 20 %, indiquez la valeur 0,2. La valeur par défaut est 0, ce qui signifie que toutes les entités sont incluses.

Ce paramètre améliore les performances de l’outil, ainsi que l’inférence. La vitesse est améliorée puisque moins de fragments d’entraînement sont créés. L’inférence est améliorée puisque le modèle est uniquement entraîné à détecter des lots importants d’objets et qu’il ignore les petits coins des entités. Cela signifie que l’outil Suppression non maximale détecte et retire un nombre moins important de faux positifs.

Ce paramètre est activé si la valeur du paramètre Classe d’entités, raster classé ou table en entrée est une classe d’entités.

Double

ExportTrainingDataForDeepLearning(in_raster, out_folder, in_class_data, image_chip_format, {tile_size_x}, {tile_size_y}, {stride_x}, {stride_y}, {output_nofeature_tiles}, {metadata_format}, {start_index}, {class_value_field}, {buffer_radius}, {in_mask_polygons}, {rotation_angle}, {reference_system}, {processing_mode}, {blacken_around_feature}, {crop_mode}, {in_raster2}, {in_instance_data}, {instance_class_value_field}, {min_polygon_overlap_ratio})
NomExplicationType de données
in_raster

L’imagerie source en entrée, généralement une imagerie multispectrale.

Les exemples de types d’imagerie source en entrée sont par exemple l’imagerie satellite multispectrale, issue de drones, aérienne et du programme NAIP (National Agriculture Imagery Program). L’entrée peut être un dossier contenant des images.

Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder
out_folder

Dossier dans lequel les fragments d’images et les métadonnées seront stockés.

Le dossier peut aussi être une URL de dossier qui utilise un fichier de connexion au stockage cloud (*.acs).

Folder
in_class_data

Données d’échantillon d’entraînement sous forme vectorielle ou raster. Les entrées vectorielles doivent suivre le format d’échantillon d’apprentissage généré dans la fenêtre Gestionnaire d’échantillons d’apprentissage. Les entrées raster doivent suivre un format raster classé généré par l’outil Classer le raster.

L’entrée du raster peut également provenir d’un dossier de rasters classés. Les entrées de raster classé nécessitent une table attributaire de raster correspondante. Les tables en entrée doivent suivre un format d’échantillon d’entraînement généré par le bouton Étiqueter les objets pour le Deep Learning dans la fenêtre Gestionnaire d’échantillons d’entraînement. Le respect du format de l’échantillon d’entraînement permet de générer des résultats optimisés avec les informations statistiques. L’entrée peut cependant également être une classe d’entités ponctuelles sans champ de valeur de classe ou un raster de type entier sans informations de classe.

Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder
image_chip_format

Spécifie le format raster qui sera utilisé pour les fragments d’images en sortie.

Les formats PNG et JPEG prennent en charge jusqu’à trois canaux.

  • TIFFLe format TIFF sera utilisé.
  • PNGLe format PNG sera utilisé.
  • JPEGLe format JPEG sera utilisé.
  • MRFMeta Raster Format (MRF) va être utilisé.
String
tile_size_x
(Facultatif)

Taille des fragments d’images pour la dimension x.

Long
tile_size_y
(Facultatif)

Taille des fragments d’images pour la dimension y.

Long
stride_x
(Facultatif)

Distance de déplacement sur la direction x lors de la création des fragments d’image suivants.

Si le pas est égal à la taille de tuile, il n’y a pas de superposition. Si le pas est égal à la moitié de la taille de tuile, il y a une superposition de 50 %.

Long
stride_y
(Facultatif)

Distance de déplacement sur la direction y lors de la création des fragments d’image suivants.

Si le pas est égal à la taille de tuile, il n’y a pas de superposition. Si le pas est égal à la moitié de la taille de tuile, il y a une superposition de 50 %.

Long
output_nofeature_tiles
(Facultatif)

Spécifie si les fragments d’images qui ne capturent pas d’échantillons d’apprentissage seront exportés.

  • ALL_TILESTous les fragments d’images sont exportés, y compris ceux qui ne recouvrent pas d’échantillons d’apprentissage.
  • ONLY_TILES_WITH_FEATURESSeuls les fragments d’images recouvrant des échantillons d’apprentissage sont exportés. Il s’agit de l’option par défaut.
Boolean
metadata_format
(Facultatif)

Indique le format utilisé pour les étiquettes de métadonnées en sortie.

Si les données d’échantillons d’apprentissage en entrée sont une couche de classe d’entités, telle qu’une couche d’emprise de bâtiment ou un fichier d’échantillon d’apprentissage de classification standard, utilisez l’option Étiquettes KITTI ou PASCAL Visual Object Classes (KITTI_rectangles ou PASCAL_VOC_rectangles dans Python). Les métadonnées en sortie sont un fichier .txt ou un fichier .xml comportant les données d’échantillons d’apprentissage contenues dans le rectangle d’emprise minimale. Le nom du fichier de métadonnées correspond à celui de l’image source en entrée. Si les données d’échantillons d’apprentissage en entrée sont une carte de classe, utilisez l’option Tuiles classées (Classified_Tiles dans Python) comme format de métadonnées en sortie.

  • KITTI_rectanglesLes métadonnées suivent le même format que celui du jeu de données Object Detection Evaluation (Vérification de la détection d’objets) du KITTI (Karlsruhe Institute of Technology and Toyota Technological Institute). Le jeu de données KITTI est une suite de référence en matière de conception. Les fichiers d’étiquettes sont des fichiers de texte brut. Toutes les valeurs, à la fois numériques ou de chaînes, sont séparées par des espaces et chaque ligne correspond à un objet.Ce format est utilisé pour détecter les objets.
  • PASCAL_VOC_rectanglesLes métadonnées suivent le même format que celui du jeu de données PASCAL_VOC (Pattern Analysis, Statistical Modeling and Computational Learning, Visual Object Classes). Le jeu de données PASCAL VOC est un jeu de données d’image standardisé pour la reconnaissance des classes d’objets. Les fichiers d’étiquettes sont au format XML et contiennent des informations sur le nom des images, la valeur de classe et les emprises.Ce format est utilisé pour détecter les objets. Il s’agit de l’option par défaut.
  • Classified_TilesLa sortie sera un fragment d’image classé par fragment d’image en entrée. Aucune autre métadonnée n’est utilisée pour chaque fragment d’image. Seule la sortie statistique comporte plus d’informations concernant les classes, telles que les noms de classe, les valeurs de classe et les statistiques en sortie.Ce format est principalement utilisé pour la classification des pixels. Ce format est également utilisé pour la détection de changement lorsque la sortie est un fragment d’image classé issu de deux fragments d’image.
  • RCNN_MasksLa sortie sera des fragments d’images comportant un masque sur les zones où se trouve l’échantillon. Le modèle génère des emprises et des masques de segmentation pour chaque instance d’un objet dans l’image. Ce format repose sur le réseau pyramidal d’entités (Feature Pyramid Network ou FPN) et une architecture ResNet101 dans le modèle d’infrastructure Deep Learning.Ce format est utilisé pour la détection des objets. Il peut également être utilisé pour le suivi des objets lorsque le type de modèle Siam Mask est utilisé pendant l’entraînement, ainsi que pour la classification des pixels de séries temporelles lorsque l’architecture PSETAE est utilisée.
  • Labeled_TilesChaque tuile en sortie portera l’étiquette d’une classe spécifique.Ce format est utilisé pour la classification des objets.
  • MultiLabeled_TilesChaque tuile en sortie est étiquetée selon une ou plusieurs classes. Par exemple, une tuile peut porter les étiquettes agriculture et nuageux.Ce format est utilisé pour la classification des objets.
  • Export_TilesLa sortie consiste en des fragments d’image sans étiquette.Ce format est utilisé pour les techniques de conversion d’image (Pix2Pix et Super Resolution, par exemple).
  • CycleGANLa sortie consiste en des fragments d’image sans étiquette.Ce format est utilisé pour la technique de conversion d’image CycleGAN, qui est utilisée pour préparer les images qui ne se chevauchent pas.
  • ImagenetChaque tuile en sortie portera l’étiquette d’une classe spécifique.Ce format est utilisé pour la classification des objets. Il peut également être utilisé pour le suivi des objets lorsque le type de modèle DeepSort est utilisé pendant l’entraînement.
  • Panoptic_SegmentationLa sortie est un fragment d’image classé et une instance par fragment d’image en entrée. La sortie comporte également des fragments d’image qui masquent les zones où se trouve l’échantillon ; ces fragments d’image sont stockés dans un autre dossier.Ce format est utilisé pour la classification des pixels et la segmentation d’instances ; deux dossiers d’étiquettes en sortie sont donc générés.

Pour le format de métadonnées KITTI, 15 colonnes sont créées, mais seulement 5 d’entre elles sont utilisées dans l’outil. La première colonne est la valeur de classe. Les 3 colonnes suivantes sont ignorées. Les colonnes 5 à 8 définissent le rectangle d’emprise minimale comportant quatre emplacements de coordonnées d’image : pixels de gauche, en haut, de droite et en bas. Le rectangle d’emprise minimale englobe le fragment d’apprentissage utilisé dans le classificateur d’apprentissage en profondeur. Les autres colonnes ne sont pas utilisées.

Un exemple de l’option PASCAL_VOC_rectangles est présenté ci-dessous :

  <?xml version=”1.0”?>
- <layout>
      <image>000000000</image>
      <object>1</object>
    - <part>
         <class>1</class>
       - <bndbox>
            <xmin>31.85</xmin>
            <ymin>101.52</ymin>
            <xmax>256.00</xmax>
            <ymax>256.00</ymax>
         </bndbox>
      </part>
  </layout>

Pour plus d’informations, consultez l’article Microsoft PASCAL Visual Object Classes (VOC) Challenge.

String
start_index
(Facultatif)

Héritage :

Ce paramètre est désormais obsolète. Utilisez la valeur 0 ou # dans Python.

Long
class_value_field
(Facultatif)

Champ contenant les valeurs de classe. Si aucun champ n’est spécifié, le système recherche un champ value ou classvalue. Le champ doit être numérique, généralement un entier. Si l’entité ne contient pas de champ de classe, le système détermine que tous les enregistrements appartiennent à une même classe.

Field
buffer_radius
(Facultatif)

Rayon d’une zone tampon autour de chaque échantillon d’apprentissage qui est utilisé pour délimiter une zone d’échantillon d’entraînement. Vous pouvez ainsi créer des échantillons d’apprentissage surfaciques circulaires à partir de points.

L’unité linéaire de la référence spatiale de la valeur du paramètre in_class_data est utilisée.

Double
in_mask_polygons
(Facultatif)

Classe d’entités surfaciques qui délimite la zone de création des fragments d’images.

Seuls les fragments d’images totalement inclus dans les polygones seront créés.

Feature Layer
rotation_angle
(Facultatif)

Angle de rotation utilisé pour générer des fragments d’image.

Un fragment d’image est d’abord généré sans rotation. Il subit ensuite une rotation selon l’angle spécifié afin de créer d’autres fragments d’image. L’image est pivotée et un fragment est créé, jusqu’à sa rotation complète. Par exemple, si vous spécifiez un angle de rotation de 45 degrés, l’outil crée huit fragments d’image. Les huit fragments d’image sont créés aux angles suivants : 0, 45, 90, 135, 180, 25, 270 et 315.

L’angle de rotation par défaut est de 0, ce qui crée un fragment d’image par défaut.

Double
reference_system
(Facultatif)

Indique le type de système de référence à utiliser pour interpréter l’image en entrée. Le système de référence spécifié doit correspondre au système de référence utilisé pour entraîner le modèle d’apprentissage profond.

  • MAP_SPACEUn système de coordonnées basé sur la carte est utilisé. Il s’agit de l’option par défaut.
  • PIXEL_SPACEL’espace image est utilisé, sans rotation ni distorsion.
String
processing_mode
(Facultatif)

Spécifie comment tous les éléments raster figurant dans un jeu de données mosaïque ou un service d’imagerie seront traités. Ce paramètre est appliqué lorsqu’un raster en entrée est un jeu de données mosaïque ou service d’imagerie.

  • PROCESS_AS_MOSAICKED_IMAGETous les éléments raster figurant dans le jeu de données mosaïque ou le service d’imagerie seront mosaïqués ensemble, puis traités. Il s’agit de l’option par défaut.
  • PROCESS_ITEMS_SEPARATELYTous les éléments raster figurant dans le jeu de données mosaïque ou le service d’imagerie seront traités en tant qu’images séparées.
String
blacken_around_feature
(Facultatif)

Indique si les pixels autour de chaque objet ou entité de chaque tuile d’images sont masqués.

Ce paramètre s’applique uniquement lorsque le paramètre metadata_format est défini sur Labeled_Tiles et qu’une classe d’entités en entrée ou qu’un raster classé a été spécifié.

  • NO_BLACKENLes pixels entourant les objets ou les entités ne sont pas masqués. Il s’agit de l’option par défaut.
  • BLACKEN_AROUND_FEATURELes pixels entourant les objets ou les entités sont masqués.
Boolean
crop_mode
(Facultatif)

Spécifie si les tuiles exportées sont rognées de telle sorte qu’elles fassent toutes la même taille.

Ce paramètre s’applique uniquement lorsque le paramètre metadata_format est défini sur Labeled_Tiles ou sur Imagenet et qu’une classe d’entités en entrée ou qu’un raster classé a été spécifié.

  • FIXED_SIZELes tuiles exportées sont rognées de telle sorte qu’elles fassent la même taille et sont centrées sur l’entité. Il s’agit de l’option par défaut.
  • BOUNDING_BOXLes tuiles exportées sont rognées de telle sorte que l’emprise géométrique entoure uniquement l’entité dans la tuile.
String
in_raster2
(Facultatif)

Source d’imagerie en entrée supplémentaire qui est utilisée pour les méthodes de conversion d’image.

Ce paramètre est valide lorsque le paramètre metadata_format est défini sur Classified_Tiles, Export_Tiles ou CycleGAN.

Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder
in_instance_data
(Facultatif)

Données d’échantillons d’entraînement collectées contenant les classes pour la segmentation d’instances.

L’entrée peut également être une classe d’entités ponctuelles sans champ de valeur de classe ou un raster de type entier sans informations de classe.

Ce paramètre n’est valide que si le paramètre metadata_format est défini sur Panoptic_Segmentation.

Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder
instance_class_value_field
(Facultatif)

Champ contenant les valeurs de classe pour la segmentation d‘instances. Si aucun champ n’est spécifié, l’outil utilise un champ de valeur ou de valeur de classe le cas échéant. Si l’entité ne contient pas de champ de classe, l’outil détermine que tous les enregistrements appartiennent à une même classe.

Ce paramètre n’est valide que si le paramètre metadata_format est défini sur Panoptic_Segmentation.

Field
min_polygon_overlap_ratio
(Facultatif)

Pourcentage de superposition minimale pour qu’une entité soit incluse dans les données d’entraînement. Si le pourcentage de superposition est inférieur à la valeur spécifiée, l’entité est exclue du fragment d’entraînement et n’est pas ajoutée au fichier d’étiquette.

La valeur de pourcentage est exprimée sous la forme d’un nombre décimal. Par exemple, pour spécifier une superposition de 20 %, indiquez la valeur 0,2. La valeur par défaut est 0, ce qui signifie que toutes les entités sont incluses.

Ce paramètre améliore les performances de l’outil, ainsi que l’inférence. La vitesse est améliorée puisque moins de fragments d’entraînement sont créés. L’inférence est améliorée puisque le modèle est uniquement entraîné à détecter des lots importants d’objets et qu’il ignore les petits coins des entités. Cela signifie que l’outil Suppression non maximale détecte et retire un nombre moins important de faux positifs.

Ce paramètre est activé lorsque la valeur du paramètre in_class_data est une classe d’entités.

Double

Rubriques connexes