Arguments de Deep learning

Disponible avec une licence Image Analyst.

Les arguments sont l’un des nombreux moyens qui permettent de contrôler la façon dont les modèles de Deep Learning sont entraînés et utilisés. Le premier tableau ci-dessous répertorie les arguments de modèle pris en charge pour l’entraînement des modèles de Deep Learning. Le second tableau répertorie les arguments qui permettent de contrôler la manière dont les modèles de Deep Learning sont utilisés pour l’inférence.

Arguments d’entraînement

Les arguments ci-après sont disponibles dans l’outil Entraîner le modèle de Deep Learning pour l’entraînement des modèles de Deep Learning. Ces arguments varient selon l’architecture du modèle. Vous pouvez modifier les valeurs de ces arguments pour entraîner un modèle.

Model typeArgumentValeur valides

Détecteur de changement (classification de pixels)

attention_type

PAM (Pyramid Attention Module) ou BAM (Basic Attention Module).

chip_size

Entiers compris entre 0 et la taille de l’image.

monitor

valid_loss, precision, recall et f1.

ConnectNet (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

gaussian_thresh

0,0 à 1,0. La valeur par défaut est 0,76.

monitor

valid_loss, accuracy, miou et dice.

mtl_model

linknet ou hourglass.

orient_bin_size

Nombre positif. La valeur par défaut est 20.

orient_theta

Nombre positif. La valeur par défaut est 8.

DeepLabv3 (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

class_balancing

true ou false.

focal_loss

true ou false.

ignore_classes

Valeurs de classe valides.

monitor

valid_loss et accuracy.

mixup

true ou false.

Créateur de légende d’image (conversion d’images)

chip_size

Entiers compris entre 0 et la taille de l’image.

L’argument decode_params se compose des paramètres suivants :

  • embed_size
  • hidden_size
  • attention_size
  • teacher_forcing
  • dropout
  • pretrained_emb

La valeur par défaut est {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}.

monitor

valid_loss, accuracy, corpus_bleu etmulti_label_fbeta.

MMDetection (détection des objets)

chip_size

Entiers compris entre 0 et la taille de l’image.

modèle,

atss, carafe, cascade_rcnn, cascade_rpn, dcn, detectors, double_heads, dynamic_rcnn, empirical_attention, fcos, foveabox, fsaf, ghm, hrnet, libra_rcnn, nas_fcos, pafpn, pisa, regnet, reppoints, res2net, sabl et vfnet.

model_weight

true ou false.

MMSegmentation (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

modèle,

ann, apcnet, ccnet, cgnet, danet, deeplabv3, deeplabv3plus, dmnet , dnlnet, emanet, encnet, fastscnn, fcn, gcnet, hrnet, mobilenet_v2, mobilenet_v3, nonlocal_net, ocrnet, ocrnet_base, pointrend, psanet, pspnet, resnest, sem_fpn, unet et upernet.

model_weight

true ou false.

Extracteur de routes multitâche (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

gaussian_thresh

0,0 à 1,0. La valeur par défaut est 0,76.

monitor

valid_loss, accuracy, miou et dice.

mtl_model

linknet ou hourglass.

orient_bin_size

Nombre positif. La valeur par défaut est 20.

orient_theta

Nombre positif. La valeur par défaut est 8.

Pyramid Scene Parsing Network (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

class_balancing

true ou false.

focal_loss

true ou false.

ignore_classes

Valeurs de classe valides.

monitor

valid_loss ou accuracy.

mixup

true ou false.

pyramid_sizes

[couche de convolution 1, couche de convolution 2, ... , couche de convolution n]

use_net

true ou false.

RetinaNet (détection des objets)

chip_size

Entiers compris entre 0 et la taille de l’image.

monitor

valid_loss ou average_precision.

ratios

Valeur de ratio 1, valeur de ratio 2, valeur de ratio 3.

La valeur par défaut est 0.5,1,2.

scales

[valeur d’échelle 1, valeur d’échelle 2, valeur d’échelle 3]

La valeur par défaut est [1, 0.8, 0.63].

SAMLoRA (classification de pixels)

class_balancing

true ou false.

ignore_classes

Valeurs de classe valides.

Détecteur de tir unique (détection des objets)

chip_size

Entiers compris entre 0 et la taille de l’image.

carroyages

Valeurs entières supérieures à 0.

monitor

valid_loss ou average_precision.

ratios

[valeur horizontale, valeur verticale]

zooms

Valeur de zoom où 1,0 est le zoom normal.

Super-résolution avec backbone SR3 (conversion d’images)

attn_res

Entiers supérieurs à 0. La valeur par défaut est 16.

channel_mults 

Ensembles de multiplicateurs entiers. La valeur par défaut est [1, 2, 4, 4, 8, 8].

dropout

Valeur à virgule flottante. La valeur par défaut est 0.

inner_channel

Valeur entière supérieure à 0. La valeur par défaut est 64.

linear_start

Entier horaire. La valeur par défaut est 1e-02.

linear_end 

Entier horaire. La valeur par défaut est 1e-06.

n_timestep 

Valeur entière supérieure à 0. La valeur par défaut est 1000.

norm_groups 

Valeur entière supérieure à 0. La valeur par défaut est 32.

res_blocks

Valeur entière supérieure à 0. La valeur par défaut est 3.

schedule 

linear, warmup10, warmup50, const, jsd ou cosine.

La valeur par défaut est linear.

U-Net (classification de pixels)

chip_size

Entiers compris entre 0 et la taille de l’image.

class_balancing

true ou false.

focal_loss

true ou false.

ignore_classes

Valeurs de classe valides.

monitor

valid_loss ou accuracy.

mixup

true ou false.

Arguments d’inférence

Les arguments ci-après permettent de contrôler la manière dont les modèles de Deep Learning sont entraînés pour l’inférence. Les informations du paramètre Définition de modèle sont utilisées pour renseigner le paramètre Arguments dans les outils d’inférence. Ces arguments varient selon l’architecture du modèle. Les modèles pré-entraînés ArcGIS et les modèles de Deep Learning personnalisés peuvent comporter des arguments supplémentaires pris en charge par l’outil.

ArgumentType d’inférenceValeur valides

batch_size

Classer les objets

Classer les pixels

Détecter les modifications

Détecter des objets

Valeurs entières supérieures à 0 ; généralement un entier à la puissance 2n.

direction

Classer les pixels

Les options disponibles sont AtoB et BtoA.

L’argument est uniquement disponible pour l’architecture CycleGAN.

exclude_pad_detections

Détecter des objets

true ou false.

L’argument est disponible pour SSD, RetinaNet, YOLOv3, DETReg, MMDetection et Faster RCNN uniquement.

merge_policy

Classer les pixels

Détecter des objets

Les options disponibles sont mean, max et min.

Pour l’outil Classer des pixels à l’aide du Deep Learning, l’argument est disponible pour les architectures Extracteur de routes multitâche et ConnectNet. Si IsEdgeDetection figure dans le fichier .emd du modèle, les architecture Détecteur de contours BDCN, Détecteur de contours HED et MMSegmentation sont également disponibles.

Pour l’outil Détecter des objets à l’aide du Deep Learning, l’argument est uniquement disponible pour MaskRCNN.

n_timestep

Classer les pixels

Valeur entière supérieure à 0. La valeur par défaut est 200.

L’argument est disponible pour les modèles Super-résolution avec backbone SR3.

nms_overlap

Détecter des objets

Valeur à virgule flottante comprise entre 0,0 et 1,0. La valeur par défaut est 0,1.

output_classified_raster

Détecter des objets

Chemin et nom de fichier du raster classé en sortie.

L’argument est disponible uniquement pour MaXDeepLab.

remplissage

Classer les pixels

Détecter les modifications

Détecter des objets

Valeurs entières supérieures à 0 et inférieures à la moitié de la valeur de la taille de tuile.

predict_background

Classer les pixels

true ou false.

L’argument est disponible pour UNET, PSPNET, DeepLab et MMSegmentation.

return_probability_raster

Classer les pixels

true ou false.

Si ArcGISLearnVersion est de version 1.8.4 ou supérieure dans le fichier .emd du modèle, les architectures Extracteur de routes multitâche et ConnectNet sont disponibles. Si ArcGISLearnVersion est de version 1.8.4 ou supérieure et que IsEdgeDetection figure dans le fichier .emd du modèle, les architectures Détecteur de contours BDCN, Détecteur de contours HED et MMSegmentation sont également disponibles.

sampling_type

Classer les pixels

ddim et ddpm.

La valeur par défaut est ddim.

L’argument est disponible pour les modèles Super-résolution avec backbone SR3.

planifier

Classer les pixels

linear, warmup10, warmup50, const, jsd ou cosine.

La valeur par défaut est définie sur la même valeur que le modèle sur lequel il a été entraîné.

L’argument est disponible pour les modèles Super-résolution avec backbone SR3.

score_threshold

Classer les objets

Compris entre 0 et 1,0.

test_time_augmentation

Classer les objets

Classer les pixels

true ou false.

seuil

Classer les pixels

Détecter des objets

Compris entre 0 et 1,0.

Pour l’outil Classer des pixels à l’aide du Deep Learning, si ArcGISLearnVersion est de version 1.8.4 ou supérieure dans le fichier .emd du modèle, les architectures MultiTaskRoadExtractor et ConnectNet sont disponibles. Si ArcGISLearnVersion est de version 1.8.4 ou supérieure et que IsEdgeDetection est présent dans le fichier .emd du modèle, les architectures BDCNEdgeDetector, HEDEdgeDetector et MMSegmentation sont également disponibles.

Pour l’outil Détecter des objets à l’aide du Deep Learning, l’argument est disponible pour toutes les architectures de modèle.

affiner

Classer les pixels

true ou false.

Si IsEdgeDetection est présent dans le fichier .emd du modèle, les architectures BDCNEdgeDetector, HEDEdgeDetector et MMSegmentation sont disponibles.

tile_size

Classer les pixels

Détecter des objets

Valeurs entières supérieures à 0 et inférieures à la taille de l’image.

Pour l’outil Classer des pixels à l’aide du Deep Learning, l’argument est disponible uniquement pour l’architecture CycleGAN.

Pour l’outil Détecter des objets à l’aide du Deep Learning, l’argument est uniquement disponible pour MaskRCNN.

Rubriques connexes