Mit der Image Analyst-Lizenz verfügbar.
Argumente sind eine der zahlreichen Möglichkeiten, mit denen gesteuert werden kann, wie Deep-Learning-Modelle trainiert und verwendet werden. In der ersten nachstehenden Tabelle sind die unterstützten Modellargumente für das Trainieren von Deep-Learning-Modellen aufgeführt. Die zweite Tabelle enthält die Argumente, mit denen gesteuert werden kann, wie Deep-Learning-Modelle für die Inferenzierung verwendet werden.
Trainingsargumente
Die folgenden Argumente zum Trainieren von Deep-Learning-Modellen sind im Werkzeug Deep-Learning-Modell trainieren verfügbar. Diese Argumente variieren je nach Modellarchitektur. Zum Trainieren eines Modells können Sie die Werte dieser Argumente ändern.
Modelltyp | Argument | Gültige Werte |
---|---|---|
Change Detector (Pixelklassifizierung) | attention_type | PAM (Pyramid Attention Module) oder BAM (Basic Attention Module). |
chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. | |
monitor | valid_loss, precision, recall und f1. | |
ConnectNet (Pixelklassifizierung) | chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. |
gaussian_thresh | 0,0 bis 1,0. Der Standardwert ist 0,76. | |
monitor | valid_loss, accuracy, miou und dice. | |
mtl_model | linknet oder hourglass. | |
orient_bin_size | Eine positive Zahl. Die Standardeinstellung ist 20. | |
orient_theta | Eine positive Zahl. Der Standardwert ist 8. | |
DeepLabv3 (Pixelklassifizierung) | chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. |
class_balancing | true oder false. | |
focal_loss | true oder false. | |
ignore_classes | Gültige Klassenwerte. | |
monitor | valid_loss und accuracy. | |
mixup | true oder false. | |
Image Captioner (Bild-zu-Bild-Übersetzung) | chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. |
Das Argument decode_params besteht aus den folgenden Parametern:
| Die Standardeinstellung ist {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}. | |
monitor | valid_loss, accuracy, corpus_bleu und multi_label_fbeta. | |
MMDetection (Objekterkennung) | chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. |
model | atss, carafe, cascade_rcnn, cascade_rpn, dcn, detectors, double_heads, dynamic_rcnn, empirical_attention, fcos, foveabox, fsaf, ghm, hrnet, libra_rcnn, nas_fcos, pafpn, pisa, regnet, reppoints, res2net, sabl und vfnet. | |
model_weight | true oder false. | |
MMSegmentation (Pixelklassifizierung) | chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. |
model | ann, apcnet, ccnet, cgnet, danet, deeplabv3, deeplabv3plus, dmnet , dnlnet, emanet, encnet, fastscnn, fcn, gcnet, hrnet, mobilenet_v2, mobilenet_v3, nonlocal_net, ocrnet, ocrnet_base, pointrend, psanet, pspnet, resnest, sem_fpn, unet und upernet. | |
model_weight | true oder false. | |
Multi Task Road Extractor (Pixelklassifizierung) | chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. |
gaussian_thresh | 0,0 bis 1,0. Der Standardwert ist 0,76. | |
monitor | valid_loss, accuracy, miou und dice. | |
mtl_model | linknet oder hourglass. | |
orient_bin_size | Eine positive Zahl. Die Standardeinstellung ist 20. | |
orient_theta | Eine positive Zahl. Der Standardwert ist 8. | |
Pyramid Scene Parsing Network (Pixelklassifizierung) | chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. |
class_balancing | true oder false. | |
focal_loss | true oder false. | |
ignore_classes | Gültige Klassenwerte. | |
monitor | valid_loss oder accuracy. | |
mixup | true oder false. | |
pyramid_sizes | [Faltungs-Layer 1, Faltungs-Layer 2, ... , Faltungs-Layer n] | |
use_net | true oder false. | |
RetinaNet (Objekterkennung) | chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. |
monitor | valid_loss oder average_precision. | |
ratios | Verhältniswert 1, Verhältniswert 2, Verhältniswert 3. Die Standardeinstellung ist 0.5,1,2. | |
scales | [Maßstabswert 1, Maßstabswert 2, Maßstabswert 3] Die Standardeinstellung ist [1, 0.8, 0.63]. | |
SAMLoRA (Pixelklassifizierung) | class_balancing | true oder false. |
ignore_classes | Gültige Klassenwerte. | |
Single Shot Detector (Objekterkennung) | chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. |
Gitternetze | Ganzzahlige Werte größer als 0. | |
monitor | valid_loss oder average_precision. | |
ratios | [horizontaler Wert, vertikaler Wert] | |
zooms | Der Zoomwert, wobei 1,0 der normale Zoomwert ist. | |
Super-Resolution für SR3-Backbone (Bild-zu-Bild-Übersetzung) | attn_res | Ganze Zahlen größer als 0. Der Standardwert ist 16. |
channel_mults | Ganzzahlige Multiplikatorgruppen. Der Standardwert beträgt [1, 2, 4, 4, 8, 8]. | |
dropout | Gleitkommawert. Die Standardeinstellung ist 0. | |
inner_channel | Ganzzahliger Wert größer als 0. Die Standardeinstellung ist 64. | |
linear_start | Ganzzahliger Zeitwert. Der Standardwert ist 1e-02. | |
linear_end | Ganzzahliger Zeitwert. Der Standardwert ist 1e-06. | |
n_timestep | Ganzzahliger Wert größer als 0. Der Standardwert ist 1000. | |
norm_groups | Ganzzahliger Wert größer als 0. Der Standardwert ist 32. | |
res_blocks | Ganzzahliger Wert größer als 0. Der Standardwert ist 3. | |
schedule | linear, warmup10, warmup50, const, jsd oder cosine. Der Standardwert ist linear. | |
U-Net (Pixelklassifizierung) | chip_size | Ganze Zahlen zwischen 0 und der Bildgröße. |
class_balancing | true oder false. | |
focal_loss | true oder false. | |
ignore_classes | Gültige Klassenwerte. | |
monitor | valid_loss oder accuracy. | |
mixup | true oder false. |
Inferenzierungsargumente
Mit den folgenden Argumenten kann gesteuert werden, wie Deep-Learning-Modelle für die Inferenzierung trainiert werden. Die Informationen aus dem Parameter Modelldefinition werden zum Füllen der Argumente in den Inferenzwerkzeugen verwendet. Diese Argumente variieren je nach Modellarchitektur. Vortrainierte ArcGIS-Modelle und benutzerdefinierte Deep-Learning-Modelle enthalten ggf. zusätzliche von dem Werkzeug unterstützte Argumente.
Argument | Inferenztyp | Gültige Werte |
---|---|---|
batch_size | Objekte klassifizieren Pixel klassifizieren Änderung erkennen Objekte erkennen | Ganzzahlige Werte größer als 0; in der Regel eine ganze Zahl, die eine Potenz von 2n ist. |
direction | Pixel klassifizieren | Die verfügbaren Optionen lauten AtoB und BtoA. Das Argument ist nur für die Architektur CycleGAN verfügbar. |
exclude_pad_detections | Objekte erkennen | true oder false. Das Argument ist nur für SSD, RetinaNet, YOLOv3, DETReg, MMDetection und Faster RCNN verfügbar. |
merge_policy | Pixel klassifizieren Objekte erkennen | Die verfügbaren Optionen sind mean, max und min. Beim Werkzeug Pixel mit Deep Learning klassifizieren ist das Argument für die Architekturen MultiTaskRoadExtractor und ConnectNet verfügbar. Wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind auch die Architekturen BDCN Edge Detector, HED Edge Detector und MMSegmentation verfügbar. Beim Werkzeug Objekte mit Deep Learning erkennen ist das Argument nur für MaskRCNN verfügbar. |
n_timestep | Pixel klassifizieren | Ganzzahliger Wert größer als 0. Der Standardwert beträgt 200. Das Argument ist für die Super-Resolution mit dem Backbone-Modell SR3 verfügbar. |
nms_overlap | Objekte erkennen | Ein Gleitkommawert von 0,0 bis 1,0. Die Standardeinstellung ist 0,1. |
output_classified_raster | Objekte erkennen | Der Dateipfad und -name für das klassifizierte Ausgabe-Raster. Das Argument ist nur für MaXDeepLab verfügbar. |
padding | Pixel klassifizieren Änderung erkennen Objekte erkennen | Ganzzahlige Werte größer als 0 und kleiner als die Hälfte des Wertes der Kachelgröße. |
predict_background | Pixel klassifizieren | true oder false. Das Argument ist für UNET, PSPNET, DeepLab und MMSegmentation verfügbar. |
return_probability_raster | Pixel klassifizieren | true oder false. Wenn ArcGISLearnVersion 1.8.4 oder höher in der .emd-Datei des Modells vorhanden ist, sind die Architekturen MultiTaskRoadExtractor und ConnectNet verfügbar. Bei ArcGISLearnVersion 1.8.4 oder höher und wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind auch die Architekturen BDCNEdgeDetector, HEDEdgeDetector und MMSegmentation verfügbar. |
sampling_type | Pixel klassifizieren | ddim und ddpm. Die Standardeinstellung ist ddim. Das Argument ist für die Super-Resolution mit dem Backbone-Modell SR3 verfügbar. |
Planen | Pixel klassifizieren | linear, warmup10, warmup50, const, jsd oder cosine. Der Standardwert entspricht dem Wert des Modells, das für das Training verwendet wurde. Das Argument ist für die Super-Resolution mit dem Backbone-Modell SR3 verfügbar. |
score_threshold | Objekte klassifizieren | 0 bis 1,0. |
test_time_augmentation | Objekte klassifizieren Pixel klassifizieren | true oder false. |
threshold | Pixel klassifizieren Objekte erkennen | 0 bis 1,0. Beim Werkzeug Pixel mit Deep Learning klassifizieren sind die Architekturen MultiTaskRoadExtractor und ConnectNet verfügbar, wenn ArcGISLearnVersion 1.8.4 oder höher in der .emd-Datei des Modells vorhanden ist. Bei ArcGISLearnVersion 1.8.4 oder höher und wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind auch die Architekturen BDCNEdgeDetector, HEDEdgeDetector und MMSegmentation verfügbar. Beim Werkzeug Objekte mit Deep Learning erkennen ist das Argument für alle Modellarchitekturen verfügbar. |
thinning | Pixel klassifizieren | true oder false. Wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind die Architekturen BDCNEdgeDetector, HEDEdgeDetector und MMSegmentation verfügbar. |
tile_size | Pixel klassifizieren Objekte erkennen | Ganzzahlige Werte größer als 0 und kleiner als die Bildgröße. Beim Werkzeug Pixel mit Deep Learning klassifizieren ist das Argument nur für die Architektur CycleGAN verfügbar. Beim Werkzeug Objekte mit Deep Learning erkennen ist das Argument nur für MaskRCNN verfügbar. |