Deep-Learning-Argumente

Mit der Image Analyst-Lizenz verfügbar.

Argumente sind eine der zahlreichen Möglichkeiten, mit denen gesteuert werden kann, wie Deep-Learning-Modelle trainiert und verwendet werden. In der ersten nachstehenden Tabelle sind die unterstützten Modellargumente für das Trainieren von Deep-Learning-Modellen aufgeführt. Die zweite Tabelle enthält die Argumente, mit denen gesteuert werden kann, wie Deep-Learning-Modelle für die Inferenzierung verwendet werden.

Trainingsargumente

Die folgenden Argumente zum Trainieren von Deep-Learning-Modellen sind im Werkzeug Deep-Learning-Modell trainieren verfügbar. Diese Argumente variieren je nach Modellarchitektur. Zum Trainieren eines Modells können Sie die Werte dieser Argumente ändern.

ModelltypArgumentGültige Werte

Change Detector (Pixelklassifizierung)

attention_type

PAM (Pyramid Attention Module) oder BAM (Basic Attention Module).

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

monitor

valid_loss, precision, recall und f1.

ConnectNet (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

gaussian_thresh

0,0 bis 1,0. Der Standardwert ist 0,76.

monitor

valid_loss, accuracy, miou und dice.

mtl_model

linknet oder hourglass.

orient_bin_size

Eine positive Zahl. Die Standardeinstellung ist 20.

orient_theta

Eine positive Zahl. Der Standardwert ist 8.

DeepLabv3 (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

class_balancing

true oder false.

focal_loss

true oder false.

ignore_classes

Gültige Klassenwerte.

monitor

valid_loss und accuracy.

mixup

true oder false.

Image Captioner (Bild-zu-Bild-Übersetzung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

Das Argument decode_params besteht aus den folgenden Parametern:

  • embed_size
  • hidden_size
  • attention_size
  • teacher_forcing
  • dropout
  • pretrained_emb

Die Standardeinstellung ist {'embed_size':100, 'hidden_size':100, 'attention_size':100, 'teacher_forcing':1, 'dropout':0.1, 'pretrained_emb':False}.

monitor

valid_loss, accuracy, corpus_bleu und multi_label_fbeta.

MMDetection (Objekterkennung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

model

atss, carafe, cascade_rcnn, cascade_rpn, dcn, detectors, double_heads, dynamic_rcnn, empirical_attention, fcos, foveabox, fsaf, ghm, hrnet, libra_rcnn, nas_fcos, pafpn, pisa, regnet, reppoints, res2net, sabl und vfnet.

model_weight

true oder false.

MMSegmentation (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

model

ann, apcnet, ccnet, cgnet, danet, deeplabv3, deeplabv3plus, dmnet , dnlnet, emanet, encnet, fastscnn, fcn, gcnet, hrnet, mobilenet_v2, mobilenet_v3, nonlocal_net, ocrnet, ocrnet_base, pointrend, psanet, pspnet, resnest, sem_fpn, unet und upernet.

model_weight

true oder false.

Multi Task Road Extractor (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

gaussian_thresh

0,0 bis 1,0. Der Standardwert ist 0,76.

monitor

valid_loss, accuracy, miou und dice.

mtl_model

linknet oder hourglass.

orient_bin_size

Eine positive Zahl. Die Standardeinstellung ist 20.

orient_theta

Eine positive Zahl. Der Standardwert ist 8.

Pyramid Scene Parsing Network (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

class_balancing

true oder false.

focal_loss

true oder false.

ignore_classes

Gültige Klassenwerte.

monitor

valid_loss oder accuracy.

mixup

true oder false.

pyramid_sizes

[Faltungs-Layer 1, Faltungs-Layer 2, ... , Faltungs-Layer n]

use_net

true oder false.

RetinaNet (Objekterkennung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

monitor

valid_loss oder average_precision.

ratios

Verhältniswert 1, Verhältniswert 2, Verhältniswert 3.

Die Standardeinstellung ist 0.5,1,2.

scales

[Maßstabswert 1, Maßstabswert 2, Maßstabswert 3]

Die Standardeinstellung ist [1, 0.8, 0.63].

SAMLoRA (Pixelklassifizierung)

class_balancing

true oder false.

ignore_classes

Gültige Klassenwerte.

Single Shot Detector (Objekterkennung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

Gitternetze

Ganzzahlige Werte größer als 0.

monitor

valid_loss oder average_precision.

ratios

[horizontaler Wert, vertikaler Wert]

zooms

Der Zoomwert, wobei 1,0 der normale Zoomwert ist.

Super-Resolution für SR3-Backbone (Bild-zu-Bild-Übersetzung)

attn_res

Ganze Zahlen größer als 0. Der Standardwert ist 16.

channel_mults 

Ganzzahlige Multiplikatorgruppen. Der Standardwert beträgt [1, 2, 4, 4, 8, 8].

dropout

Gleitkommawert. Die Standardeinstellung ist 0.

inner_channel

Ganzzahliger Wert größer als 0. Die Standardeinstellung ist 64.

linear_start

Ganzzahliger Zeitwert. Der Standardwert ist 1e-02.

linear_end 

Ganzzahliger Zeitwert. Der Standardwert ist 1e-06.

n_timestep 

Ganzzahliger Wert größer als 0. Der Standardwert ist 1000.

norm_groups 

Ganzzahliger Wert größer als 0. Der Standardwert ist 32.

res_blocks

Ganzzahliger Wert größer als 0. Der Standardwert ist 3.

schedule 

linear, warmup10, warmup50, const, jsd oder cosine.

Der Standardwert ist linear.

U-Net (Pixelklassifizierung)

chip_size

Ganze Zahlen zwischen 0 und der Bildgröße.

class_balancing

true oder false.

focal_loss

true oder false.

ignore_classes

Gültige Klassenwerte.

monitor

valid_loss oder accuracy.

mixup

true oder false.

Inferenzierungsargumente

Mit den folgenden Argumenten kann gesteuert werden, wie Deep-Learning-Modelle für die Inferenzierung trainiert werden. Die Informationen aus dem Parameter Modelldefinition werden zum Füllen der Argumente in den Inferenzwerkzeugen verwendet. Diese Argumente variieren je nach Modellarchitektur. Vortrainierte ArcGIS-Modelle und benutzerdefinierte Deep-Learning-Modelle enthalten ggf. zusätzliche von dem Werkzeug unterstützte Argumente.

ArgumentInferenztypGültige Werte

batch_size

Objekte klassifizieren

Pixel klassifizieren

Änderung erkennen

Objekte erkennen

Ganzzahlige Werte größer als 0; in der Regel eine ganze Zahl, die eine Potenz von 2n ist.

direction

Pixel klassifizieren

Die verfügbaren Optionen lauten AtoB und BtoA.

Das Argument ist nur für die Architektur CycleGAN verfügbar.

exclude_pad_detections

Objekte erkennen

true oder false.

Das Argument ist nur für SSD, RetinaNet, YOLOv3, DETReg, MMDetection und Faster RCNN verfügbar.

merge_policy

Pixel klassifizieren

Objekte erkennen

Die verfügbaren Optionen sind mean, max und min.

Beim Werkzeug Pixel mit Deep Learning klassifizieren ist das Argument für die Architekturen MultiTaskRoadExtractor und ConnectNet verfügbar. Wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind auch die Architekturen BDCN Edge Detector, HED Edge Detector und MMSegmentation verfügbar.

Beim Werkzeug Objekte mit Deep Learning erkennen ist das Argument nur für MaskRCNN verfügbar.

n_timestep

Pixel klassifizieren

Ganzzahliger Wert größer als 0. Der Standardwert beträgt 200.

Das Argument ist für die Super-Resolution mit dem Backbone-Modell SR3 verfügbar.

nms_overlap

Objekte erkennen

Ein Gleitkommawert von 0,0 bis 1,0. Die Standardeinstellung ist 0,1.

output_classified_raster

Objekte erkennen

Der Dateipfad und -name für das klassifizierte Ausgabe-Raster.

Das Argument ist nur für MaXDeepLab verfügbar.

padding

Pixel klassifizieren

Änderung erkennen

Objekte erkennen

Ganzzahlige Werte größer als 0 und kleiner als die Hälfte des Wertes der Kachelgröße.

predict_background

Pixel klassifizieren

true oder false.

Das Argument ist für UNET, PSPNET, DeepLab und MMSegmentation verfügbar.

return_probability_raster

Pixel klassifizieren

true oder false.

Wenn ArcGISLearnVersion 1.8.4 oder höher in der .emd-Datei des Modells vorhanden ist, sind die Architekturen MultiTaskRoadExtractor und ConnectNet verfügbar. Bei ArcGISLearnVersion 1.8.4 oder höher und wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind auch die Architekturen BDCNEdgeDetector, HEDEdgeDetector und MMSegmentation verfügbar.

sampling_type

Pixel klassifizieren

ddim und ddpm.

Die Standardeinstellung ist ddim.

Das Argument ist für die Super-Resolution mit dem Backbone-Modell SR3 verfügbar.

Planen

Pixel klassifizieren

linear, warmup10, warmup50, const, jsd oder cosine.

Der Standardwert entspricht dem Wert des Modells, das für das Training verwendet wurde.

Das Argument ist für die Super-Resolution mit dem Backbone-Modell SR3 verfügbar.

score_threshold

Objekte klassifizieren

0 bis 1,0.

test_time_augmentation

Objekte klassifizieren

Pixel klassifizieren

true oder false.

threshold

Pixel klassifizieren

Objekte erkennen

0 bis 1,0.

Beim Werkzeug Pixel mit Deep Learning klassifizieren sind die Architekturen MultiTaskRoadExtractor und ConnectNet verfügbar, wenn ArcGISLearnVersion 1.8.4 oder höher in der .emd-Datei des Modells vorhanden ist. Bei ArcGISLearnVersion 1.8.4 oder höher und wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind auch die Architekturen BDCNEdgeDetector, HEDEdgeDetector und MMSegmentation verfügbar.

Beim Werkzeug Objekte mit Deep Learning erkennen ist das Argument für alle Modellarchitekturen verfügbar.

thinning

Pixel klassifizieren

true oder false.

Wenn IsEdgeDetection in der .emd-Datei des Modells vorhanden ist, sind die Architekturen BDCNEdgeDetector, HEDEdgeDetector und MMSegmentation verfügbar.

tile_size

Pixel klassifizieren

Objekte erkennen

Ganzzahlige Werte größer als 0 und kleiner als die Bildgröße.

Beim Werkzeug Pixel mit Deep Learning klassifizieren ist das Argument nur für die Architektur CycleGAN verfügbar.

Beim Werkzeug Objekte mit Deep Learning erkennen ist das Argument nur für MaskRCNN verfügbar.

Verwandte Themen