Beschriftung | Erläuterung | Datentyp |
Eingabe-Raster | Die Eingabe-Quellbilddaten, in der Regel multispektrale Bilddaten. Beispiele für Eingabe-Quellbilddaten sind Multispektralsatellit-, Drohnen-, Luft- und NAIP-Bilder (National Agriculture Imagery Program). Bei der Eingabe kann es sich um einen Ordner mit Bildern handeln. | Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder |
Ausgabeordner | Der Ordner für die ausgegebenen Bildschnipsel und Metadaten. Dies kann auch eine Ordner-URL sein, die eine Verbindungsdatei für den Cloud-Speicher (*.acs) verwendet. | Folder |
Eingabe-Feature-Class oder klassifiziertes Eingabe-Raster oder Eingabetabelle | Die Trainingsdaten in Vektor- oder Raster-Form. Vektoreingaben sollten dem Trainingsgebiet-Format entsprechen, das im Bereich Trainingsgebiet-Manager erstellt wurde. Raster-Eingaben sollten einem klassifizierten Raster-Format entsprechen, das mit dem Werkzeug Raster klassifizieren erstellt wurde. Die Raster-Eingabe kann auch aus einem Ordner mit klassifizierten Rastern stammen. Klassifizierte Raster-Eingaben erfordern eine entsprechende Raster-Attributtabelle. Eingabetabellen sollten einem Trainingsgebiet-Format entsprechen, das mit der Schaltfläche Objekte für Deep Learning beschriften im Bereich Trainingsgebiet-Manager erstellt wurde. Wenn das richtige Trainingsgebiet-Format verwendet wird, liefern die statistischen Informationen optimale Ergebnisse; allerdings kann die Eingabe auch eine Point-Feature-Class ohne Klassenwertefeld oder ein Integer-Raster ohne Klasseninformationen sein. | Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder |
Bildformat | Gibt das Raster-Format für die ausgegebenen Bildschnipsel an. Die Formate PNG und JPEG unterstützen bis zu drei Bänder.
| String |
Kachelgröße X (optional) | Größe der Bildschnipsel (X-Dimension). | Long |
Kachelgröße Y (optional) | Größe der Bildschnipsel (Y-Dimension). | Long |
Schritt X (optional) | Verschiebung in X-Richtung bei Erstellung der nächsten Bildschnipsel. Wenn der Schritt der Kachelgröße entspricht, gibt es keine Überlappung. Wenn der Schritt der halben Kachelgröße entspricht, gibt es eine Überlappung von 50 Prozent | Long |
Schritt Y (optional) | Verschiebung in Y-Richtung bei Erstellung der nächsten Bildschnipsel. Wenn der Schritt der Kachelgröße entspricht, gibt es keine Überlappung. Wenn der Schritt der halben Kachelgröße entspricht, gibt es eine Überlappung von 50 Prozent | Long |
NoFeature-Kacheln ausgeben (optional) | Gibt an, ob Bildschnipsel, die keine Trainingsgebiete erfassen, exportiert werden.
Ist diese Option aktiviert, werden auch Bildschnipsel ohne Label exportiert. Bei deaktivierter Option werden diese nicht exportiert. | Boolean |
Metadatenformat (optional) | Gibt das Format für die ausgegebenen Metadaten-Label an. Wenn es sich bei den Eingabedaten für das Trainingsgebiet um einen Feature-Class-Layer handelt, wie zum Beispiel eine Gebäude-Layer- oder Standardklassifizierungs-Trainingsgebiet-Datei, verwenden Sie die Option KITTI-Beschriftungen oder PASCAL Visual Object Classes (KITTI_rectangles oder PASCAL_VOC_rectangles in Python). Die Ausgabe-Metadaten sind eine .txt-Datei oder eine .xml-Datei mit den Daten für das Trainingsgebiet, die im kleinsten umgebenden Rechteck enthalten sind. Der Name der Metadatendatei stimmt mit dem Namen des Eingabequellbildes überein. Wenn es sich bei den Eingabedaten für das Trainingsgebiet um eine Klassenkarte handelt, verwenden Sie als Format für die Ausgabe-Metadaten die Option Klassifizierte Kacheln (Classified_Tiles in Python). Beim KITTI-Metadatenformat werden 15 Spalten erstellt, jedoch nur 5 davon im Werkzeug verwendet. Die erste Spalte ist der Klassenwert. Die nächsten 3 Spalten werden übersprungen. In den Spalten 5 bis 8 wird das kleinste umgebende Rechteck definiert, das aus vier Bildkoordinatenpositionen besteht. Diese sind die Pixel links, oben, rechts und unten. Das kleinste umgebende Rechteck umfasst den im Deep-Learning-Klassifikator verwendeten Training-Schnipsel. Die verbleibenden Spalten werden nicht verwendet.
| String |
Startindex (optional) | Vorversion:Dieser Parameter ist veraltet. | Long |
Klassenwertefeld (optional) | Das Feld, das die Klassenwerte enthält. Wird kein Feld angegeben, sucht das System nach einem Feld des Typs value oder classvalue. Das Feld muss numerisch (in der Regel eine ganze Zahl) sein. Wenn das Feature kein Klassenwerte-Feld enthält, wird vom System festgelegt, dass alle Datensätze zu einer Klasse gehören. | Field |
Pufferradius (optional) | Der Radius eines Puffers um die einzelnen Trainingsgebiete, der zur Abgrenzung einer Trainingsgebietsfläche verwendet wird. Auf diese Weise können Sie kreisförmige Polygon-Trainingsgebiete aus Punkten erstellen. Die lineare Einheit des Raumbezugs für den Parameter Eingabe-Feature-Class, klassifiziertes Eingabe-Raster oder Eingabetabelle wird verwendet. | Double |
Eingabe-Maskenpolygone (optional) | Eine Polygon-Feature-Class zur Abgrenzung der Fläche, in der Bildschnipsel erstellt werden. Es werden nur Bildschnipsel erstellt, die vollständig in die Polygone fallen. | Feature Layer |
Drehwinkel (optional) | Der Drehwinkel, der für die Generierung von Bildschnipseln verwendet wird. Zunächst wird ein Bildschnipsel ohne Drehung generiert. Danach wird um den angegebenen Winkel gedreht, um weitere Bildschnipsel zu erstellen. Bei jeder Drehung wird ein Schnipsel erstellt, bis das Bild vollständig gedreht wurde. Wenn Sie beispielsweise einen Drehwinkel von 45 Grad angeben, werden acht Bildschnipsel erstellt. Die acht Bildschnipsel werden bei folgenden Winkeln erstellt: 0, 45, 90, 135, 180, 25, 270 und 315. Der Standard-Drehwinkel beträgt 0 Grad. Dabei wird ein Standard-Bildschnipsel erstellt. | Double |
Bezugssystem (optional) | Gibt den Typ des Bezugssystems an, das zum Interpretieren des Eingabebildes verwendet wird. Das angegebene Bezugssystem muss mit dem Bezugssystem übereinstimmen, das für das Training des Deep-Learning-Modells verwendet wurde.
| String |
Verarbeitungsmodus (optional) | Legt fest, wie alle Raster-Elemente in einem Mosaik-Dataset oder Image-Service verarbeitet werden. Dieser Parameter findet Anwendung, wenn es sich beim Eingabe-Raster um ein Mosaik-Dataset oder einen Image-Service handelt.
| String |
Feature schwärzen (optional) | Gibt an, ob die Pixel um die einzelnen Objekte oder Features in den Bildkacheln maskiert werden sollen. Dieser Parameter findet nur Anwendung, wenn der Parameter Metadatenformat auf Beschriftete Kacheln festgelegt ist und eine Eingabe-Feature-Class oder ein klassifiziertes Eingabe-Raster angegeben wurde.
| Boolean |
Zuschneide-Modus (optional) | Gibt an, ob die exportierten Kacheln auf die gleiche Größe zugeschnitten werden sollen. Dieser Parameter findet nur Anwendung, wenn der Parameter Metadatenformat auf Beschriftete Kacheln oder ImageNet festgelegt ist und eine Eingabe-Feature-Class oder ein klassifiziertes Eingabe-Raster angegeben wurde.
| String |
Zusätzliches Eingabe-Raster (optional) | Eine zusätzliche Eingabequelle aus Bilddaten, die für Bild-zu-Bild-Übersetzungsmethoden verwendet wird. Dieser Parameter ist gültig, wenn der Parameter Metadatenformat auf Klassifizierte Kacheln, Kacheln exportieren oder CycleGAN festgelegt wurde. | Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder |
Instance-Feature-Class (optional) | Die erfassten Trainingsgebietsdaten, die Klassen für die Instanzsegmentierung enthalten. Die Eingabe kann auch eine Point-Feature-Class ohne Klassenwertefeld oder ein Integer-Raster ohne Klasseninformationen sein. Dieser Parameter ist nur gültig, wenn der Parameter Metadatenformat auf Panoptische Segmentierung festgelegt ist. | Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder |
Wertefeld für Instanzklasse (optional) | Das Feld, das die Klassenwerte für die Instanzsegmentierung enthält. Wird kein Feld angegeben, verwendet das Werkzeug einen Wert oder ein Klassenwertefeld, sofern vorhanden. Wenn das Feature kein Klassenwertefeld enthält, wird mit dem Werkzeug festgelegt, dass alle Datensätze zu einer Klasse gehören. Dieser Parameter ist nur gültig, wenn der Parameter Metadatenformat auf Panoptische Segmentierung festgelegt ist. | Field |
Minimale Polygon-Überlappungsrate (optional) | Der Prozentsatz der minimalen Überlappung für ein in die Trainingsdaten einzubeziehendes Feature. Wenn die prozentuale Überlappung kleiner als der angegebene Wert ist, wird das Feature aus dem Training-Schnipsel ausgeschlossen und der Label-Datei nicht hinzugefügt. Der Prozentwert wird als Dezimalzahl angegeben. Um beispielsweise eine Überlappung von 20 Prozent anzugeben, verwenden Sie den Wert 0,2. Der Standardwert ist 0, d. h. alle Features werden einbezogen. Durch diesen Parameter wird neben der Performance des Werkzeugs auch die Inferenzierung verbessert. Die Geschwindigkeit wird verbessert, da weniger Trainingsschnipsel erstellt werden. Die Inferenzierung wird verbessert, da das Modell so trainiert wird, dass nur große Objektflächen erkannt und kleine Ecken von Features ignoriert werden. Dadurch werden weniger falsch positive Ergebnisse erkannt und vom Werkzeug Non-maximum Suppression entfernt. Dieser Parameter ist aktiv, wenn der Parameterwert Eingabe-Feature-Class oder klassifiziertes Eingabe-Raster oder Eingabetabelle eine Feature-Class ist. | Double |
Mit der Spatial Analyst-Lizenz verfügbar.
Mit der Image Analyst-Lizenz verfügbar.
Zusammenfassung
Verwendet ein Fernerkundungsbild zum Konvertieren von beschrifteten Vektor- oder Raster-Daten in Training-Datasets für Deep Learning. Die Ausgabe ist ein Ordner mit Bildschnipseln und ein Ordner mit Metadaten-Dateien im angegebenen Format.
Verwendung
Mit diesem Werkzeug lassen sich Training-Datasets für die Unterstützung von Deep-Learning-Anwendungen von Drittanbietern erstellen, wie z. B. Google TensorFlow, Keras, PyTorch und Microsoft CNTK.
Deep-Learning-Class-Trainingsgebiete basieren auf kleinen Sub-Bildern mit dem relevanten Feature oder der relevanten Klasse. Diese Sub-Bilder werden Bildschnipsel genannt.
Verwenden Sie vorhandene Klassifizierungs-Trainingsgebietdaten oder GIS-Feature-Class-Daten wie Gebäude-Footprint-Layer, um Bildschnipsel zu erzeugen, die das Klassenbeispiel aus dem Quellbild enthalten. Die Abmessungen von Bildschnipseln betragen in der Regel 256 x 256 Pixel, es sei denn, das Trainingsgebiet ist größer. Ein Bildschnipsel kann ein oder mehrere Objekte enthalten. Bei Verwendung des Metadatenformats Beschriftete Kacheln ist nur ein Objekt je Bildschnipsel zulässig.
Mit dem Bezugssystem können Trainingsdaten in den Kartenraum oder Pixelraum (roher Bildraum) exportiert werden, die dem Training des Deep-Learning-Modells dienen.
Dieses Werkzeug unterstützt den Export von Trainingsdaten aus einer Sammlung vom Bildern. Als Wert für Eingabe-Raster können Sie einen Bildordner festlegen. Wenn es sich bei dem Wert für Eingabe-Raster um ein Mosaik-Dataset oder einen Image-Service handelt, können Sie auch angeben, dass der Parameter Verarbeitungsmodus das Mosaik entweder als eine einzige Eingabe oder jedes Raster-Element einzeln verarbeitet.
Die Zellengröße und -ausdehnung kann in den Einstellungen der Geoverarbeitungsumgebung angepasst werden.
Dieses Werkzeug berücksichtigt die Umgebungseinstellung Faktor für parallele Verarbeitung. Standardmäßig ist Faktor für parallele Verarbeitung nicht aktiviert; folglich wird das Werkzeug für einen einzelnen Kern ausgeführt. Wenn große Datasets verwendet werden, aktivieren Sie Faktor für parallele Verarbeitung, und geben Sie die Anzahl der Kerne an, die das Werkzeug zum Verteilen der Arbeitslast verwenden kann.
Weitere Informationen zu den Voraussetzungen für die Ausführung dieses Werkzeugs und eventuell dabei auftretenden Problemen finden Sie unter Häufig gestellte Fragen zu Deep Learning.
Parameter
ExportTrainingDataForDeepLearning(in_raster, out_folder, in_class_data, image_chip_format, {tile_size_x}, {tile_size_y}, {stride_x}, {stride_y}, {output_nofeature_tiles}, {metadata_format}, {start_index}, {class_value_field}, {buffer_radius}, {in_mask_polygons}, {rotation_angle}, {reference_system}, {processing_mode}, {blacken_around_feature}, {crop_mode}, {in_raster2}, {in_instance_data}, {instance_class_value_field}, {min_polygon_overlap_ratio})
Name | Erläuterung | Datentyp |
in_raster | Die Eingabe-Quellbilddaten, in der Regel multispektrale Bilddaten. Beispiele für Eingabe-Quellbilddaten sind Multispektralsatellit-, Drohnen-, Luft- und NAIP-Bilder (National Agriculture Imagery Program). Bei der Eingabe kann es sich um einen Ordner mit Bildern handeln. | Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder |
out_folder | Der Ordner für die ausgegebenen Bildschnipsel und Metadaten. Dies kann auch eine Ordner-URL sein, die eine Verbindungsdatei für den Cloud-Speicher (*.acs) verwendet. | Folder |
in_class_data | Die Trainingsdaten in Vektor- oder Raster-Form. Vektoreingaben sollten dem Trainingsgebiet-Format entsprechen, das im Bereich Trainingsgebiet-Manager erstellt wurde. Raster-Eingaben sollten einem klassifizierten Raster-Format entsprechen, das mit dem Werkzeug Raster klassifizieren erstellt wurde. Die Raster-Eingabe kann auch aus einem Ordner mit klassifizierten Rastern stammen. Klassifizierte Raster-Eingaben erfordern eine entsprechende Raster-Attributtabelle. Eingabetabellen sollten einem Trainingsgebiet-Format entsprechen, das mit der Schaltfläche Objekte für Deep Learning beschriften im Bereich Trainingsgebiet-Manager erstellt wurde. Wenn das richtige Trainingsgebiet-Format verwendet wird, liefern die statistischen Informationen optimale Ergebnisse; allerdings kann die Eingabe auch eine Point-Feature-Class ohne Klassenwertefeld oder ein Integer-Raster ohne Klasseninformationen sein. | Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder |
image_chip_format | Gibt das Raster-Format für die ausgegebenen Bildschnipsel an. Die Formate PNG und JPEG unterstützen bis zu drei Bänder.
| String |
tile_size_x (optional) | Größe der Bildschnipsel (X-Dimension). | Long |
tile_size_y (optional) | Größe der Bildschnipsel (Y-Dimension). | Long |
stride_x (optional) | Verschiebung in X-Richtung bei Erstellung der nächsten Bildschnipsel. Wenn der Schritt der Kachelgröße entspricht, gibt es keine Überlappung. Wenn der Schritt der halben Kachelgröße entspricht, gibt es eine Überlappung von 50 Prozent | Long |
stride_y (optional) | Verschiebung in Y-Richtung bei Erstellung der nächsten Bildschnipsel. Wenn der Schritt der Kachelgröße entspricht, gibt es keine Überlappung. Wenn der Schritt der halben Kachelgröße entspricht, gibt es eine Überlappung von 50 Prozent | Long |
output_nofeature_tiles (optional) | Gibt an, ob Bildschnipsel, die keine Trainingsgebiete erfassen, exportiert werden.
| Boolean |
metadata_format (optional) | Gibt das Format für die ausgegebenen Metadaten-Label an. Wenn es sich bei den Eingabedaten für das Trainingsgebiet um einen Feature-Class-Layer handelt, wie zum Beispiel eine Gebäude-Layer- oder Standardklassifizierungs-Trainingsgebiet-Datei, verwenden Sie die Option KITTI-Beschriftungen oder PASCAL Visual Object Classes (KITTI_rectangles oder PASCAL_VOC_rectangles in Python). Die Ausgabe-Metadaten sind eine .txt-Datei oder eine .xml-Datei mit den Daten für das Trainingsgebiet, die im kleinsten umgebenden Rechteck enthalten sind. Der Name der Metadatendatei stimmt mit dem Namen des Eingabequellbildes überein. Wenn es sich bei den Eingabedaten für das Trainingsgebiet um eine Klassenkarte handelt, verwenden Sie als Format für die Ausgabe-Metadaten die Option Klassifizierte Kacheln (Classified_Tiles in Python).
Beim KITTI-Metadatenformat werden 15 Spalten erstellt, jedoch nur 5 davon im Werkzeug verwendet. Die erste Spalte ist der Klassenwert. Die nächsten 3 Spalten werden übersprungen. In den Spalten 5 bis 8 wird das kleinste umgebende Rechteck definiert, das aus vier Bildkoordinatenpositionen besteht. Diese sind die Pixel links, oben, rechts und unten. Das kleinste umgebende Rechteck umfasst den im Deep-Learning-Klassifikator verwendeten Training-Schnipsel. Die verbleibenden Spalten werden nicht verwendet. Nachfolgend finden Sie ein Beispiel für die Option PASCAL_VOC_rectangles: Weitere Informationen finden Sie im Microsoft-Dokument PASCAL Visual Object Classes (VOC) Challenge. | String |
start_index (optional) | Vorversion:Dieser Parameter ist veraltet. Verwenden Sie in Python den Wert 0 oder #. | Long |
class_value_field (optional) | Das Feld, das die Klassenwerte enthält. Wird kein Feld angegeben, sucht das System nach einem Feld des Typs value oder classvalue. Das Feld muss numerisch (in der Regel eine ganze Zahl) sein. Wenn das Feature kein Klassenwerte-Feld enthält, wird vom System festgelegt, dass alle Datensätze zu einer Klasse gehören. | Field |
buffer_radius (optional) | Der Radius eines Puffers um die einzelnen Trainingsgebiete, der zur Abgrenzung einer Trainingsgebietsfläche verwendet wird. Auf diese Weise können Sie kreisförmige Polygon-Trainingsgebiete aus Punkten erstellen. Die lineare Einheit des Raumbezugs für den Parameter in_class_data wird verwendet. | Double |
in_mask_polygons (optional) | Eine Polygon-Feature-Class zur Abgrenzung der Fläche, in der Bildschnipsel erstellt werden. Es werden nur Bildschnipsel erstellt, die vollständig in die Polygone fallen. | Feature Layer |
rotation_angle (optional) | Der Drehwinkel, der für die Generierung von Bildschnipseln verwendet wird. Zunächst wird ein Bildschnipsel ohne Drehung generiert. Danach wird um den angegebenen Winkel gedreht, um weitere Bildschnipsel zu erstellen. Bei jeder Drehung wird ein Schnipsel erstellt, bis das Bild vollständig gedreht wurde. Wenn Sie beispielsweise einen Drehwinkel von 45 Grad angeben, werden acht Bildschnipsel erstellt. Die acht Bildschnipsel werden bei folgenden Winkeln erstellt: 0, 45, 90, 135, 180, 25, 270 und 315. Der Standard-Drehwinkel beträgt 0 Grad. Dabei wird ein Standard-Bildschnipsel erstellt. | Double |
reference_system (optional) | Gibt den Typ des Bezugssystems an, das zum Interpretieren des Eingabebildes verwendet wird. Das angegebene Bezugssystem muss mit dem Bezugssystem übereinstimmen, das für das Training des Deep-Learning-Modells verwendet wurde.
| String |
processing_mode (optional) | Legt fest, wie alle Raster-Elemente in einem Mosaik-Dataset oder Image-Service verarbeitet werden. Dieser Parameter findet Anwendung, wenn es sich beim Eingabe-Raster um ein Mosaik-Dataset oder einen Image-Service handelt.
| String |
blacken_around_feature (optional) | Gibt an, ob die Pixel um die einzelnen Objekte oder Features in den Bildkacheln maskiert werden sollen. Dieser Parameter findet nur Anwendung, wenn der Parameter metadata_format auf Labeled_Tiles festgelegt ist und eine Eingabe-Feature-Class oder ein klassifiziertes Eingabe-Raster angegeben wurde.
| Boolean |
crop_mode (optional) | Gibt an, ob die exportierten Kacheln auf die gleiche Größe zugeschnitten werden sollen. Dieser Parameter findet nur Anwendung, wenn der Parameter metadata_format auf Labeled_Tiles oder Imagenet festgelegt ist und eine Eingabe-Feature-Class oder ein klassifiziertes Eingabe-Raster angegeben wurde.
| String |
in_raster2 (optional) | Eine zusätzliche Eingabequelle aus Bilddaten, die für Bild-zu-Bild-Übersetzungsmethoden verwendet wird. Dieser Parameter ist gültig, wenn der Parameter metadata_format auf Classified_Tiles, Export_Tiles oder CycleGAN festgelegt wurde. | Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Map Server; Map Server Layer; Internet Tiled Layer; Folder |
in_instance_data (optional) | Die erfassten Trainingsgebietsdaten, die Klassen für die Instanzsegmentierung enthalten. Die Eingabe kann auch eine Point-Feature-Class ohne Klassenwertefeld oder ein Integer-Raster ohne Klasseninformationen sein. Dieser Parameter ist gültig, wenn der Parameter metadata_format auf Panoptic_Segmentation festgelegt wurde. | Feature Class; Feature Layer; Raster Dataset; Raster Layer; Mosaic Layer; Image Service; Table; Folder |
instance_class_value_field (optional) | Das Feld, das die Klassenwerte für die Instanzsegmentierung enthält. Wird kein Feld angegeben, verwendet das Werkzeug einen Wert oder ein Klassenwertefeld, sofern vorhanden. Wenn das Feature kein Klassenwertefeld enthält, wird mit dem Werkzeug festgelegt, dass alle Datensätze zu einer Klasse gehören. Dieser Parameter ist gültig, wenn der Parameter metadata_format auf Panoptic_Segmentation festgelegt wurde. | Field |
min_polygon_overlap_ratio (optional) | Der Prozentsatz der minimalen Überlappung für ein in die Trainingsdaten einzubeziehendes Feature. Wenn die prozentuale Überlappung kleiner als der angegebene Wert ist, wird das Feature aus dem Training-Schnipsel ausgeschlossen und der Label-Datei nicht hinzugefügt. Der Prozentwert wird als Dezimalzahl angegeben. Um beispielsweise eine Überlappung von 20 Prozent anzugeben, verwenden Sie den Wert 0,2. Der Standardwert ist 0, d. h. alle Features werden einbezogen. Durch diesen Parameter wird neben der Performance des Werkzeugs auch die Inferenzierung verbessert. Die Geschwindigkeit wird verbessert, da weniger Trainingsschnipsel erstellt werden. Die Inferenzierung wird verbessert, da das Modell so trainiert wird, dass nur große Objektflächen erkannt und kleine Ecken von Features ignoriert werden. Dadurch werden weniger falsch positive Ergebnisse erkannt und vom Werkzeug Non-maximum Suppression entfernt. Dieser Parameter ist aktiviert, wenn der Parameterwert in_class_data eine Feature-Class ist. | Double |
Umgebungen
Verwandte Themen
- Überblick über das Toolset "Segmentierung und Klassifizierung"
- Suchen eines Geoverarbeitungswerkzeugs
- Deep Learning in der Erweiterung ArcGIS Image Analyst
- Objekte mit Deep Learning klassifizieren
- Pixel mit Deep Learning klassifizieren
- Objekte mit Deep Learning erkennen
- Installieren von Deep-Learning-Frameworks für ArcGIS