Objekte mit Deep Learning erkennen (Map Viewer Classic)

Objekte mit Deep Learning erkennen: Das Werkzeug "Objekte mit Deep Learning erkennen" führt ein trainiertes Deep-Learning-Modell in einem Eingabe-Raster aus und erstellt eine Feature-Class mit den gefundenen Objekten. Bei den Features kann es sich um Polygone um die gefundenen Objekte oder um Punkte im Mittelpunkt der gefundenen Objekte handeln.

Hinweis:

Dieses Werkzeug ist jetzt in Map Viewer, dem modernen Kartenerstellungswerkzeug in ArcGIS Online, verfügbar. Weitere Informationen finden Sie unter Objekte mit Deep Learning erkennen (Map Viewer).

Wenn dieses Werkzeug in Map Viewer Classic nicht angezeigt wird, wenden Sie sich an den Administrator der Organisation. Das Konto muss den Benutzertyp Professional oder Professional Plus und die Berechtigung "Bilddatenanalyse" beinhalten.

Workflow-Diagramm

Workflow "Objekte mit Deep Learning erkennen"

Beispiele

  • Ermitteln Sie anhand eines Bildes eines Viertels die Position aller Dächer mit einem Solarkollektor.
  • Ermitteln Sie anhand eines Bildes der Wildnis im Norden Kanadas die Position aller Gletscherseen.

Verwendungshinweise

Das Deep-Learning-Eingabemodell für dieses Werkzeug muss ein Deep-Learning-Paketelement (.dlpk) sein, das in Ihrem Portal gespeichert ist. Sie können ein .dlpk-Element mit dem Geoverarbeitungswerkzeug Deep-Learning-Modell trainieren in ArcGIS Pro oder dem Raster-Analyse-Werkzeug ArcGIS REST API erzeugen.

Das .dlpk-Eingabeelement muss eine Esri Modelldefinitionsdatei (.emd) enthalten. Siehe .emd-Beispieldatei unten.

{
    "Framework" :"TensorFlow",
    "ModelConfiguration": "ObjectDetectionAPI",
    
    "ModelFile": ".\\CoconutTreeDetection.model",
    "ModelType": "ObjectDetection",
    "ImageHeight": 850,
    "ImageWidth": 850,
    "ExtractBands": [0,1,2],
    "ImageSpaceUsed": "MAP_SPACE"
    "Classes": [
    {
        "Value": 0,
        "Name": "CoconutTree",
        "Color": [0, 255, 0]
    }
    ]
}

Aktivieren Sie das Kontrollkästchen Non Maximum Suppression, um doppelte Features in der Objekterkennung zu identifizieren und entfernen.

Wenn die Option Aktuelle Kartenausdehnung verwenden aktiviert ist, werden nur die Pixel analysiert, die in der aktuellen Kartenausdehnung sichtbar sind. Wenn sie deaktiviert ist, wird der gesamte Eingabe-Bilddaten-Layer analysiert.

Die Parameter für dieses Werkzeug sind in der folgenden Tabelle aufgeführt:

ParameterErläuterung
Bild für die Ermittlung von Objekten auswählen

Das Eingabebild für die Klassifizierung von Objekten.

Deep-Learning-Modell für die Ermittlung von Objekten auswählen

Das Eingabe-Deep-Learning-Paketelement (.dlpk).

Das Deep-Learning-Paket besteht aus der JSON-Datei mit der Esri Modelldefinition (.emd), der binären Datei des Deep-Learning-Modells und optional aus der zu verwendenden Python-Raster-Funktion.

Argumente für das Deep-Learning-Modell angeben

Die Funktionsargumente werden in der Python-Raster-Funktion definiert, die vom Eingabemodell referenziert wird. Hier geben Sie zusätzliche Deep-Learning-Parameter und Argumente für Verfeinerungen wie den Konfidenzschwellenwert zur Anpassung der Empfindlichkeit an.

Die Namen der Argumente werden vom Werkzeug durch Lesen des Python-Moduls aufgefüllt.

Doppelte Features aus der Ausgabe entfernen (optional)

Gibt an, ob eine Non Maximum Suppression durchgeführt wird, bei der doppelt gefundene Objekte erkannt und das doppelte Feature mit einem niedrigeren Konfidenzwert entfernt wird.

  • Deaktiviert: Alle erkannten Objekte sind in der Ausgabe-Feature-Class enthalten. Dies ist die Standardeinstellung.
  • Aktiviert: Doppelte Objekte werden erkannt und entfernt.

Feld für die Konfidenzpunktzahl

Das Feld im Feature-Service, das die Konfidenzpunktzahlausgabe der Objekterkennungsmethode enthält.

Dieser Parameter wird benötigt, wenn der Parameter Non Maximum Suppression aktiviert ist.

Klassenwertefeld

Das Klassenwertefeld im Ausgabe-Feature-Service. Wenn dieses Feld nicht festgelegt wird, verwendet das Werkzeug die Standard-Klassenwertefelder Classvalue und Value. Wenn diese Felder nicht vorhanden sind, werden alle Features wie eine Objektklasse behandelt.

Dieser Parameter wird benötigt, wenn der Parameter Non Maximum Suppression aktiviert ist.

Maximale Überlappungsrate

Die maximale Überlappungsrate für zwei überlappende Features, die als Verhältnis von Schnittfläche zu Vereinigungsfläche definiert ist. Die Standardeinstellung ist 0.

Dieser Parameter wird benötigt, wenn der Parameter Non Maximum Suppression aktiviert ist.

Verarbeitungsmodus

Legt fest, wie alle Raster-Elemente in einem Image-Service verarbeitet werden.

  • Als mosaikiertes Bild verarbeiten: Alle Raster-Elemente im Image-Service werden zusammen mosaikiert und verarbeitet. Dies ist die Standardeinstellung.
  • Alle Raster-Elemente separat verarbeiten: Alle Raster-Elemente im Image-Service werden als separate Bilder verarbeitet.
.

Name des Ergebnis-Layers

Der Name des Layers, der in Eigene Inhalte erstellt und der Karte hinzugefügt wird. Der Standardname basiert auf dem Werkzeugnamen und dem Namen des Eingabe-Layers. Wenn der Layer bereits vorhanden ist, werden Sie aufgefordert, einen anderen Namen einzugeben.

Sie können den Namen eines Ordners in Eigene Inhalte angeben, in dem das Ergebnis über das Dropdown-Feld Ergebnis speichern in gespeichert wird.

Tipp:

Klicken Sie auf Credits anzeigen, bevor Sie die Analyse ausführen, um zu überprüfen, wie viele Credits verbraucht werden.

Umgebungen

Umgebungseinstellungen für die Analyse sind zusätzliche Parameter, mit denen die Ergebnisse eines Werkzeugs beeinflusst werden können. Sie können auf die Analyseumgebungseinstellungen des Werkzeugs zugreifen, indem Sie oben im Werkzeugbereich auf die Einstellungsschaltfläche Analyseumgebungen klicken.

Dieses Werkzeug berücksichtigt die folgenden Analyseumgebungen:

  • Ausdehnung: Gibt den Bereich an, der für die Analyse verwendet werden soll.
  • Zellengröße: Die im Ausgabe-Layer zu verwendende Zellengröße.
  • Maske: Gibt einen Masken-Layer an. Für die Analyse werden nur die Zellen im Maskenbereich verwendet.

Ähnliche Werkzeuge und Raster-Funktionen

Verwenden Sie das Werkzeug "Objekte mit Deep Learning erkennen", um Objekte in einem Bild zu ermitteln. Andere Werkzeuge können bei ähnlichen Problemstellungen hilfreich sein.

Analysewerkzeuge und Raster-Funktionen in Map Viewer Classic

Verwenden Sie das Werkzeug Objekte mit Deep Learning klassifizieren, um die Position von Objekten in einem Bild zu ermitteln. Verwenden Sie das Werkzeug Pixel mit Deep Learning klassifizieren, um jedes Pixel in einem Bild zu klassifizieren.

Analysewerkzeuge und Raster-Funktionen in ArcGIS Pro

Das Geoverarbeitungswerkzeug Objekte mit Deep Learning erkennen ist in der Toolbox Image Analyst verfügbar. Mit anderen Werkzeugen im Toolset Deep Learning lassen sich Deep-Learning-Workflows durchführen.

ArcGIS Enterprise-Entwicklerressourcen

Wenn Sie in ArcGIS REST API arbeiten, verwenden Sie den Vorgang Detect Objects Using Deep Learning.

Wenn Sie in ArcGIS API for Python ArcGIS for Python API-Website arbeiten, führen Sie Deep-Learning-Aufgaben mit dem arcgis.learn-Modul durch.