Objekte mit Deep Learning erkennen (Map Viewer)

Das Werkzeug "Objekte mit Deep Learning erkennen" identifiziert und sucht Objekte in einem Bilddaten-Layer mithilfe eines Deep-Learning-Modells.

Die Ausgabe ist ein gehosteter Feature-Layer.

Beispiele

Das Werkzeug kann beispielsweise in den folgenden Szenarien verwendet werden:

  • Identifizieren von Gebäude-Footprints im Rahmen der Aktualisierung von Grundsteuerdaten für lokale Behörden oder für den regionalen Katastrophenschutz. Der Ausgabe-Layer des Werkzeugs ist ein Feature-Layer, mit dem die Gebäude in einem Bereich identifiziert werden können. Der Feature-Layer kann für den Abgleich mit vorhandenen Grundstücksdaten verwendet werden, um den aktuellen Gebäude-Footprint des Grundstücks zu erfassen.
  • Identifizieren von Fahrzeugen auf einem Parkplatz, um die Nutzung zu ermitteln und Verkehrs-Surveys zu erstellen. Der erstellte Feature-Layer kann im Werkzeug Objekte mit Deep Learning klassifizieren verwendet werden, um die Typen der erkannten Fahrzeuge zu klassifizieren.

Verwendungshinweise

"Objekte mit Deep Learning klassifizieren" enthält Konfigurationen für den Eingabe-Layer, die Modelleinstellungen und den Ergebnis-Layer.

Eingabe-Layer

Die Gruppe Eingabe-Layer enthält die folgenden Parameter:

  • Eingabe-Bilddaten-Layer oder -Feature-Layer ist der Bilddaten-Layer oder Feature-Layer mit Anlagen, der zum Erkennen der im Deep-Learning-Modell identifizierten Objekte verwendet wird. Der ausgewählte Bilddaten-Layer sollte auf den Anforderungen des zum Klassifizieren der Pixel verwendeten Deep-Learning-Modells basieren.
  • Verarbeitungsmodus gibt an, wie die Raster-Elemente im Bilddaten-Layer verarbeitet werden sollen. Die folgenden Optionen sind verfügbar:
    • Als mosaikiertes Bild verarbeiten: Alle Raster-Elemente im Mosaik-Dataset oder Image-Service werden zusammen mosaikiert und verarbeitet. Dies ist die Standardeinstellung.
    • Alle Raster-Elemente separat verarbeiten: Alle Raster-Elemente im Mosaik-Dataset oder Image-Service werden als separate Bilder verarbeitet.

Modelleinstellungen

Die Gruppe Modelleinstellungen enthält die folgenden Parameter:

  • Modell für die Objekterkennung gibt das zum Erkennen der Objekte verwendete Deep-Learning-Modell an. Das Deep-Learning-Modell muss sich in ArcGIS Online befinden, damit es im Werkzeug ausgewählt werden kann. Sie können ein eigenes Modell, ein öffentlich in ArcGIS Online verfügbares Modell oder ein Modell im ArcGIS Living Atlas of the World auswählen.
  • Modellargumente gibt die in der Python-Raster-Funktionsklasse definierten Funktionsargumente an. Es werden zusätzliche Deep-Learning-Parameter und Argumente für Experimente und Verfeinerungen wie den Konfidenzschwellenwert zur Anpassung der Empfindlichkeit angegeben. Die Namen der Argumente werden durch das Python-Modul aufgefüllt.
  • Non Maximum Suppression (NMS) legt fest, ob eine Nicht-Maxima-Unterdrückung ausgeführt wird, um basierend auf Konfidenzwerten identifizierte doppelte Objekte zu entfernen.
  • Feld für die Konfidenzpunktzahl ist der Name des Feldes, in dem die Ausgabe der Objekterkennungsmethode erstellten Konfidenzpunktzahlen aufgezeichnet werden. Dieser Parameter ist verfügbar, wenn Non Maximum Suppression (NMS) aktiviert ist.
  • Klassenwertefeld ist das Feld im Ausgabe-Feature-Layer, das den Wert aus dem Eingabe-Bilddaten-Layer enthalten soll. Wenn kein Wert angegeben wird, werden die Standard-Klassenwertefelder Classvalue und Value verwendet. Wenn diese Felder nicht vorhanden sind, werden alle Features wie eine Objektklasse behandelt. Dieser Parameter ist verfügbar, wenn Non Maximum Suppression (NMS) aktiviert ist.
  • Maximale Überlappungsrate legt das Verhältnis von Schnittfläche zu Vereinigungsfläche für zwei überlappende Features fest. Der Standardwert ist 0. Dieser Parameter ist verfügbar, wenn Non Maximum Suppression (NMS) aktiviert ist.

Ergebnis-Layer

Die Gruppe Ergebnis-Layer enthält die folgenden Parameter:

  • Ausgabe-Name gibt den Namen des Layers an, der erstellt und der Karte hinzugefügt wird. Der Name muss eindeutig sein. Wenn in der Organisation bereits ein Layer mit dem gleichen Namen vorhanden ist, tritt ein Fehler auf, und Sie werden aufgefordert, einen anderen Namen zu verwenden.
  • In Ordner speichern gibt den Namen eines Ordners in Eigene Inhalte an, in dem das Ergebnis gespeichert wird.

Umgebungen

Umgebungseinstellungen für die Analyse sind zusätzliche Parameter, mit denen die Ergebnisse eines Werkzeugs beeinflusst werden können. Sie können über die Parametergruppe Umgebungseinstellungen auf die Umgebungseinstellungen des Werkzeugs für die Analyse zugreifen.

Dieses Werkzeug berücksichtigt die folgenden Analyseumgebungen:

Credits

Dieses Werkzeug verbraucht Credits.

Verwenden Sie Credit-Anzahl schätzen, um die Anzahl der Credits zu berechnen, die zum Ausführen des Werkzeugs erforderlich sind. Weitere Informationen finden Sie unter Informationen zu Credits für räumliche Analysen.

Ausgaben

Die Ausgabe ist ein Feature-Layer, der jedes erkannte Objekt als einzelnes Feature mit hinzugefügten Feldern für den Klassenwert und die Konfidenz enthält.

Anforderungen für die Verwendung

Für dieses Werkzeug werden der folgende Benutzertyp und die folgenden Konfigurationen benötigt:

  • Benutzertyp Professional oder Professional Plus
  • Publisher-, Vermittler- oder Administratorrolle oder eine entsprechende benutzerdefinierte Rolle mit der Berechtigung "Bilddatenanalyse"

Ressourcen

Weitere Informationen finden Sie in den folgenden Quellen: