Grundlagen der interaktiven Objekterkennung

Mit der Advanced-Lizenz verfügbar.

Mit der Image Analyst-Lizenz verfügbar.

Die interaktive Objekterkennung wird verwendet, um relevante Objekte in Bilddaten zu finden, die in einer Karte oder Szene dargestellt werden.

Die Objekterkennung basiert auf einem Deep-Learning-Modell, das trainiert wurde, um bestimmte Objekte in einer Ansicht zu erkennen, beispielsweise Fenster und Türen in Gebäuden in einer Szene. Die Erkennungsergebnisse werden mit einem Konfidenzwert, Rahmenbemaßungen und dem Beschriftungsnamen als Attribute in einer Point-Feature-Class gespeichert. Zudem können Sie interaktiv andere Objekte, z. B. geparkte Flugzeuge oder Flughafengebäude, mithilfe eines generischen Modells erkennen, indem Sie zur Erkennung des Ergebnisses in der Ansicht klicken.

Sie müssen Deep-Learning-Bibliotheken installieren, um die Objekterkennung zu verwenden.

Lizenz:

Das interaktive Werkzeug "Objekterkennung" erfordert entweder eine ArcGIS Pro Advanced-Lizenz oder die Erweiterung ArcGIS Image Analyst.

Das Werkzeug Objekterkennung Interaktive Erkennung befindet sich auf der Registerkarte Analyse in der Gruppe Workflows im Dropdown-Menü Explorative 3D-Analyse. Nach Auswahl des Werkzeugs Objekterkennung wird der Bereich Explorative Analyse angezeigt.

Im Bereich Explorative Analyse können Sie die Parameter der Objekterkennung ändern und die Kameramethode für die Erkennungsergebnisse festlegen. Bei der erstmaligen Ausführung des Werkzeugs wird das Esri Modell für Fenster und Türen verwendet. Das Modell wird geladen, und die Erkennungen werden berechnet. Für nachfolgende Ausführungen muss das Modell nicht neu geladen werden, daher verkürzt sich die Zeit. Wenn Sie die Modellauswahl ändern, muss das neue Modell noch einmal geladen werden. Für das Modell "Generisches Objekt" muss kein Modell heruntergeladen werden.

Die folgenden Bilder veranschaulichen das zurückgegebene Objekterkennungsergebnis mit den verfügbaren Symbolisierungsoptionen: einer Box-Symbolisierung oder einer Symbolisierung mit dem Positionsmittelpunkt X.

Interaktive Objekterkennung mit Box-Symbolisierung

Interaktive Objekterkennung mit Positionspunkt-Symbolisierung

Erkennen von Objekten in einer 3D-Ansicht

Das Werkzeug "Objekterkennung" kann mit jedem unterstützten Modell arbeiten, das für die Erkennung bestimmter Objekte trainiert wurde. Es verfügt über ein spezielles Modell für die Erkennung von Fenstern und Türen sowie über ein allgemeines Modell für die interaktive Erkennung anderer Objekte.

Das Esri Deep-Learning-Modell für Fenster und Türen erkennt Fenster und Türen als Punkt-Features. Die Objekterkennungsparameter für die Verwendung des Esri Modells für Fenster und Türen werden in der folgenden Tabelle beschrieben:

OptionBeschreibung

Modell

Das Deep-Learning-Paket (.dlpk) zum Erkennen von Objekten. Zu den unterstützten Modelltypen gehören FasterRCNN, YOLOv3, Single Shot Detector (SSD) und RetinaNet.

Erweitern Sie den Eingabe-Dropdown-Pfeil Modell herunterladen, und klicken Sie auf Herunterladen, um automatisch das bereits trainierte Esri Modell für Fenster und Türen abzurufen. Klicken Sie optional auf Durchsuchen, um ein lokales Deep-Learning-Paket auszuwählen oder um eines von ArcGIS Online herunterzuladen.

Klassen

Die Liste tatsächlicher zu erkennender Objekte. Diese Liste wird mit der .dlpk-Datei gefüllt. Der Standardwert ist Alle, aber Sie können explizit nur Fenster oder nur Türen festlegen.

Minimales Konfidenzniveau

Die minimale Erkennungspunktzahl, die eine Erkennung erfüllen muss. Erkennungen mit Punktzahlen unter diesem Konfidenzniveau werden verworfen. Der Standardwert ist 0,5.

Maximaler Überlappungsschwellenwert

Der IoU-Schwellenwert (Intersection over Union) mit anderen Erkennungen. Wenn die Erkennungsergebnisse überlappen, wird das Ergebnis mit der höchsten Punktzahl als richtig positiv gewertet. Der Standardwert ist 0.

Mit GPU verarbeiten

Nutzen Sie die Leistung des Grafikprozessors (Graphics Processing Unit, GPU) statt der Leistung der zentralen Verarbeitungseinheit (Central Processing Unit, CPU). Dies wird empfohlen, wenn Sie eine Grafikkarte mit mindestens 8 GB reserviertem GPU-Speicher verwenden.

Feature-Layer

Der Name des Ausgabe-Feature-Layers.

  • Wenn der Layer nicht vorhanden ist, wird eine Feature-Class in der Standard-Geodatabase des Projekts erstellt und zur aktuellen Karte oder Szene hinzugefügt.
  • Wenn der Layer in der Karte oder Szene bereits vorhanden ist und das erforderliche Schema aufweist, werden neu erkannte Objekte an die vorhandene Feature-Class angefügt.
  • Falls Sie das Werkzeug erneut ausführen, wenn der Layer nicht in der aktuellen Karte oder Szene vorhanden ist, wird eine neue Feature-Class mit einem eindeutigen Namen in der Standard-Geodatabase erstellt und zur Karte oder Szene hinzugefügt.

Beschreibung

Die Beschreibung, die in die Attributtabelle aufgenommen werden soll. Mehrere Erkennungsergebnisse können im selben Feature-Layer gespeichert werden. Mit einer Beschreibung kann zwischen diesen Erkennungen unterschieden werden.

Symbolisierung

Die zurückgegebene Form des Ausgabe-Feature-Layers in der Standardfarbe "Elektron-Gold". Die Symbolisierungsoptionen sind:

  • Positionspunkt: Ein X markiert den Mittelpunkt des Features. Dies ist die Standardeinstellung.
  • Vertikales umgebendes Rechteck (nur 3D): Ein vertikales halbtransparent gefülltes umgebendes Rechteck. Verwenden Sie die Symbolisierung "Vertikales umgebendes Rechteck" in Szenen für Deep-Learning-Modelle, die vertikale Objekte wie Fenster und Türen erkennen.
  • Horizontales umgebendes Rechteck (nur 3D): Ein horizontales halbtransparent gefülltes umgebendes Rechteck. Verwenden Sie die Symbolisierung "Horizontales umgebendes Rechteck" in Szenen für Deep-Learning-Modelle, die horizontale Objekte wie Schwimmbäder erkennen.

Wenn der Ausgabe-Layer in der Karte oder Szene bereits vorhanden ist und eine benutzerdefinierte Symbolisierung aufweist, wird die Symbolisierung bei der Werkzeugausführung nicht geändert.

Entfernung

Legen Sie die maximale Entfernung von der Kamera fest, für die Ergebnisse beibehalten werden. Alles, was über die festgelegte Tiefe hinausgeht, wird ignoriert.

Breite

Legen Sie die minimalen und maximalen Breitenwerte für die Größe des erwarteten zurückgegebenen Ergebnisses fest.

Höhe

Legen Sie die minimalen und maximalen Höhenwerte für die Größe des erwarteten zurückgegebenen Ergebnisses fest.

Hinweis:
Die Parameter Entfernung, Breite und Höhe werden im Abschnitt Ergebnisse filtern angezeigt, den Sie zum Anzeigen dieser Werte möglicherweise erweitern müssen.

Die Erstellungsmethoden der Objekterkennung werden in der folgenden Tabelle beschrieben:

MethodeBeschreibung

Aktuelle Kamera Aktuelle Kamera

Hierbei handelt es sich um die Standard-Erstellungsmethode. Zum Erkennen von Objekten in der Ansicht wird die aktuelle Kameraposition genutzt.

Kamera neu positionieren Kamera neu positionieren (nur 3D)

Positioniert die Kamera an einem horizontalen oder vertikalen Betrachtungspunkt neu, bevor Objekte erkannt werden. Richten Sie den Betrachtungspunkt für den Interessenbereich ein, und optimieren Sie mit dieser Methode die Ausrichtung. Sie wird nicht empfohlen, um die Kamera auf Objekten in einiger Entfernung zu positionieren, um sie in der Ansicht heranzuholen.

Generische Objekterkennung

Verwenden Sie das Deep-Learning-Modell "Generisches Esri Objekt", um einzelne Objekte wie Fahrzeuge, Bauwerke und Personen in einer Karte oder Szene interaktiv zu erkennen. Statt die Kamera zu verwenden, können Sie direkt in der Ansicht klicken, um Ergebnisse zu erkennen. Einige Erkennungsoptionen wie Klassen, Konfidenzniveau, Überlappungsschwellenwert und Leistung sind nicht verfügbar. Ergebnisse werden als Punkt-Features mit der für das Werkzeug festgelegten Symbolisierungsoption gespeichert.

Die Parameter der Objekterkennung, die das Modell "Generisches Esri Objekt" verwendet, werden in der folgenden Tabelle beschrieben:

OptionBeschreibung

Modell

Erweitern Sie die Dropdown-Liste Modell, und wählen Sie Generisches Esri Objekt aus, um den Prozess der Objekterkennung zu definieren.

Feature-Layer

Der Name des Ausgabe-Feature-Layers.

  • Wenn der Layer nicht vorhanden ist, wird eine Feature-Class in der Standard-Geodatabase des Projekts erstellt und zur aktuellen Karte oder Szene hinzugefügt.
  • Wenn der Layer in der Karte oder Szene bereits vorhanden ist und das erforderliche Schema aufweist, werden neu erkannte Objekte an die vorhandene Feature-Class angefügt.
  • Falls Sie das Werkzeug erneut ausführen, wenn der Layer nicht in der aktuellen Karte oder Szene vorhanden ist, wird eine neue Feature-Class mit einem eindeutigen Namen in der Standard-Geodatabase erstellt und zur Ansicht hinzugefügt.

Beschreibung

Die Beschreibung, die als Feld in die Attributtabelle aufgenommen werden soll. Mehrere Erkennungsergebnisse können im selben Feature-Layer gespeichert werden. Mit einer Beschreibung kann zwischen diesen Erkennungen unterschieden werden.

Symbolisierung

Die zurückgegebene Form des Ausgabe-Feature-Layers in der Standardfarbe "Elektron-Gold". Die Symbolisierungsoptionen sind:

  • Positionspunkt: Ein X markiert den Mittelpunkt des Features. Dies ist die Standardeinstellung.
  • Vertikales umgebendes Rechteck (nur 3D): Ein vertikales halbtransparent gefülltes umgebendes Rechteck.
  • Horizontales umgebendes Rechteck (nur 3D): Ein horizontales halbtransparent gefülltes umgebendes Rechteck.

Wenn der Ausgabe-Layer in der Karte oder Szene bereits vorhanden ist und eine benutzerdefinierte Symbolisierung aufweist, wird die Symbolisierung bei der Werkzeugausführung nicht geändert.

Erstellungsmethode

Interaktive Erkennung Interaktive Erkennung: Klicken Sie, um einzelne Objekte an der Position zu erkennen.

Aktualisieren der Erkennungsergebnisse

Um die Ausgabeergebnisse zu ändern, um beispielsweise einen anderen Konfidenzwert oder Interessenbereich anzugeben, ändern Sie diese Eigenschaften, und führen Sie das Werkzeug Objekterkennung erneut aus. Neu erkannte Objekte werden an denselben Layer angefügt. Geben Sie alternativ einen neuen Namen an, und erstellen Sie zum Vergleich einen anderen Ausgabe-Feature-Layer. Es ist nicht ratsam, die Attributwerte der Objekterkennungsergebnisse manuell zu aktualisieren. Sie können zudem den Abschnitt Ergebnisse filtern erweitern, um die Größen- und Entfernungswerte zum Optimieren der zurückgegebenen Ergebnisse anzugeben.

Tipp:

Bevor Sie das Werkzeug erneut ausführen, deaktivieren Sie für die vorherigen Erkennungsergebnisse die Layer-Sichtbarkeit. Andernfalls können diese Ergebnisse mit den erkannten Objekten überlappen und könnten die Erkennungsergebnisse beeinträchtigen.

Löschen der Erkennungsergebnisse

Die Erkennungsergebnisse werden als Punkt-Features hinzugefügt. Sie können einzelne erkannte Objekt-Features mit den standardmäßigen Bearbeitungs-Workflows löschen. Löschen Sie alternativ die vollständige Feature-Class aus der Standard-Geodatabase des Projekts. Durch das Entfernen des Layers aus dem Bereich Inhalt werden Ihre Ergebnisse nicht automatisch gelöscht, da sie weiterhin in der Geodatabase vorliegen. Falls Sie das Werkzeug erneut ausführen, wenn der Layer nicht in der aktuellen Karte oder Szene vorhanden ist, wird eine neue Feature-Class mit einem eindeutigen Namen in der Standard-Geodatabase erstellt und zur Karte oder Szene hinzugefügt.