Skip To Content

Datei

Verwenden Sie Datensätze in Dateien als Eingabe für ArcGIS Data Pipelines.

Verwendungshinweise

Beachten Sie beim Arbeiten mit Dateien Folgendes:

  • Bei Verwendung der Dateieingabe können Sie Daten aus Dateien in ArcGIS Online-Inhalten laden.
  • Wenn Sie der Zeichenfläche eine Dateieingabe hinzufügen, wird das Dialogfeld Datei auswählen mit den folgenden Optionen angezeigt:
    • Zu vorhandenen Dateien navigieren: Durchsuchen Sie Inhalte nach einem bereits hochgeladenen Element. Sie können eigene Inhalte, für Sie freigegebene Inhalte und für Ihre Organisation und ArcGIS Online verfügbare Inhalte durchsuchen.
    • Neue Datei hochladen: Laden Sie eine Datei von der Festplatte hoch, oder wählen Sie aus einer Liste von in der Cloud gehosteten Optionen aus. Weitere Informationen finden Sie unter Hinzufügen von Dateien als Elemente.
    Data Pipelines unterstützt nicht alle Dateitypen, die direkt in Ihre Inhalte hochgeladen werden können. Die unterstützten Formate finden Sie in den nachstehenden Informationen zu den Dateiformaten.
  • Verwenden Sie den Parameter Datei, um die ausgewählte Datei zu ändern.
  • Der Parameter Dateiformat wird automatisch mit dem Format der ausgewählten Datei gefüllt. Die folgenden Formatoptionen werden unterstützt:
    • CSV oder durch Trennzeichen getrennt: Eine Datei mit kommagetrennten Werten (.csv)
    • Shapefile: Ein gezippter Ordner, der eine Reihe zugehöriger Dateien enthält, die das Shapefile bilden .shp()
    • GeoJSON: Ein offenes Standardaustauschformat für räumliche Daten zur Darstellung von einfachen geographischen Features und deren nichträumlichen Attributen (.geojson oder .json)
    • Parquet: Ein hochgradig komprimiertes Speicher- und Freigabeformat für nichträumliche Daten, die in Tabellenspalten angeordnet sind (.parquet)
  • Wenn die Formatoption CSV oder durch Trennzeichen getrennt angegeben ist, sind die folgenden Parameter für die Dataset-Definition verfügbar:
    • Trennzeichen: Das Trennzeichen, mit dem Feld- und Datensatzwerte (bzw. Spalten- und Zeilenwerte) getrennt werden. Die Standardeinstellung ist die Trennung durch ein Komma (,). Häufig werden auch unter anderem Tabstopps (\t), Semikolons (;), vertikale Balken (|) sowie Schrägstriche und umgekehrte Schrägstriche (/ bzw. \) verwendet.
    • Hat Kopfzeile: Gibt an, ob das Dataset eine Kopfzeile enthält. Der Standardwert ist "true". Bei der Festlegung auf "False" wird die erste Zeile als Datensatz verarbeitet.
    • Hat mehrzeilige Daten: Gibt an, ob das Dataset Datensätze umfasst, die Zeilenumbruchzeichen enthalten. Der Standardwert ist "false". Wenn "true" festgelegt ist, werden Daten, die mehrzeilige Daten umfassen, richtig gelesen und formatiert.
    • Zeichencodierung: Gibt den zum Lesen des angegebenen Datasets verwendeten Codierungstyp an. Die Standardeinstellung ist UTF-8. Sie können aus den verfügbaren Codierungsoptionen auswählen oder einen Codierungstyp angeben. Leerzeichen werden in Codierungswerten nicht unterstützt. So ist beispielsweise der Wert "ISO 8859-8" ungültig. Stattdessen muss "ISO-8859-8" angegeben werden.
  • Mit Felder können Sie Feldnamen und -typen konfigurieren, wenn der Wert des Datenformats CSV oder durch Trennzeichen getrennt entspricht. Mit der Schaltfläche Schema konfigurieren wird ein Dialogfeld geöffnet, das Dataset-Felder mit den folgenden Optionen enthält:
    • Felder einbeziehen oder löschen: Sie können Felder entfernen, indem Sie das Kontrollkästchen neben dem entsprechenden Feld aktivieren. Standardmäßig werden alle Felder eingeschlossen.
    • Feldname: Der in Data Pipelines verwendete Name des Feldes. Dieser Wert kann bearbeitet werden. Standardmäßig ist dieser Wert mit dem des Feldes im Quellen-Dataset identisch, es sei denn, der Quellenname enthält ungültige Zeichen oder stellt ein reserviertes Wort dar. Ungültige Zeichen werden durch einen Unterstrich (_) ersetzt, und reservierten Wörtern wird ein Unterstrich (_) vorangestellt.
    • Feldtyp: Der Feldtyp, der in Data Pipelines verwendet wird. Dieser Wert kann bearbeitet werden.
    In der folgenden Tabelle werden die verfügbaren Feldtypen beschrieben:

    FeldtypBeschreibung

    Zeichenfolge

    Felder des Typs "Zeichenfolge" unterstützen eine Zeichenfolge aus Textzeichen.

    Small Integer

    Felder des Typs "Small Integer" unterstützen ganze Zahlen zwischen -32768 und 32767.

    Integer

    Felder des Typs "Integer" unterstützen ganze Zahlen zwischen -2147483648 und 2147483647.

    Big Integer

    Felder des Typs "Big Integer" unterstützen ganze Zahlen zwischen -9223372036854776000 und 9223372036854776000.

    Float

    Felder des Typs "Float" unterstützen Bruchzahlen zwischen ca. -3,4E38 und 3,4E38.

    Double

    Felder des Typs "Double" unterstützen Bruchzahlen zwischen ca. -2,2E308 und 1,8E308.

    Datum

    Felder des Typs "Datum" unterstützen Werte im Format yyyy-MM-dd HH:mm:ss, ein gültiger Wert ist z. B. 2022-12-31 13:30:30. Wenn die Datumswerte in einem anderen Format gespeichert sind, berechnen Sie mit dem Werkzeug Datums-/Uhrzeitfeld erstellen ein Datumsfeld.

    Boolesch

    Felder des Typs "Boolesch" unterstützen die Werte True und False. Wenn ein Feld Integer-Darstellungen boolescher Werte (0 und 1) enthält, wandeln Sie mit dem Werkzeug Felder aktualisieren die ganzen Zahlen in boolesche Werte um.

  • Wenn die Formatoption GeoJSON angegeben ist, ist der Parameter Geometrietyp verfügbar. Dieser Parameter ist optional. Standardmäßig wird der Geometrietyp in der GeoJSON-Datei verwendet. Wenn die GeoJSON-Datei mehrere Geometrietypen enthält, müssen Sie einen Wert für diesen Parameter angeben. Gemischte Geometrietypen werden nicht unterstützt. Es wird nur der angegebene Typ verwendet. Die Optionen lauten Punkt, Multipoint, Polylinie und Polygon. Ein Geometriefeld mit den Positionen der GeoJSON-Daten wird automatisch berechnet und dem Eingabe-Dataset hinzugefügt. Das Geometriefeld kann als Eingabe für räumliche Operationen oder zum Aktivieren der Geometrie im Ausgabeergebnis verwendet werden.
  • Mit den folgenden Optionen können Sie die Performance beim Lesen von Eingabe-Datasets verbessern:
    • Verwenden Sie den Parameter Caching verwenden, um eine Kopie des Dataset zu speichern. Die gecachte Kopie wird nur beibehalten, solange mindestens eine im Editor geöffnete Browser-Registerkarte verbunden ist. Dadurch wird der Zugriff auf die Daten bei der Verarbeitung möglicherweise beschleunigt. Wenn die Quelldaten aktualisiert wurden, nachdem sie gecacht wurden, deaktivieren Sie diesen Parameter, und zeigen Sie eine Vorschau an, oder führen Sie das Werkzeug erneut aus.
    • Konfigurieren Sie nach dem Konfigurieren eines Eingabe-Dataset die folgenden Werkzeuge, mit denen die Menge der verarbeiteten Daten begrenzt wird:
      • Nach Attribut filtern: Es wird eine Teilmenge der Datensätze beibehalten, die bestimmte Attributwerte enthalten.
      • Felder auswählen: Es werden nur die Felder von Interesse beibehalten.
      • Nach Ausdehnung filtern: Es wird eine Teilmenge der Datensätze innerhalb einer bestimmten räumlichen Ausdehnung beibehalten.

Einschränkungen

Die folgenden Einschränkungen sind bekannt:

  • Excel- (.xlsx) und JSON-Dateien (.json) werden in Data Pipelines nicht unterstützt.
  • Das Hochladen von Textdateien (.txt), ORC-Dateien (.orc) und EsriJSON-Dateien (.esrijson) wird nicht unterstützt. Weitere Informationen zu unterstützten Elementen in ArcGIS Online finden Sie unter Was kann ArcGIS Online hinzugefügt werden?
  • Wenn Sie über eine .txt-Datei mit durch Trennzeichen getrennten Werten verfügen, speichern Sie diese als .csv-Datei, und laden Sie sie in diesem Format hoch.
  • Wenn das Dataset Feldnamen mit Leerzeichen oder ungültigen Zeichen enthält, werden die Namen automatisch mit Unterstrichen aktualisiert. So wird zum Beispiel ein Feld namens Population 2022 in Population_2022 und ein Feld namens %Employed in _Employed umbenannt.

Lizenzanforderungen

Die folgenden Lizenzen und Konfigurationen werden benötigt:

  • Benutzertyp "Creator" oder "GIS Professional"
  • Publisher-, Vermittler- oder Administratorrolle oder eine entsprechende benutzerdefinierte Rolle

Weitere Informationen zu den Anforderungen für Data Pipelines finden Sie unter Anforderungen.

Verwandte Themen

Weitere Informationen finden Sie unter Dataset-Konfiguration.