Verwenden Sie Datensätze aus einer Google BigQuery-Tabelle als Eingabe in ArcGIS Data Pipelines.
Verwendungshinweise
Beachten Sie beim Arbeiten mit Google BigQuery Folgendes:
- Damit Sie ein Dataset aus Google BigQuery verwenden können, müssen Sie zunächst ein Data-Store-Element erstellen. In Data-Store-Elementen werden Anmelde- und Verbindungsinformationen sicher gespeichert, sodass die Daten von Data Pipelines ausgelesen werden können. Führen Sie zum Erstellen eines Data Store die Schritte im nachstehenden Abschnitt "Herstellen der Verbindung mit Google BigQuery" aus.
- Wenn Sie das von Ihnen konfigurierte Data-Store-Element ändern möchten, verwenden Sie den Parameter Data-Store-Element, um das aktuell ausgewählte Element zu entfernen, und wählen Sie eine der folgenden Optionen aus:
- Data Store hinzufügen: Erstellen Sie ein neues Data-Store-Element.
- Element auswählen: Navigieren Sie in Ihren Inhalten, und wählen Sie ein vorhandenes Data-Store-Element aus.
- Im Parameter Dataset geben Sie das Dataset an und im Parameter Tabelle die Tabelle, die die zu verwendenden Daten enthält.
- Mit den folgenden Optionen können Sie die Performance beim Lesen von Eingabe-Datasets verbessern:
- Verwenden Sie den Parameter Caching verwenden, um eine Kopie des Dataset zu speichern. Die gecachte Kopie wird nur beibehalten, solange mindestens eine im Editor geöffnete Browser-Registerkarte verbunden ist. Dadurch wird der Zugriff auf die Daten bei der Verarbeitung möglicherweise beschleunigt. Wenn die Quelldaten aktualisiert wurden, nachdem sie gecacht wurden, deaktivieren Sie diesen Parameter, und zeigen Sie eine Vorschau an, oder führen Sie das Werkzeug erneut aus.
- Konfigurieren Sie nach dem Konfigurieren eines Eingabe-Dataset die folgenden Werkzeuge, mit denen die Menge der verarbeiteten Daten begrenzt wird:
- Nach Attribut filtern: Es wird eine Teilmenge der Datensätze beibehalten, die bestimmte Attributwerte enthalten.
- Felder auswählen: Es werden nur die Felder von Interesse beibehalten.
- Nach Ausdehnung filtern: Es wird eine Teilmenge der Datensätze innerhalb einer bestimmten räumlichen Ausdehnung beibehalten.
Herstellen der Verbindung mit Google BigQuery
Führen Sie die folgenden Schritte zum Erstellen eines Data-Store-Elements im Google BigQuery-Editor aus, um in Data Pipelines gespeicherte Daten zu verwenden:
- Klicken Sie auf der Werkzeugleiste des Data Pipelines-Editors auf Eingaben, und wählen Sie Google BigQuery aus.
Das Dialogfeld Data-Store-Verbindung auswählen wird angezeigt.
- Wählen Sie Neuen Data Store hinzufügen aus.
- Klicken Sie auf Weiter.
Das Dialogfeld Verbindung zu einem Data Store hinzufügen wird angezeigt.
- Geben Sie die Schlüsseldatei mit den Anmeldeinformationen an, damit Zugriff auf das Dienstkonto besteht.
- Geben Sie die ID des Projekts an, in dem die Daten, zu denen Sie eine Verbindung herstellen möchten, enthalten sind.
- Klicken Sie auf Weiter.
Die Elementdetailseite wird angezeigt.
- Geben Sie einen Titel für das neue Data-Store-Element an.
Dieser Titel wird in Ihren Portal-Inhalten angezeigt. Sie haben zudem die Möglichkeit, das Element in einem bestimmten Ordner abzuspeichern und Tags oder eine Zusammenfassung für das Element anzugeben.
- Klicken Sie auf Verbindung erstellen, um das Data-Store-Element zu erstellen.
Der Zeichenfläche wird ein Google BigQuery-Element hinzugefügt, das Sie für ein bestimmtes Dataset konfigurieren können.
Einschränkungen
Die folgenden Einschränkungen sind bekannt:
- Sichten von Google BigQuery-Datasets werden nicht als Eingabe in Data Pipelines unterstützt.
- Externe Google BigQuery-Tabellen werden nicht als Eingabe für Data Pipelines unterstützt.
- Aktualisierungstoken werden nicht zum Herstellen von Verbindungen mit Google BigQuery unterstützt.
- Um ein Data-Store-Element für Verbindungen mit externen Datenquellen zu verwenden, müssen Sie der Besitzer des Data-Store-Elements sein. Für Sie freigegebene Data-Store-Elemente werden nicht als Eingabe unterstützt.
Lizenzanforderungen
Die folgenden Lizenzen und Konfigurationen werden benötigt:
- Benutzertyp Creator oder Professional
- Publisher-, Vermittler- oder Administratorrolle oder eine entsprechende benutzerdefinierte Rolle
Weitere Informationen zu den Anforderungen für Data Pipelines finden Sie unter Anforderungen.