Skip To Content

Utiliser des enregistrements Snowflake

Utilisez des enregistrements issus d’une table Snowflake en entrée dans ArcGIS Data Pipelines.

Remarques sur l’utilisation

Gardez les points suivants à l’esprit lorsque vous utilisez Snowflake :

  • Pour utiliser un jeu de données issu de Snowflake, vous devez d’abord créer un élément de data store. Les éléments de data store stockent de manière sécurisée les identifiants et les informations de connexion qui permettent à Data Pipelines de lire les données. Pour créer un data store, suivez la procédure décrite dans la section Se connecter à Snowflake ci-dessous.
  • Pour modifier l’élément de data store que vous avez configuré, utilisez le paramètre Data store item (Élément de data store) pour supprimer l’élément actuellement sélectionné et choisissez l’une des options suivantes :
    • Add data store (Ajouter un data store) – Créez un nouvel élément de data store.
    • Select item (Sélectionner un élément) – Accédez à du contenu pour sélectionner un élément de data store existant.
  • Utilisez le paramètre Table pour spécifier le jeu de données à utiliser. Les noms de table respectent la casse. Par exemple, si la table est nommée MaTable, vous devez indiquer son nom en respectant les minuscules/majuscules.
  • Pour améliorer les performances de lecture des jeux de données en entrée, vous pouvez utiliser les options suivantes :
    • Utilisez le paramètre Use caching (Utiliser la mise en cache) pour stocker une copie du jeu de données. La copie en cache est conservée uniquement si au moins un onglet de navigateur ouvert sur l’éditeur est connecté. Cela peut accélérer l’accès aux données lors du traitement. Si les données sources ont été mises à jour depuis leur mise en cache, désélectionnez ce paramètre et prévisualisez ou exécutez à nouveau l’outil.
    • Après avoir configuré un jeu de données en entrée, configurez l’un des outils suivants pour limiter la quantité de données traitées :

Se connecter à Snowflake

Pour utiliser des données stockées dans Snowflake, suivez la procédure ci-après pour créer un élément de data store dans l’éditeur Data Pipelines :

  1. Dans la barre d’outils de l’éditeur Data Pipelines, cliquez sur Inputs (Entrées) et sélectionnez Snowflake.

    La boîte de dialogue Select a data store connection (Sélectionner une connexion à un data store) s’affiche.

  2. Sélectionnez Add a new data store (Ajouter un nouveau data store).
  3. Cliquez sur Next (Suivant).

    La boîte de dialogue Add a connection to a data store (Ajouter une connexion à un data store) apparaît.

  4. Indiquez l’URL du serveur dans la source Snowflake.
    Par exemple : my_account.snowflakecomputing.com.
  5. Indiquez le nom d’utilisateur et le mot de passe du compte Snowflake.
  6. Indiquez le nom de la base de données qui contient les jeux de données auxquels se connecter.
  7. Fournissez le nom de la structure utilisée pour la base de données.
  8. Indiquez le nom de l’entrepôt qui fournira les ressources de calcul pour la connexion.
  9. Indiquez le nom du rôle qui définit l’ensemble des autorisations pour la connexion.
  10. Cliquez sur Next (Suivant).

    La fenêtre des détails des éléments s’ouvre.

  11. Indiquez un titre pour le nouvel élément de data store.

    Ce titre apparaîtra dans le contenu du portail. Vous pouvez également stocker l’élément dans un dossier spécifique et indiquer des balises d’élément ou un résumé.

  12. Cliquez sur Save (Enregistrer) pour créer l’élément de data store.

    Un élément Snowflake que vous pouvez configurer pour un certain jeu de données est ajouté dans la zone d’affichage.

Limitations

Pour utiliser un élément de data store afin de vous connecter à des sources de données externes, vous devez être le propriétaire de l’élément du data store. Les éléments de data store qui sont partagés avec vous ne sont pas pris en charge en entrée.

Licences requises

Les licences et configurations suivantes sont requises :

  • Type d’utilisateur Creator ou GIS Professional
  • Rôle d’éditeur, de facilitateur ou d’administrateur, ou rôle personnalisé équivalent

Afin d’en savoir plus sur la configuration requise pour Data Pipelines, reportez-vous à la rubrique Conditions requises.