Skip To Content

Usar registros de Snowflake

Utilice los registros de una tabla de Snowflake como entrada de ArcGIS Data Pipelines.

Notas de uso

Tenga en cuenta lo siguiente al trabajar con Snowflake:

  • Para utilizar un dataset de Snowflake, primero debe crear un elemento de data store. Los elementos de data store almacenan de forma segura las credenciales y la información de conexión para que Data Pipelines pueda leer los datos. Para crear un data store, siga los pasos que se indican en la sección Conectarse a Snowflake más adelante.
  • Para cambiar el elemento de data store configurado, use el parámetro Elemento de data store para eliminar el elemento seleccionado actualmente y elija una de las siguientes opciones:
    • Agregar data store: cree un nuevo elemento de data store.
    • Seleccionar elemento: explore su contenido para seleccionar un elemento del data store existente.
  • Use el parámetro Tabla para especificar el dataset que desea utilizar. Los nombres de las tablas distinguen entre mayúsculas y minúsculas. Por ejemplo, si la tabla se denomina MyTabla, debe especificarla exactamente con las mismas mayúsculas.
  • Para mejorar el rendimiento de la lectura de los datasets de entrada, tenga en cuenta las opciones siguientes:
    • Utilice el parámetro Usar almacenamiento en caché para almacenar una copia del dataset. La copia en caché solo se mantiene mientras al menos una pestaña abierta del navegador esté conectada al editor. Esto puede hacer que sea más rápido acceder a los datos durante el procesamiento. Si los datos de origen se han actualizado desde que se almacenaron en caché, desmarque este parámetro y vuelva a realizar la vista previa o a ejecutar la herramienta.
    • Tras configurar un dataset de entrada, configure cualquiera de las herramientas siguientes que limitan la cantidad de datos que se procesan:

Conectarse a Snowflake

Para utilizar los datos almacenados en Snowflake, complete los pasos siguientes para crear un elemento de data store en el editor de Data Pipelines:

  1. En la barra de herramientas del editor de Data Pipelines, haga clic en Entradas y elija Copo de nieve.

    Aparece el cuadro de diálogo Seleccionar una conexión de data store.

  2. Elija Agregar un nuevo data store.
  3. Haga clic en Siguiente.

    Aparece el cuadro de diálogo Agregar una conexión a un data store.

  4. Proporcione la URL del servidor correspondiente a la fuente de Snowflake.
    Lo siguiente es un ejemplo: my_account.snowflakecomputing.com.
  5. Proporcione el nombre de usuario y contraseña de la cuenta de Snowflake.
  6. Proporcione el nombre de la base de datos que contiene los datasets a los que va a conectarse.
  7. Proporcione el nombre del esquema que utiliza la base de datos.
  8. Proporcione el nombre del almacén que suministrará los recursos de cálculo para la conexión.

    El rol debe tener como mínimo los privilegios USAGE y CREATE STAGE en el esquema que contiene la tabla de la que va a leer.

  9. Proporcione el nombre del rol que define el conjunto de permisos de la conexión.
  10. Haga clic en Siguiente.

    Aparece el panel de detalles del elemento.

  11. Proporcione un título para el nuevo elemento de data store.

    Este título aparecerá en el contenido de su portal. También puede guadar el elemento en una carpeta específica y proporcionar etiquetas de elemento o un resumen.

  12. Haga clic en Guardar para crear el elemento de data store.

    Se agrega al lienzo un elemento Snowflake que puede configurar para un dataset determinado.

Limitaciones

Las siguientes son limitaciones conocidas:

Para utilizar un elemento del almacén de datos para conectarse a fuentes de datos externas, debe ser el propietario del elemento del almacén de datos. Los elementos del almacén de datos que se comparten con usted no se admiten como entrada.

Requisitos de licencia

Se requieren las siguientes licencias y configuraciones:

  • Tipo de usuario Creator o Professional
  • Rol de publicador, moderador o administrador, o rol personalizado equivalente

Para obtener más información sobre los requisitos de Data Pipelines, consulte Requisitos.