Se proporcionan respuestas a las preguntas más frecuentes acerca de ArcGIS Data Pipelines.
- ¿Qué es ArcGIS Data Pipelines?
- ¿Data Pipelines consume créditos?
- ¿Está Data Pipelines disponible en ArcGIS Enterprise?
- ¿Cómo se accede a Data Pipelines?
- ¿Cómo puedo empezar a trabajar con Data Pipelines?
- ¿Qué datos puedo usar en Data Pipelines?
- ¿Puedo utilizar capas de ArcGIS Living Atlas como entrada a mi canalización de datos?
- ¿Puedo conectarme a mis datasets en la plataforma Google Cloud?
- Mis datos se actualizaron en su ubicación de origen. ¿Cómo sincronizo mi dataset en mi canal de datos?
- ¿Dónde puedo almacenar mis resultados de Data Pipelines? ¿Puedo almacenarlos en Amazon S3?
- ¿Cuántas entidades puedo escribir en una capa de entidades o tabla mediante el uso de Data Pipelines?
- ¿Puedo geocodificar direcciones con Data Pipelines?
- ¿Qué herramientas se incluirán en futuras versiones?
- ¿Puedo compartir una canalización de datos?
- ¿Hay alguna forma de deshacer o rehacer una acción en el editor de Data Pipelines?
- ¿Hay alguna forma de copiar y pegar elementos en un diagrama?
- ¿Puedo programar la ejecución de una canalización de datos?
- ¿En qué se diferencia Data Pipelines de ArcGIS Velocity?
- ¿En qué se diferencia Data Pipelines de ArcGIS Data Interoperability?
- ¿En qué se diferencia Data Pipelines de ModelBuilder en Visor de mapas?
- Soy usuario de una nueva organización y no puedo acceder a Data Pipelines. ¿Cómo resuelvo esto?
Data Pipelines es una aplicación de ArcGIS Online que le permite conectarse, procesar e integrar datos de diversas fuentes. Puede realizar la preparación de datos y guardar los resultados en su SIG Web para completar los flujos de trabajo de su organización. Todo ello se completa mediante una interfaz intuitiva en la que podrá construir, ejecutar, guardar, compartir y reproducir sus flujos de trabajo de preparación de datos.
Sí. El consumo de créditos se basa en el tiempo de uso de los recursos informáticos. Consulte Recursos informáticos para obtener más información.
Los créditos se consumen cuando un recurso informático está activo. Los recursos informáticos están activos en las situaciones siguientes:
- Edición interactiva: al crear o editar canalizaciones de datos en el editor, los créditos se consumen mientras el estado de la conexión es Conectado. La tasa de crédito es de 50 créditos por hora, calculados por minuto, con un mínimo de 10 minutos.
- Trabajos: los trabajos se ejecutan para tareas de canalización de datos programadas, cuando ejecuta una canalización de datos mediante ArcGIS API for Python o cuando utiliza la opción de ejecución desde la página de la galería de Data Pipelines. Los trabajos solo consumen créditos mientras se ejecuta la canalización de datos. Los créditos se cobran por cada ejecución, concretamente por el tiempo que lleva completarla a una velocidad de 70 créditos por hora, calculados por minuto. No hay un cargo mínimo para los trabajos.
- Después de utilizar el botón desconectar todo del cuadro de diálogo de detalles de la conexión. Esto desconecta a todos los editores conectados y los créditos no se consumirán hasta que se vuelva a conectar al menos un editor.
- Después de que todas las pestañas del navegador con editores conectados hayan estado cerradas durante al menos 10 minutos. Los créditos no se consumen por esos 10 minutos.
- Tras 30 minutos de inactividad en todas las pestañas del navegador del editor. El estado será Desconectado.
- Cuando concluye la ejecución de la tarea de canalización de datos programada.
- Cuando se completa la ejecución de una canalización de datos con ArcGIS API for Python.
Puede acceder a Data Pipelines utilizando el iniciador de aplicaciones y eligiendo Canalizaciones de datos.
Para acceder a Data Pipelines, su cuenta de usuario debe tener los privilegios necesarios. Consulte Requisitos para obtener más información sobre los privilegios y requisitos para acceder a Data Pipelines.
Si no está seguro de si usted o su organización cumplen los requisitos anteriores, póngase en contacto con el administrador de su organización.
Para empezar a utilizar Data Pipelines, consulte el Tutorial: Crear una canalización de datos. El tutorial describe los componentes clave para utilizar Data Pipelines, incluida la conexión y el procesamiento de datos, la ejecución de una canalización de datos, etc.
Para obtener más recursos para empezar, consulte las publicaciones del blog de Data Pipelines Community.
Se admiten como entrada los siguientes tipos de datos:
- Amazon S3
- Capas de entidades
- Archivos de URL públicas
- Archivos cargados en el contenido
- Google BigQuery
- Almacenamiento de Microsoft Azure
- Snowflake
Consulte la documentación sobre tipos de datos de entrada vinculados para obtener más información sobre los tipos de archivo admitidos y cómo conectarse a un dataset de entrada.
Sí. Puede utilizar la capa de entidades de ArcGIS Living Atlas como entrada. Para agregar una capa a un diagrama, consulte Capa de entidades. De forma predeterminada, el cuadro de diálogo de exploración de la capa de entidades se abre en Mi contenido. Para buscar una capa de ArcGIS Living Atlas, cambie a Living Atlas en el cuadro de diálogo.
No, todavía no. En futuras versiones, se admitirán los siguientes tipos adicionales de fuentes de datos externas:
- Plataforma Google Cloud
- Microsoft Azure Cosmos DB for PostgreSQL
- Datos devueltos de solicitudes API
Las fuentes de datos de esta lista no están garantizadas para una versión específica, y es posible que se agreguen fuentes de datos que no figuren aquí. Si tiene sugerencias sobre fuentes de datos que mejoren sus flujos de trabajo, deje un comentario en los foros de la Comunidad de Data Pipelines.
Mis datos se actualizaron en su ubicación de origen. ¿Cómo sincronizo mi dataset en mi canal de datos?
Si los datos se actualizan regularmente en la ubicación de origen y desea utilizarlos en una canalización de datos, se recomienda no utilizar el parámetro Utilizar almacenamiento en caché para las entradas. Si no utiliza el almacenamiento en caché, Data Pipelines lee los datos más recientes cada vez que solicita una vista previa o una ejecución. Si utiliza el caché, solamente se utilizarán los datos disponibles en el momento en que se almacenaron en caché.
Si ha creado la capa de entidades de salida y necesita actualizarla con los datos más recientes, utilice las opciones Reemplazar o Agregar y actualizar de la herramienta Capa de entidades y ejecute la canalización de datos otra vez. Puede automatizar la repetición de la ejecución de una canalización de datos programando una tarea para el elemento de canalización de datos. Para obtener más información sobre la automatización de los flujos de trabajo de canalización de datos, consulte Programar una tarea de canalización de datos.
No. El único formato de salida que admite actualmente Data Pipelines es una capa de entidades. No puede escribir resultados en otros formatos o contenedores de almacenamiento, incluido Amazon S3. Data Pipelines solamente puede leer desde su bucket de S3.
Más información sobre las capas de entidades de salida en Data Pipelines
Las siguientes herramientas podrían incluirse en futuras versiones:
- Buscar y reemplazar: busca valores específicos en los campos y los reemplaza por un nuevo valor.
- Geocodificar direcciones: utilice direcciones de cadena de una tabla o archivo para devolver los resultados geocodificados.
Las herramientas de esta lista no están garantizadas para ninguna versión y es posible que se agreguen herramientas que no aparecen aquí. Si tiene sugerencias sobre herramientas que mejoren sus flujos de trabajo, deje un comentario en los foros de la Comunidad de Data Pipelines.
Sí. Puede compartir elementos de la canalización de datos con grupos de su organización o con el público. Solo el propietario del elemento puede editar los elementos de la canalización de datos. Utilice grupos de actualización compartida para que todos los miembros del grupo puedan editar y guardar la canalización de datos. Si una canalización de datos se comparte con un grupo que no tiene capacidades de actualización compartidas, puede guardar la canalización de datos como una copia editable en su contenido utilizando la opción Guardar como de la barra de herramientas del editor.
Sí. Puede crear tareas para elementos de canalización de datos para ejecutar sus flujos de trabajo según un calendario. Para obtener más información sobre la creación de tareas de canalización de datos, consulte Programar una canalización de datos.
Existen ciertas similitudes entre Data Pipelines y Velocity en ArcGIS Online. Ambas aplicaciones permiten conectarse a fuentes de datos externas e importar los datos en ArcGIS Online para utilizarlos en el sistema ArcGIS . Sin embargo, sirven para diversos fines. Velocity se ha diseñado específicamente para el procesamiento de big data y en tiempo real, y maneja con eficacia flujos de datos de alta velocidad procedentes de sensores y fuentes similares. También se centra en permitir análisis como rastreo de dispositivos, detección de incidentes y análisis de patrones. Data Pipelines es principalmente una aplicación de integración de datos que se centra en tareas de ingeniería de datos, en particular para flujos de datos no basados en sensores. Mientras Velocity se utiliza en la administración de datos en tiempo real, Data Pipelines se emplea para administrar y optimizar datos que requieren actualizaciones con menor frecuencia.
Ambas son herramientas ETL sin código para ArcGIS que admiten la integración, transformación y limpieza de datos. Sin embargo, son muy diferentes porque Data Pipelines es una aplicación basada en web disponible inmediatamente en ArcGIS Online, mientras que Data Interoperability es una extensión para ArcGIS Pro, que requiere una licencia e instalación por separado. Data Pipelines se centra en la integración de datos para ArcGIS Online, y los resultados se escriben en una capa de entidades alojada, mientras que Data Interoperability admite un conjunto más grande de entradas y tipos de archivos admitidos, y puede escribir los resultados en la fuente.
ModelBuilder en Visor de mapas y Data Pipelines son similares en el sentido de que ambos ofrecen una experiencia de usuario de poco código y de arrastrar y soltar para la creación de flujos de trabajo repetibles en la web. Sin embargo, hay algunas diferencias clave:
- ModelBuilder puede utilizarse para automatizar flujos de trabajo de análisis, aprovechando las herramientas de análisis disponibles en Visor de mapas; Data Pipelines puede utilizarse para automatizar flujos de trabajo de preparación e integración de datos, e incluye herramientas enfocadas en la limpieza, el formato y la preparación de datos para su visualización y análisis posterior.
- ModelBuilder admite tablas y capas de entidades. Data Pipelines, por el otro lado, admite datos vectoriales y tabulares de una variedad de fuentes, incluidas Amazon S3, el almacenamiento de Microsoft Azure, Google BigQuery, Snowflake capas de entidades, archivos locales cargados y datos leídos directamente desde URL.
- ModelBuilder es una capacidad incluida en ArcGIS Online Visor de mapas e integrada en el análisis de Visor de mapas; Data Pipelines es una aplicación que se utiliza independientemente de Visor de mapas.
El servicio Data Pipelines no se configurará en su organización hasta que se haya publicado al menos una capa de entidades. Este es el mismo comportamiento que muestran otros servicios como el análisis espacial o los notebooks, entre otros. Para resolver esto, navegue hasta su contenido y cree una capa de entidades. Esto solo es necesario hacerlo una vez por organización, no por usuario. Si el problema persiste después de publicar una capa de entidades, póngase en contacto con el Soporte técnico de Esri.