Skip To Content

Utiliser le modèle

Vous pouvez utiliser ce modèle dans l’outil Classer des pixels à l’aide d’algorithmes de Deep Learning disponible dans la boîte à outils Image Analyst dans ArcGIS Pro. Suivez les étapes ci-dessous pour utiliser le modèle visant à segmenter les inondations dans des images.

Configuration de l’imagerie recommandée

La configuration de l’imagerie recommandée est la suivante :

  • Imagerie : raster, jeu de données mosaïque ou service d’imagerie. Le raster doit être un raster composite à 6 bandes de Harmonized Landsat 8 (HLSL30) ou Harmonized Sentinel 2 (HLSS30). Le modèle peut également être utilisé avec les produits de niveaux 2 de Sentinel-2 et Landsat 8, mais il fonctionne mieux avec HLSL30 et HLSS30.

    Le raster composite doit contenir les bandes suivantes : Bleu, Vert, Rouge, Proche infrarouge (NIR) étroit, SWIR et SWIR 2.

    Les numéros respectifs des bandes mentionnées ci-dessus sont les suivants :

    • Pour HLSS30 et Sentinel-2 : Band2, Band3, Band4, Band8A, Band11, Band12
    • Pour HLSL30 et Landsat 8 : Band2, Band3, Band4, Band5, Band6, Band7

  • Résolution - 30 mètres

Utiliser le modèle

Pour classer les inondations dans l’imagerie, procédez comme suit :

  1. Téléchargez le modèle pré-entraîné Prithvi - Segmentation des inondations et ajoutez la couche d’imagerie dans ArcGIS Pro.
    Imagerie ajoutée dans ArcGIS Pro
  2. Effectuez un zoom sur une zone d’intérêt.
  3. Accédez à Tools (Outils) sous l’onglet Analysis (Analyse).
    Outils de l’onglet Analyse
  4. Cliquez sur l’onglet Toolboxes (Boîtes à outils) dans la fenêtre Geoprocessing (Géotraitement), sélectionnez Image Analyst Tools (Outils Image Analyst) et recherchez l’outil Classer des pixels à l’aide d’algorithmes de Deep Learning sous Deep Learning.
    Classer des pixels à l’aide d’un outil d’apprentissage profond
  5. Définissez les variables sous l’onglet Parameters (Paramètres) comme suit :
    1. Input Raster (Raster en entrée) - Sélectionnez l’imagerie.
    2. Output Raster Dataset (Jeu de données raster en sortie) - Définissez la classe d’entités en sortie qui contiendra les résultats de la classification.
    3. Model Definition (Définition du modèle) - Sélectionnez le fichier .dlpk de modèle pré-entraîné ou optimisé.
    4. Arguments (facultatif) - Remplacez les valeurs des arguments, si nécessaire.
      • padding - Nombre de pixels en bordure des tuiles d’image à partir desquelles les prévisions sont fusionnées pour les tuiles adjacentes. Augmentez sa valeur pour lisser la sortie tout en réduisant les artefacts de bord. La valeur maximale du remplissage peut représenter la moitié de la valeur de la taille d’une tuile.
      • batch_size - Nombre de tuiles d’image traitées à chaque étape de l’inférence du modèle. Ce nombre dépend de la mémoire de la carte graphique.
      • test_time_augmentation - Procède à l’augmentation du temps de test lors de la prévision. Si la valeur est vraie, les prévisions des variants inversés et pivotés de l’image en entrée sont fusionnées dans la sortie finale.
      • predict_background - S’il est défini sur True (Vrai), la classe d’arrière-plan est également classée.
    Onglet Paramètres de l’outil Classer des pixels à l’aide d’algorithmes de Deep Learning
  6. Définissez les variables sous l’onglet Environments (Environnements) comme suit :
    1. Processing Extent (Étendue de traitement) - Sélectionnez Current Display Extent (Étendue d’affichage actuelle) ou toute autre option dans le menu déroulant.
    2. Cell Size (Taille de cellule) (requis) - Définissez la valeur sur 30.

      La résolution de raster attendue est de 30 mètres.

    3. Processor Type (Type de processeur) - Sélectionnez CPU (UC) ou GPU.

      Il est recommandé de sélectionner GPU, si l’option est disponible et de définir GPU ID (ID GPU) pour indiquer le GPU à utiliser.

    Onglet Environnements de l’outil Classer des pixels à l’aide d’algorithmes de Deep Learning
  7. Cliquez sur Run (Exécuter).

    La couche en sortie est ajoutée à la carte.

    Résultats classés à partir du modèle