Skip To Content

Présentation du modèle

Image de bannière du modèle permettant d’identifier un panneau Mauvaise direction

Les étiquettes textuelles font partie intégrante des cartes cadastrales et des plans d’étages. Le texte est également omniprésent autour de nous dans les scènes naturelles sous la forme de panneaux de signalisation routière, de panneaux d’affichage, de numéros de maison et de noms de lieux. L’extraction de ce texte peut apporter un contexte et des détails supplémentaires sur les lieux que le texte décrit et les informations qu’il communique. La numérisation des documents et l’extraction du texte qu’ils contiennent permettent de recueillir et d’archiver les informations importantes.

Ce modèle de Deep Learning est basé sur le modèle MMOCR et fait appel à la technologie de reconnaissance optique des caractères (OCR) pour détecter du texte dans les images. Ce modèle a été entraîné sur un grand jeu de données contenant différents types et styles de texte avec divers arrière-plans et contextes, ce qui permet une extraction de texte précise. Il peut être appliqué à différentes tâches telles que la détection et la lecture automatique des textes inscrits sur les panneaux d’affichage, les panneaux de signalisation routière, les cartes numérisées, etc., et convertit ainsi le texte en données exploitables.

Licence requise

Pour réaliser ce processus, les licences suivantes sont nécessaires :

  • ArcGIS Desktop : extension ArcGIS Image Analyst pour ArcGIS Pro
  • ArcGIS Enterprise : ArcGIS Image Server avec l’analyse raster configurée
  • ArcGIS Online : ArcGIS Image for ArcGIS Online

Détails du modèle

Ce modèle présente les caractéristiques suivantes :

  • Entrée - Images haute résolution trois bandes à l’échelle des rues avec un texte moyen à large ou document numérisé.
  • Sortie - Couche d’entités avec des zones délimitant le texte détecté dans l’image en entrée.
  • Calcul - Ce processus sollicite beaucoup de ressources de calcul, il est donc recommandé de s’équiper d’un processeur graphique avec des capacités de calcul CUDA 6.0 au minimum.
  • Architecture - Ce modèle s’appuie sur le modèle MMOCR Open Source fourni par MMLab. Il utilise le modèle PSENet pour la détection du texte et le modèle ABINet pour la reconnaissance textuelle.

Accéder et télécharger le modèle

Téléchargez le modèle pré-entraîné Optical Character Recognition (Reconnaissance optique des caractères) à partir de ArcGIS Living Atlas of the World. Vous pouvez également accéder au modèle directement dans ArcGIS Pro ou l’utiliser dans ArcGIS Image for ArcGIS Online.

Télécharger le modèle avec ArcGIS Online

Procédez comme suit pour télécharger le modèle avec ArcGIS Online :

  1. Accédez à ArcGIS Living Atlas of the World.
  2. Connectez-vous à l'aide de vos identifiants de connexion ArcGIS Online.
  3. Recherchez Optical Character Recognition (Reconnaissance optique des caractères) et ouvrez la page de l’élément à partir des résultats de recherche.
  4. Cliquez sur le bouton Download (Télécharger) pour procéder au téléchargement du modèle.
    Vous pouvez utiliser le fichier .dlpk téléchargé directement dans ArcGIS Pro ou le charger et l’utiliser dans ArcGIS Enterprise.

Télécharger le modèle dans ArcGIS Pro

Procédez comme suit pour télécharger le modèle dans ArcGIS Pro :

  1. Ouvrez ArcGIS Pro.
  2. Cliquez sur la fenêtre Catalog (Catalogue) et sélectionnez Portal (Portail).
  3. Cliquez sur Living Atlas et recherchez Optical Character Recognition (Reconnaissance optique des caractères).
  4. Cliquez avec le bouton droit sur le modèle et téléchargez le fichier .dlpk.

Notes de version

Voici les notes de version :

DateDescription

Juillet 2023

Première édition de Optical Character Recognition (Reconnaissance optique des caractères)