OFF-35_IV.4.4 Classification

Summary

IV - DES DONNéES à L'INFORMATION


4- COMMENT ANALYSER les images pour produire des cartes?
 

4.4- Comment classifier une image?

Les objets de nature similaire vont généralement présenter des caractéristiques similaires sur les images. Prenons par exemple la végétation qui est très réfléchissante dans le spectre infrarouge, les maisons d’habitation qui ont généralement des caractéristiques de forme très différentes de celles des édifices industriels, ou les parcelles agricoles qui présentent des caractéristiques de texture différentes de celles des forêts.

Les caractéristiques des images sont utilisées depuis longtemps pour l'interprétation visuelle des photographies aériennes et des images satellite. Les interprètes regroupent les objets de l'image qui présentent des caractéristiques semblables (voir Comment analyser visuellement une image? ). Ainsi, l'image est divisée en plusieurs sous-ensembles, chacun d'entre eux se voyant attribuer une catégorie particulière. Chaque pixel de l'image est en quelque sorte "classé", c'est-à-dire affecté à une classe particulière.


Ci-dessus, un extrait d'une image enregistrée au printemps par le capteur Thematic Mapper du satellite Landsat 4 et qui couvre la région du barrage de la Plate-Taille et des lacs de l'Eau d'Heure, près de Philippeville. L'image est une composition colorée de type infrarouge "fausses couleurs" associant les canaux proche infrarouge, rouge et vert du satellite respectivement aux couleurs rouge, vert et bleu du système d'affichage. Sur base des différences de couleur, d'intensité, de formes et de textures, nous pouvons distinguer visuellement un certain nombre de classes. Par exemple, les lacs de l'Eau d'Heure apparaissent en bleu très foncé (presque noir), les routes et zones habitées sont en gris-bleu assez sombre, les forêts de feuillus, dominantes dans la région, sont en rouge foncé, et les quelques parcelles de résineux apparaissent en brun plus foncé.

Les images numériques n'étant rien d'autre que des matrices de chiffres, nous pouvons exploiter la puissance de calcul des ordinateurs pour les analyser et les interpréter.

Les premiers algorithmes informatiques développés pour effectuer des classifications d'images reposaient uniquement sur les caractéristiques spectrales des pixels individuels. En effet, les capteurs embarqués à bord des avions ou des satellites enregistrent ce qu'on appelle la signature spectrale des objets à la surface de la Terre. Des objets de nature similaire ont généralement des propriétés spectrales similaires. Cela signifie que le rayonnement électromagnétique réfléchi par des objets de même type est globalement ressemblant et que ces objets auront donc des signatures spectrales proches.

On peut distinguer deux groupes principaux d'algorithmes de classification basés sur les pixels. Un premier type, appelé classification « supervisée », compare les valeurs spectrales d'un pixel aux signatures de référence (ou signatures type) d'un certain nombre de classes prédéfinies et affecte le pixel à la classe à laquelle les caractéristiques spectrales correspondent le mieux. Pour appliquer un tel algorithme, il faut donc déterminer à l'avance les classes spectrales que l’on souhaite distinguer et connaître leurs caractéristiques spectrales.

Une autre approche est celle des algorithmes dits « non supervisés ». Cette méthode ne fonctionne pas avec des classes prédéterminées mais procède plutôt à un regroupement automatique ou « clustering » des valeurs spectrales des pixels. Les pixels ayant des valeurs similaires sont alors affectés au même groupe. C'est ensuite à l'utilisateur d'interpréter ces groupes après la classification et de les mettre en relation avec la couverture du sol.

La figure ci-dessus montre la classification d'une image satellite à haute résolution d'une partie de Dublin (Phoenix Park). L'algorithme utilisé pour la classification répartit les pixels individuels dans des classes prédéfinies en se basant uniquement sur les caractéristiques spectrales.

Bien que les signatures spectrales fournissent déjà de nombreuses informations sur la nature des objets, les algorithmes de classification qui ne prennent en compte que les valeurs spectrales des pixels individuels présentent de nombreux inconvénients. En effet, les satellites ne « voient » depuis leur orbite que la partie supérieure de l'enveloppe externe des objets. Par exemple, le satellite ne "voit" d'une maison que son toit.

De plus, les propriétés spectrales de chaque pixel sont analysées individuellement, sans tenir compte de la forme des objets ou de l'environnement à proximité du pixel. Dans le meilleur des cas, ces méthodes permettent donc de classer les bâtiments en se basant uniquement sur les caractéristiques spectrales des matériaux de couverture alors que de nombreux utilisateurs sont probablement plus intéressés par une classification basée sur la fonction du bâtiment (résidentiel, commercial, industriel, etc.). Cette limitation est particulièrement préjudiciable pour l'identification des éléments artificiels du paysage. L'analyse des signatures spectrales des objets s'avère nettement plus pertinente lorsqu'il s'agit d'analyser les sols, les cultures, la végétation naturelle, etc.

Il est très important de tenir compte de ce principe de base lorsqu'on définit les catégories d'une classification basée uniquement sur les caractéristiques spectrales. Ces catégories devraient toujours se baser sur les types de couverture (land-cover en anglais) plutôt que sur les modes d'utilisation du sol (land-use en anglais). Par exemple, une aire de stationnement et le toit goudronné d'un bâtiment correspondent à des modes d'occupation du sol très différents, mais leurs signatures spectrales sont si proches qu'ils sont susceptibles d'être classés dans la même catégorie.

Les algorithmes de classification les plus récents utilisent un arsenal de caractéristiques d'image beaucoup plus large que les seules valeurs spectrales des pixels individuels. Grâce à l’essor de l'apprentissage automatique (machine learning en anglais) et de l'intelligence artificielle, il est désormais possible d'extraire beaucoup plus d'informations d'une image numérique. Par exemple, les réseaux de neurones convolutifs permettent d’identifier certains objets dans un paysage, comme des bâtiments ou des vestiges archéologiques, grâce à des caractéristiques de forme qu'ils « apprennent » (càd qu’ils identifient et enregistrent) eux-mêmes à partir d'un grand nombre d’exemples, même si ces objets n'ont pas de propriétés spectrales univoques. Ces algorithmes sont également capables de segmenter ou de diviser une image en zones de pixels appartenant à la même catégorie (par exemple, rues, maisons, arbres, etc.).

Des algorithmes informatiques sophistiqués nous permettent de détecter depuis l'espace, sur des images satellites à haute résolution (ici Gaofen-2), les anciens monticules de pierre disséminés dans la vaste région de l'Altaï (Russie). Ces algorithmes utilisent l'intelligence artificielle (les "réseaux neuronaux convolutifs") pour reconnaître les formes circulaires typiques de ces vestiges archéologiques dans l'image. Source: Fen Chen et al, Automatic detection of burial mounds (kurgans) in the Altai Mountains. ISPRS Journal of Photogrammetry and Remote Sensing, Volume 177,2021, p. 217-237, ISSN 0924-2716.