Localisation d’obstacles
+ Etudes

Identification des panneaux

Comment après détection d’un panneau, identifier sa signification ? C’est ce que nous allons voir à travers cet article.
Mis en ligne le 27/05/2006

Après avoir détecté un panneau, l’application doit maintenant le differencier en le comparant aux modèles présents dans la base de données.

Le premier problème qui se pose est relatif à la taille du panneau détecté : pour pouvoir être comparés, les panneaux doivent être ramenés à une taille standard. La taille retenue est de 32x32 pixels, compromis empirique entre la quantité d’informations préservée et la taille de l’image à traiter.

La réduction à une image de 32*32 pixels se fait de la façon suivante : on calcule le ratio de la réduction (largeur de l’image / 32) puis on prend pour chaque pixel de l’image d’arrivée de coordonnées X et Y son équivalent dans l’image de base (X * ratio) et (Y * ratio). Aucune interpolation (ni linéaire ni cubique) n’est effectuée de façon à garantir un temps d’execution relativement faible.

Image originale

(JPG)

Image réduite

(JPG)

Maintenant que les panneaux sont techniquement comparables (car de même taille) il faut d’une part isoler la partie du panneau qui le caracterise le plus et d’autre part tenter d’accentuer au maximum les caractères propres à chaque panneau pour faciliter la comparaison.

Tous les panneaux à détecter étants des panneaux d’interdiction, on remarque vite qu’ils se differencient uniquement par l’information contenue en leur centre. On effectue donc une extraction de nôtre image en ne gardant qu’un coeur de 22x22 pixels, c’est à dire le panneau moins le contour rouge signifiant une interdiction.

Il faut ensuite comparer l’image obtenue avec la bibliotheque de panneaux. L’application traite pour cela au préalable les images pour réduire au maximum l’information tout en préservant un minimum essentiel pour differencier les panneaux. On effectue ainsi une binéarisation : tous les pixels sous un seuil fixé (127 de rouge et 127 de bleu et 127 de vert) sont mis en noir, les autres sont mis en blanc.

(JPG)

L’image est ensuite comparée pixel par pixel à celles contenues dans la bibliotheque. On en déduit un taux de similarité. Par exemple si sur les 484 pixels de l’image (22*22) 346 sont semblables à une image de la bibliotheque le taux de similarité est de 346 / 484 = 72%

Si le meilleur taux de similarité d’une image avec celles de la bibliothèque est superieur à 90%, l’image est déclarée comme reconnue.

(JPG)
Copyright : droit d'auteur Marcus. Site conçu avec Spip.