La localisation efficace de l’iris via un modèle d’optimisation

Abstrait

La localisation de l’iris est l’un des processus les plus importants dans la reconnaissance de l’iris. En raison de différents types de bruits dans l’image de l’iris, le résultat de la localisation peut être faux. En plus de cela, le processus de localisation prend du temps. Pour résoudre ces problèmes, cet article développe un algorithme efficace de localisation de l’iris via un modèle d’optimisation. Tout d’abord, le problème de localisation est modélisé par un modèle d’optimisation. Ensuite, la caractéristique SIFT est sélectionnée pour représenter les informations caractéristiques de la limite extérieure de l’iris et de la paupière pour la localisation. Et l’algorithme SDM (Supervised Descent Method) est utilisé pour résoudre les points finaux de la limite extérieure et des paupières. Enfin, l’algorithme IRLS (Iterative Reweighted Least-Square) est utilisé pour obtenir les paramètres de la limite extérieure et des paupières supérieure et inférieure. Le résultat expérimental indique que l’algorithme proposé est efficace et effectif.

1. Introduction

La reconnaissance d’iris est l’une des biométries les plus fiables . Il est largement utilisé dans différents types d’applications.

Un système typique de reconnaissance de l’iris contient plusieurs étapes, qui sont l’acquisition de l’image de l’iris, la segmentation, l’extraction de caractéristiques, la correspondance et la reconnaissance . Dans ces étapes, la segmentation est le processus le plus important et le plus fondamental. Cette étape localise principalement quatre limites de l’iris, qui sont les limites intérieures et extérieures de l’iris et les paupières supérieures et inférieures.

En fait, il est difficile d’obtenir des limites d’iris précises et stables dans différentes conditions, telles que la luminosité variable et non uniforme, l’occlusion des cils et des paupières, les réflexions spéculaires et le recouvrement des lunettes. Ces facteurs indéterminés rendent la segmentation de l’iris difficile. La segmentation est devenue un goulot d’étranglement majeur dans le système de reconnaissance de l’iris.

Les deux algorithmes de localisation de l’iris les plus connus sont l’opérateur integrodifférentiel (Itg-Diff) et la détection des bords combinée à la transformée de Hough . Ils sont largement approuvés par différentes publications. Cependant, ces deux méthodes utilisent principalement des informations de gradient, qui sont facilement affectées par différents types de bruits. Elles ne sont probablement pas efficaces et génèrent une localisation erronée dans certaines conditions.

(1) Complexité de calcul. L’efficacité de l’opérateur Itg-Diff est principalement affectée par la gamme des paramètres de la frontière. Lorsque l’espace de recherche du paramètre est grand, le processus de localisation a une grande complexité de calcul. L’efficacité de la transformation de Hough est principalement affectée par la taille de l’espace des paramètres et le nombre de pixels de bord détectés. Le bord détecté contient généralement beaucoup de bruits. Lorsque trop de bruit est inclus ou qu’un grand espace de paramètres est utilisé, le processus de calcul prend du temps.

(2) Localisation imprécise de la limite extérieure de l’iris. Comme l’opérateur Itg-Diff et le processus de détection des bords dépendent juste des informations de gradient, ils sont vulnérables aux cils, au point lumineux, à la monture de lunettes et à d’autres bruits, ce qui entraîne une localisation erronée.

(3) Segmentation incorrecte des paupières supérieures et inférieures. Avec la diversité de l’équipement, de l’environnement et des individus, les paupières des images capturées diffèrent grandement. Cela conduit à une segmentation incorrecte des paupières.

Ces dernières années, de nombreux algorithmes ont été proposés sur la base des deux algorithmes classiques ci-dessus. Cui et al. extraient les informations de basse fréquence de l’image de l’iris par transformation en ondelettes. Ils utilisent l’opérateur Itg-Diff pour segmenter l’iris. Sundaram et al. réduisent la plage de recherche de l’iris et de la pupille pour réduire la complexité ; ils utilisent ensuite la transformée de Hough pour la localisation. D’autres algorithmes tels que la loi de Hooke, le contour actif et l’analyse d’histogramme donnent également des résultats satisfaisants. D’autres méthodes de segmentation de l’iris sont étudiées par Jan .

En fait, ces méthodes de segmentation de l’iris proposées dépendent principalement des informations de gradient. Ainsi, le processus de localisation est facilement affecté par différents types de bruits, générant des segmentations erronées. D’autre part, le bruit existant rend difficile l’estimation de la plage des paramètres de frontière. Cela rend la complexité de calcul du processus de recherche.

Considérant que l’information de gradient est facilement affectée par les bruits, nous essayons de sélectionner des caractéristiques plus robustes pour représenter la frontière de l’iris.

SIFT (scale-invariant features transform) est un descripteur de caractéristiques locales robuste et invariant à l’échelle. Xiong et de la Torre ont proposé de localiser les points clés du visage avec SIFT et l’algorithme SDM (Supervised Descend Method). Inspirés par cet article, nous essayons d’utiliser SIFT pour extraire la caractéristique locale de la limite de l’iris. Le processus de localisation est résolu par SDM .

La figure 1 montre l’organigramme de la méthode de localisation de l’iris proposée. Tout d’abord, la pupille est localisée grossièrement par RST (Radial Symmetry Transform) et la frontière fine est déterminée par l’opérateur Itg-Diff. Ensuite, nous extrayons la caractéristique SIFT des points clés de la limite extérieure de l’iris et des paupières (supérieures et inférieures). Sur la base de ces points clés, le modèle d’optimisation développé est résolu par SDM. Ensuite, certains points clés de la limite extérieure de l’iris et des paupières (supérieures et inférieures) sont obtenus. Les paupières et la limite finale de l’iris sont déterminées par IRLS (Iterative Reweighted Least-Square).

Figure 1
Organigramme de la méthode de localisation de l’iris proposée.

La figure 2 illustre l’ensemble de la procédure de l’algorithme proposé. La figure 3 montre la comparaison entre le résultat de localisation idéal et celui obtenu par l’algorithme proposé.

Figure 2
Une illustration du processus de localisation de l’iris. Les courbes bleues sont les cercles et les paraboles d’ajustement. Les points verts sont la forme initialisée de la localisation. Les points rouges sont la forme finale de la procédure.

(a)
(a)
(b)
(b)

.

(a)
(a)(b)
(b)

Figure 3
Section de l’iris. (a) Localisation idéale de l’iris et (b) résultat de la localisation par la méthode proposée.

Le document est organisé comme suit : La section 2 illustre le modèle mathématique de l’algorithme de localisation. La section 3 présente la méthode de localisation de l’iris proposée. La section 4 montre le résultat expérimental et l’analyse. La section 5 conclut l’ensemble du papier.

2.1. Modèle mathématique de la localisation de l’iris

Let be une image d’iris et être un vecteur des coordonnées des pixels dans l’image, . est le vecteur des frontières de destination, qui est composé des coordonnées des points clés, . Ensuite, le processus de localisation est égal au calcul de , qui est illustré dans la figure 4.

(a) Forme initiale de la limite extérieure de l'iris
(a) Forme initiale de la limite extérieure de l’iris
(b) Forme initiale et finale de la limite extérieure
(b) Forme initiale et finale de la limite extérieure

(a) Forme initiale de la limite extérieure de l'iris
(a) Forme initiale de la limite extérieure de l’iris(b) Forme initiale et finale de la limite extérieure
(b) Forme initiale et finale de la limite extérieure

Figure 4
Illustration du processus de localisation de l’iris : (a) forme initiale de la limite de l’iris ; (b) position relative de la limite initiale et localisée de l’iris.

Définir comme le vecteur de caractéristiques de , qui est composé de groupes de caractéristiques sur . Ici, est une fonction d’extraction de caractéristiques, qui projette les pixels sur leur descripteur de caractéristiques correspondant.

Avec cette définition, est le vecteur de caractéristiques de . Alors le processus de localisation est égal à la recherche du vecteur de caractéristiques le plus similaire à . Idéalement, lorsque la différence entre les deux vecteurs de caractéristiques et est faible, serait proche du vecteur de forme cible , qui est la localisation attendue.

Ici, nous utilisons la distance euclidienne pour mesurer la similarité de deux vecteurs de caractéristiques. Alors la procédure de localisation de l’iris est équivalente à la minimisation de la fonction objective suivante :

Let , où est le vecteur de coordonnées initial, est le décalage de à , et (1) peut être réécrit comme

Lorsque la fonction d’extraction de caractéristiques est non linéaire, la minimisation de (2) est un problème de programmation non linéaire. Le vecteur de forme final peut être obtenu en résolvant le problème d’optimisation suivant :

Alors le vecteur de forme de localisation final est

2.2. Caractéristique SIFT de frontière

SIFT est un descripteur de caractéristique locale d’image couramment utilisé . Il est largement utilisé dans de nombreux problèmes de vision par ordinateur différents . Dans cet article, nous adoptons une stratégie similaire à , extraire les vecteurs de caractéristiques SIFT des points clés sur la frontière de l’iris pour la localisation. La figure 5 illustre la caractéristique SIFT de différents points de la limite de l’iris. Cette figure indique que les quatre points donnés (étiquetés 1-4) sur la limite extérieure de l’iris ont des caractéristiques SIFT similaires.

(a)
(a)
(b)
(b)

(a)
(a)(b)
(b)

Figure 5
Fonctionnement du SFT de différents points. (a) positions des points de bord sélectionnés ; (b) caractéristique SIFT des quatre points sélectionnés.

2.3. Algorithme SDM

En substituant le vecteur de caractéristiques SIFT dans le problème d’optimisation de (3), on obtient un problème de programmation non linéaire. L’algorithme SDM adopte un apprentissage supervisé pour obtenir le vecteur d’itération optimal du vecteur de forme actuel à la cible. C’est un algorithme itératif pour résoudre le problème d’optimisation.

Cet algorithme établit un modèle de régression linéaire entre le décalage du vecteur de forme et la caractéristique du vecteur de forme actuel

Puis le vecteur de forme actuel et le vecteur de décalage peuvent être calculés de manière itérative, pour obtenir le vecteur de position désiré : .

Afin de réduire la possibilité de tomber dans un minimum local, SDM adopte plusieurs itérations pour obtenir une série de et où est le nombre d’itérations et est la coordonnée du th point du vecteur de forme à la th itération.

3. Méthode proposée

3.1. Détermination de la pupille

Lorsque les images de l’iris sont prises par l’équipement proche infrarouge, il y a une grande différence entre la pupille et l’iris. Ici, nous adoptons une stratégie de localisation de la pupille « grossière à fine ». Tout d’abord, une position approximative de la pupille est obtenue par RST ; puis la localisation précise est obtenue par l’opérateur Itg-Diff.

L’opérateur Itg-Diff est proposé par Daugman. La formule est donnée comme suit : où est une fonction lisse, est opérateur de convolution, est l’image, est le centre de la limite circulaire, et est le rayon.

L’opérateur calcule la différence de gris annulaire le long de la direction radiale dans l’image de l’iris et recherche la différence maximale.

3.2. Apprentissage SDM

Dans cet article, nous sélectionnons 32 points clés sur la limite extérieure de l’iris. La figure 6 illustre les positions de ces points. Parmi eux, les paupières supérieures et inférieures contiennent 13 points séparément, et les arcs gauche et droit de la limite de l’iris ont 4 points, respectivement. La figure 6(a) est l’image d’entraînement avec des points marqués sur les paupières supérieures et inférieures, où les points 1, 13, 14 et 26 sont les points d’intersection des paupières et du bord extérieur de l’iris, respectivement ; la figure 6(b) est l’image d’entraînement sans intersection des paupières inférieures et de l’iris, où le point le plus bas sur le bord extérieur de l’iris est marqué comme les points 14 à 26 ; La figure 6(c) est l’image d’entraînement sans intersection des paupières supérieures et de l’iris, où le point le plus haut sur le bord extérieur de l’iris est marqué comme étant les points 1 à 13 ; La figure 6(d) montre le vecteur de forme moyen de tous les échantillons d’entraînement. Les caractéristiques SIFT des points marqués sont calculées pour chaque image de la base de données et et , qui sont enregistrés comme les paramètres appris de la régression linéaire, sont obtenus en résolvant (6).

(a)
(a)
(b)
(b)
(c)
(c)
(d)
(d)

.

(a)
(a)(b)
(b)(c)
(c)(d)
(d)

Figure 6
Exemples de points clés étiquetés. (a) Points clés étiquetés sur l’iris occulté par les paupières supérieures et inférieures. (b) Points clés étiquetés sur l’iris occulté par la paupière supérieure. (c) Points clés étiquetés de l’iris occultés par la paupière inférieure. (d) Forme moyenne de tous les points clés étiquetés.

3.3. Localisation des points clés

Dans le processus de localisation, la limite extérieure de l’iris est initialisée en fonction des paramètres de localisation de la pupille et de la forme moyenne. La figure 7 illustre le processus de changement de la forme après différentes étapes d’itération. La figure 7(a) montre les points clés initiaux. Les figures 7(b), 7(c), et 7(d), respectivement, montrent les formes localisées, qui sont obtenues après une, deux et trois itérations.

(a)
(a)
(b)
(b)
(c)
(c)
(d)
(d)

.

(a)
(a)(b)
(b)(c)
(c)(d)
(d)

Figure 7
Illustration des étapes d’itération. (a) Initialisation des points clés. (b) Points clés après une itération. (c) Points clés après deux itérations. (d) Points clés après trois itérations.

L’image d’iris que nous avons utilisée est réduite à la longueur du côté. Le numéro d’itération .

3.4. Estimation des frontières

Avec ces points clés obtenus par SDM, l’algorithme IRLS est adopté pour localiser la frontière de l’iris et des paupières. La frontière extérieure de l’iris et des paupières (vers le haut et vers le bas) est ajustée par le cercle et les paraboles séparément.

3.4.1. Linéarisation de l’équation de cercle

Une équation standard de cercle est où et sont les coordonnées horizontales et verticales du point sur le cercle et , , et sont les paramètres. L’équation circulaire peut être écrite comme

Let , , ; alors l’équation du cercle peut être écrite comme

3.4.2. Linéarisation d’une fonction parabolique

Une fonction parabolique standard peut être donnée comme suit :

Alors la fonction se transforme en

Let , , ; alors la fonction parabolique pourrait être donnée comme

3.4.3. Estimation du paramètre par IRLS

Lorsque les fonctions circulaires et paraboliques sont illustrées comme (10) et (13), les fonctions non linéaires originales deviennent linéaires. Les paramètres de ces fonctions peuvent être résolus par des méthodes liées aux moindres carrés. Ici, nous utilisons IRLS pour estimer ces paramètres inconnus.

Supposons que la déviation du th point est , . Pour rendre la régression robuste, nous utilisons la fonction bisquare comme fonction de poids, qui est ; est la largeur de bande. Alors le problème d’optimisation suivant serait obtenu en minimisant l’erreur carrée pondéréeoù est les coordonnées des th points clés obtenus par SDM.

Ici nous utilisons IRLS pour résoudre (14). La fonction itérative est

Le processus de résolution est réalisé par une fonction intégrée à Matlab. La figure 8 illustre les points clés et les limites localisées finales. Les points clés sur la limite extérieure de l’iris et les paupières supérieures et inférieures sont obtenus par SDM. Les frontières continues sont calculées par IRLS.

Figure 8
Résultat de la segmentation.

4. Résultat expérimental et analyse

L’algorithme proposé a été testé sur un dispositif d’acquisition d’iris monoculaire TCI 311, qui est fabriqué par Techshino Technology Inc, Beijing. Il s’agit d’une caméra proche infrarouge avec un objectif primaire. La distance de capture est de 8-10 cm. La résolution de l’image de l’iris est de . Nous construisons une base de données d’iris contenant 700 images par cet appareil.

L’expérience est réalisée sur un ordinateur avec un processeur Intel Core i5, 2 Go de RAM, et le système d’exploitation est Windows 7 Professional 32 bits. L’algorithme est codé en Matlab 2014b et C++.

Dans notre expérience, les images d’entraînement et de vérification sont choisies au hasard dans la base de données d’images pour la validation croisée. Le rapport entre les images d’entraînement et les images vérifiées est de 7 : 3.

Le taux d’erreur et le taux d’échec de la précision de localisation sont définis comme suit : où et désignent respectivement la position de test et la position réelle du ième point sur la jième image échantillon. représente la distance euclidienne. et désignent la longueur et la largeur du rectangle circonscrit minimal de tous les points clés sur la ième image échantillon. Selon la définition, mesure l’erreur du point d’échantillonnage et est le taux d’échec de localisation.

Le taux d’erreur cumulatif est défini comme suit :

Le taux d’échec cumulé est défini comme suit :

Ici, et sont les critères d’évaluation, et est une fonction indicatrice:

La figure 9 montre les courbes et. La figure 10 montre le résultat de la localisation par la méthode proposée. Le tableau 1 illustre la comparaison des performances de la localisation de la limite de l’iris et des paupières par Itg-Diff et l’algorithme proposé. La figure 11 compare les résultats obtenus par l’opérateur Itg-Diff et la méthode proposée, où la première ligne est le résultat de l’opérateur Itg-Diff et la deuxième ligne est le résultat de la méthode proposée. Ces comparaisons démontrent que la méthode proposée a des performances de localisation plus stables que l’opérateur Itg-Diff dans une image d’iris bruyante, en particulier avec de grandes taches lumineuses, des montures de lunettes, et ainsi de suite.

Partie localisée Itg-Diff Algorithme proposé
Iris 99.2% 99,5%
Eyelids 99.6% 99,6%
Tableau 1
Précision de segmentation des différentes méthodes.

(a)
(a)
(b)
(b)

. (a)
(a)(b)
(b)

Figure 9
Courbes d’erreurs cumulées sur l’ensemble de test. (a) Proportion d’erreur via la moyenne quadratique cumulative. (b) Proportion d’erreur via le taux d’échec cumulé.

Figure 10
Résultats de la segmentation par la méthode proposée.

(a)
(a)
(b)
(b)
(c)
(c)
. (d)
(d)
(e)
(e)
(f)
(f)
(g)
(g)
(h)
(h)

.

(a)
(a)(b)
(b)(c)
(c)(d)
(d)(e)
(e)(f)
(f)(g)
(g)(h)
(h)

Figure 11
Résultats de la segmentation par différentes méthodes (les première et deuxième lignes sont obtenues par Itg-.Diff et la méthode proposée séparément).

C’est parce que l’opérateur Itg-Diff s’appuie sur l’information de gradient sur le voisinage. Il est sensible aux variations locales d’intensité. Lorsque les images d’iris contiennent une tache lumineuse, une paupière, un cil, un cadre de lunettes, etc., l’opérateur Itg-Diff produit probablement des segmentations erronées.

Bien que la caractéristique SIFT soit générée sur une zone locale relativement grande, elle est plus robuste à la rotation de l’image, à la variation de luminosité, à l’échelle et au bruit que l’information de gradient. Cela améliore la robustesse de l’algorithme de localisation.

Le tableau 2 montre le temps d’exécution de la méthode proposée et des deux autres méthodes. Il faut une moyenne de 26,7 ms pour localiser une image d’iris dans notre expérience, ce qui est beaucoup plus efficace que les algorithmes comparés.

Méthodes Itg-.Diff ED + Radon Algorithme proposé
Temps 600 ms 153.7 ms 26,7 ms
Tableau 2
Temps de calcul des différentes méthodes.

5. Conclusions

Dans cet article, un algorithme efficace de localisation de l’iris basé sur un modèle d’optimisation est proposé. Tout d’abord, l’opérateur RST et Itg-Diff sont utilisés pour localiser la pupille ; ensuite, les points clés de la limite extérieure de l’iris sont représentés par des caractéristiques SIFT et localisés par SDM. Enfin, les paramètres de la limite extérieure de l’iris sont déterminés par IRLS.

La principale contribution de cet article pourrait être résumée comme suit . Un modèle d’optimisation est développé pour la localisation de l’iris. La caractéristique SIFT est utilisée pour la représentation des limites de l’iris, qui est plus robuste que les informations de gradient. L’algorithme SDM est introduit pour résoudre le problème de localisation de l’iris, qui peut générer les points clés de la limite extérieure de l’iris.

Les résultats expérimentaux indiquent que la méthode proposée peut localiser la limite extérieure de l’iris et les paupières supérieures et inférieures de manière efficace et robuste.

Conflits d’intérêts

Les auteurs déclarent qu’ils n’ont pas de conflits d’intérêts.

Reconnaissance

Ce travail est soutenu par les Fonds nationaux des sciences naturelles de Chine, no 61703088, la Fondation de recherche scientifique doctorale de la province de Liaoning, no 20170520326, et « les Fonds de recherche fondamentale pour les universités centrales », N160503003.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.