Localizzazione efficiente dell’iride tramite modello di ottimizzazione

Abstract

La localizzazione dell’iride è uno dei processi più importanti nel riconoscimento dell’iride. A causa di diversi tipi di rumori nell’immagine dell’iride, il risultato della localizzazione può essere sbagliato. Oltre a questo, il processo di localizzazione richiede tempo. Per risolvere questi problemi, questo articolo sviluppa un efficiente algoritmo di localizzazione dell’iride attraverso un modello di ottimizzazione. In primo luogo, il problema di localizzazione è modellato da un modello di ottimizzazione. Poi viene selezionata la funzione SIFT per rappresentare le informazioni caratteristiche del confine esterno dell’iride e della palpebra per la localizzazione. E l’algoritmo SDM (Supervised Descent Method) viene impiegato per risolvere i punti finali del confine esterno e delle palpebre. Infine, IRLS (Iterative Reweighted Least-Square) è usato per ottenere i parametri del confine esterno e delle palpebre superiori e inferiori. Il risultato sperimentale indica che l’algoritmo proposto è efficiente ed efficace.

1. Introduzione

Il riconoscimento dell’iride è una delle biometrie più affidabili. È ampiamente utilizzato in diversi tipi di applicazioni.

Un tipico sistema di riconoscimento dell’iride contiene diverse fasi, che sono l’acquisizione dell’immagine dell’iride, la segmentazione, l’estrazione delle caratteristiche, la corrispondenza e il riconoscimento. In queste fasi, la segmentazione è il processo più importante e basilare. Questo passo localizza principalmente quattro confini dell’iride, che sono i confini interni ed esterni dell’iride e le palpebre superiori e inferiori.

In realtà, è difficile ottenere confini dell’iride accurati e stabili in condizioni diverse, come la luminosità variabile e non uniforme, l’occlusione delle ciglia e delle palpebre, i riflessi speculari e la copertura degli occhiali. Questi fattori indeterminati rendono difficile la segmentazione dell’iride. La segmentazione è diventata un collo di bottiglia importante nel sistema di riconoscimento dell’iride.

I due algoritmi di localizzazione dell’iride più noti sono l’operatore integro-differenziale (Itg-Diff) e il rilevamento dei bordi combinato con la trasformata di Hough. Sono ampiamente approvati da diverse pubblicazioni. Tuttavia, questi due metodi utilizzano principalmente le informazioni del gradiente, che sono facilmente influenzate da diversi tipi di rumori. Probabilmente non sono efficienti e generano una localizzazione errata in alcune condizioni.

(1) Complessità di calcolo. L’efficienza dell’operatore Itg-Diff è principalmente influenzata dalla gamma di parametri di confine. Quando lo spazio di ricerca dei parametri è grande, il processo di localizzazione ha una grande complessità di calcolo. L’efficienza della trasformazione di Hough è principalmente influenzata dalla dimensione dello spazio dei parametri e dal numero di pixel di bordo rilevati. Il bordo rilevato generalmente contiene molti rumori. Quando viene incluso troppo rumore o viene usato un grande spazio dei parametri, il processo di calcolo richiede molto tempo.

(2) Localizzazione imprecisa del confine esterno dell’iride. Poiché l’operatore Itg-Diff e il processo di rilevamento dei bordi dipendono solo dalle informazioni sul gradiente, sono vulnerabili alle ciglia, ai punti luce, alla montatura degli occhiali e ad altri rumori, con conseguente localizzazione errata.

(3) Segmentazione errata delle palpebre superiori e inferiori. Con la diversità delle attrezzature, dell’ambiente e degli individui, le palpebre nelle immagini catturate differiscono notevolmente. Questo porta alla segmentazione errata delle palpebre.

Negli ultimi anni, sono stati proposti molti algoritmi basati sui due algoritmi classici di cui sopra. Cui et al. estraggono le informazioni a bassa frequenza dell’immagine dell’iride tramite trasformazione wavelet. Usano l’operatore Itg-Diff per segmentare l’iride. Sundaram et al. riducono la gamma di ricerca dell’iride e della pupilla per ridurre la complessità; poi utilizzano la trasformazione di Hough per la localizzazione. Altri algoritmi come la legge di Hooke, il contorno attivo e l’analisi degli istogrammi ottengono anche risultati soddisfacenti. Altri metodi di segmentazione dell’iride sono esaminati da Jan.

In effetti, questi metodi di segmentazione dell’iride proposti dipendono principalmente dalle informazioni del gradiente. Quindi il processo di localizzazione è facilmente influenzato da diversi tipi di rumore, generando segmentazioni errate. D’altra parte, il rumore esistente rende difficile stimare la gamma di parametri di confine. Questo rende la complessità di calcolo del processo di ricerca.

Considerando che le informazioni del gradiente sono facilmente influenzate dai rumori, cerchiamo di selezionare caratteristiche più robuste per rappresentare il confine dell’iride.

SIFT (trasformazione di caratteristiche invarianti in scala) è un descrittore di caratteristiche locali robusto e invariante in scala. Xiong e de la Torre hanno proposto di localizzare i punti chiave del viso con l’algoritmo SIFT e SDM (Supervised Descend Method). Ispirandoci a questo articolo, cerchiamo di usare SIFT per estrarre la caratteristica locale del confine dell’iride. Il processo di localizzazione è risolto da SDM.

La figura 1 mostra il diagramma di flusso del metodo di localizzazione dell’iride proposto. In primo luogo, la pupilla è localizzata grossolanamente da RST (Radial Symmetry Transform) e il confine fine è determinato dall’operatore Itg-Diff. Poi, estraiamo la caratteristica SIFT dei punti chiave sul confine esterno dell’iride e sulle palpebre (superiore e inferiore). Sulla base di questi punti chiave, il modello di ottimizzazione sviluppato è risolto da SDM. Dopo di che, alcuni punti chiave sul confine esterno dell’iride e sulle palpebre (superiore e inferiore) sono ottenuti. Le palpebre finali e il confine dell’iride sono determinati da IRLS (Iterative Reweighted Least-Square).

Figura 1
Flow chart del metodo di localizzazione dell’iride proposto.

La figura 2 mostra l’intera procedura dell’algoritmo proposto. La figura 3 mostra il confronto tra il risultato di localizzazione ideale e quello ottenuto dall’algoritmo proposto.

Figura 2
Un’illustrazione del processo di localizzazione dell’iride. Le curve blu sono i cerchi e le parabole di adattamento. I punti verdi sono la forma inizializzata della localizzazione. I punti rossi sono la forma finale della procedura.

(a)
(a)
(b)
(b)

(a)
(a)(b)
(b)

Figura 3
Segmentazione dell’iride. (a) Localizzazione ideale dell’iride e (b) risultato della localizzazione con il metodo proposto.

L’articolo è organizzato come segue: La sezione 2 illustra il modello matematico dell’algoritmo di localizzazione. La sezione 3 presenta il metodo di localizzazione dell’iride proposto. La sezione 4 mostra il risultato sperimentale e l’analisi. La sezione 5 conclude l’intero documento.

2.1. Modello matematico della localizzazione dell’iride

Sia un’immagine dell’iride e sia un vettore delle coordinate dei pixel nell’immagine, . sia il vettore dei confini di destinazione, che è composto dalle coordinate dei punti chiave, . Allora il processo di localizzazione è uguale al calcolo di , che è illustrato nella figura 4.

(a) Forma iniziale del confine esterno dell'iride
(a) Forma iniziale del confine esterno dell’iride
(b) Forma iniziale e finale del confine esterno
(b) Forma iniziale e finale del confine esterno

(a) Forma iniziale del confine esterno dell'iride
(a) Forma iniziale del confine esterno dell’iride(b) Forma iniziale e finale del confine esterno
(b) Forma iniziale e finale del confine esterno

Figura 4
Illustrazione del processo di localizzazione dell’iride: (a) forma iniziale del confine dell’iride; (b) la posizione relativa del confine dell’iride iniziale e localizzato.

Definire come il vettore di caratteristiche di , che è composto da gruppi di caratteristiche su . Qui, è una funzione di estrazione di caratteristiche, che proietta i pixel al loro descrittore di caratteristiche corrispondente.

Con questa definizione, è il vettore di caratteristiche di . Quindi il processo di localizzazione è uguale alla ricerca del vettore di caratteristiche più simile a . Idealmente, quando la differenza tra i due vettori di caratteristiche e è piccola, sarebbe vicino al vettore di forma obiettivo, che è la localizzazione prevista.

Qui usiamo la distanza euclidea per misurare la somiglianza di due vettori di caratteristiche. Quindi la procedura di localizzazione dell’iride è equivalente alla minimizzazione della seguente funzione obiettivo:

Let , dove è il vettore di coordinate iniziale, è l’offset da a , e (1) può essere riscritto come

Quando la funzione di estrazione delle caratteristiche è non lineare, la minimizzazione di (2) è un problema di programmazione non lineare. Il vettore di forma finale può essere ottenuto risolvendo il seguente problema di ottimizzazione:

Quindi il vettore di forma di localizzazione finale è

2.2. SIFT Feature of Boundary

SIFT è un descrittore di caratteristiche locali dell’immagine comunemente usato. È ampiamente utilizzato in molti problemi di computer vision diversi. In questo documento, adottiamo una strategia simile, estraiamo i vettori di caratteristiche SIFT dei punti chiave sul confine dell’iride per la localizzazione. La figura 5 illustra la caratteristica SIFT di diversi punti sul confine dell’iride. Questa figura indica che i quattro punti dati (etichettati come 1-4) sul confine esterno dell’iride hanno caratteristiche SIFT simili.

(a)
(a)
(b)
(b)

(a)
(a)(b)
(b)

Figura 5
caratteristica SIFT di diversi punti. (a) posizioni dei punti di bordo selezionati; (b) caratteristica SIFT dei quattro punti selezionati.

2.3. Algoritmo SDM

Sostituendo il vettore di caratteristiche SIFT nel problema di ottimizzazione in (3), si ottiene un problema di programmazione non lineare. L’algoritmo SDM adotta l’apprendimento supervisionato per ottenere il vettore di iterazione ottimale dal vettore di forma corrente all’obiettivo. È un algoritmo iterativo per risolvere il problema di ottimizzazione.

Questo algoritmo stabilisce un modello di regressione lineare tra l’offset del vettore di forma e la caratteristica del vettore di forma corrente

Poi il vettore di forma corrente e il vettore di offset possono essere calcolati iterativamente, per ottenere il vettore di posizione desiderato: .

Per ridurre la possibilità di cadere in un minimo locale, SDM adotta diverse iterazioni per ottenere una serie di e dove è il numero di iterazioni ed è la coordinata del terzo punto del vettore forma alla terza iterazione.

3. Metodo proposto

3.1. Determinazione della pupilla

Quando le immagini dell’iride sono prese dall’attrezzatura nel vicino infrarosso, c’è una grande differenza tra la pupilla e l’iride. Qui, adottiamo una strategia di localizzazione della pupilla “da grossolana a fine”. In primo luogo, una posizione approssimativa della pupilla è ottenuta da RST; poi la localizzazione accurata è ottenuta dall’operatore Itg-Diff.

L’operatore Itg-Diff è proposto da Daugman. La formula è data come segue: dove è una funzione liscia, è l’operatore di convoluzione, è l’immagine, è il centro del confine circolare, ed è il raggio.

L’operatore calcola la differenza di grigio anulare lungo la direzione radiale nell’immagine dell’iride e cerca la differenza massima.

3.2. Apprendimento SDM

In questo lavoro, selezioniamo 32 punti chiave sul confine esterno dell’iride. La figura 6 illustra le posizioni di questi punti. Tra questi, le palpebre superiori e inferiori contengono 13 punti separatamente, e gli archi sinistro e destro del confine dell’iride hanno 4 punti, rispettivamente. La figura 6(a) è l’immagine di allenamento con punti marcati sulle palpebre superiori e inferiori, dove i punti 1, 13, 14 e 26 sono rispettivamente i punti di intersezione delle palpebre e del bordo esterno dell’iride; la figura 6(b) è l’immagine di allenamento senza intersezione delle palpebre inferiori e dell’iride, dove il punto più basso sul bordo esterno dell’iride è segnato come i punti dal 14 al 26; La figura 6(c) è l’immagine di allenamento senza intersezione delle palpebre superiori e dell’iride, dove il punto più alto sul bordo esterno dell’iride è segnato come i punti dal 1° al 13°; la figura 6(d) mostra il vettore di forma medio di tutti i campioni di allenamento. Le caratteristiche SIFT dei punti contrassegnati sono calcolate per ogni immagine nel database e e , che sono salvati come i parametri appresi della regressione lineare, sono ottenuti risolvendo la (6).

(a)
(a)
(b)
(b)
(c)
(c)
(d)
(d)

(a)
(a)(b)
(b)(c)
(c)(d)
(d)

Figura 6
Esempi di punti chiave etichettati. (a) Punti chiave etichettati sull’iride occlusi dalle palpebre superiori e inferiori. (b) Punti chiave etichettati sull’iride occlusi dalla palpebra superiore. (c) Punti chiave etichettati sull’iride occlusi dalla palpebra inferiore. (d) Forma media di tutti i punti chiave etichettati.

3.3. Localizzazione dei punti chiave

Nel processo di localizzazione, il confine esterno dell’iride è inizializzato in base ai parametri di localizzazione della pupilla e alla forma media. La figura 7 illustra il processo di cambiamento della forma dopo diversi passi di iterazione. La figura 7(a) dimostra i punti chiave iniziali. Le figure 7(b), 7(c), e 7(d), rispettivamente, mostrano le forme localizzate, che sono ottenute dopo una, due e tre iterazioni.

(a)
(a)
(b)
(b)
(c)
(c)
(d)
(d)

(a)
(a)(b)
(b)(c)
(c)(d)
(d)

Figura 7
Illustrazione dei passi di iterazione. (a) Inizializzazione dei punti chiave. (b) Punti chiave dopo un’iterazione. (c) Punti chiave dopo due iterazioni. (d) Punti chiave dopo tre iterazioni.

L’immagine dell’iride che abbiamo usato è scalata alla lunghezza del lato. Il numero di iterazione .

3.4. Stima dei confini

Con questi punti chiave ottenuti da SDM, l’algoritmo IRLS è adottato per localizzare il confine dell’iride e delle palpebre. Il confine esterno dell’iride e delle palpebre (in alto e in basso) sono adattati da cerchio e parabole separatamente.

3.4.1. Linearizzazione dell’equazione del cerchio

Un’equazione standard del cerchio è dove e sono le coordinate orizzontali e verticali del punto sul cerchio e , , e sono i parametri. L’equazione circolare può essere scritta come

Let , , ; allora l’equazione del cerchio può essere scritta come

3.4.2. Linearizzazione della funzione parabolica

Una funzione parabolica standard può essere data come segue:

Allora la funzione risulta essere

Let , , ; allora la funzione parabolica potrebbe essere data come

3.4.3. Stima dei parametri tramite IRLS

Quando le funzioni circolari e paraboliche sono illustrate come (10) e (13), le funzioni non lineari originali diventano lineari. I parametri di queste funzioni possono essere risolti con metodi legati ai minimi quadrati. Qui usiamo IRLS per stimare questi parametri sconosciuti.

Assumiamo che la deviazione del terzo punto sia , . Per rendere la regressione robusta, usiamo la funzione bisquare come funzione di peso, che è ; è la larghezza di banda. Poi il seguente problema di ottimizzazione sarebbe ottenuto minimizzando l’errore quadratico ponderato dove sono le coordinate dei punti chiave th ottenuti da SDM.

Qui usiamo IRLS per risolvere (14). La funzione iterativa è

Il processo risolutivo è realizzato da una funzione integrata in Matlab. La figura 8 illustra i punti chiave e i confini finali localizzati. I punti chiave sul confine esterno dell’iride e sulle palpebre superiori e inferiori sono ottenuti da SDM. I confini continui sono calcolati da IRLS.

Figura 8
Risultato della segmentazione.

4. Risultato sperimentale e analisi

L’algoritmo proposto è stato testato su un dispositivo monoculare di acquisizione dell’iride TCI 311, che è prodotto da Techshino Technology Inc, Pechino. Si tratta di una telecamera a infrarossi con lente primaria. La distanza di cattura è di 8-10 cm. La risoluzione dell’immagine dell’iride è . Costruiamo un database dell’iride contenente 700 immagini con questo dispositivo.

L’esperimento viene effettuato su un computer con CPU Intel Core i5, 2 GB di RAM, e il sistema operativo è Windows 7 Professional 32-bit. L’algoritmo è codificato in Matlab 2014b e C++.

Nel nostro esperimento, le immagini di allenamento e di verifica sono selezionate a caso dal database delle immagini per la convalida incrociata. Il rapporto delle immagini di formazione e di verifica è 7 : 3.

Il tasso di errore e il tasso di fallimento della precisione di localizzazione sono definiti come segue: dove e denotano la posizione di prova e la posizione vera del punto iesimo sull’immagine campione jesimo, rispettivamente. rappresenta la distanza euclidea. e denotano la lunghezza e la larghezza del rettangolo minimo circoscritto di tutti i punti chiave sull’immagine campione th. Secondo la definizione, misura l’errore del punto campione ed è il tasso di errore di localizzazione.

Il tasso di errore cumulativo è definito come segue:

Il tasso di errore cumulativo è definito come segue:

Qui, e sono i criteri di valutazione, ed è una funzione indicatore:

La figura 9 mostra e curve. La figura 10 mostra il risultato della localizzazione con il metodo proposto. La tabella 1 illustra il confronto delle prestazioni della localizzazione dei confini dell’iride e delle palpebre con Itg-Diff e l’algoritmo proposto. La figura 11 confronta i risultati ottenuti dall’operatore Itg-Diff e dal metodo proposto, dove la prima linea è il risultato dell’operatore Itg-Diff e la seconda linea è il risultato del metodo proposto. Questi confronti dimostrano che il metodo proposto ha prestazioni di localizzazione più stabili dell’operatore Itg-Diff in un’immagine dell’iride rumorosa, specialmente con grandi punti luce, cornici di occhiali, e così via.

Parte localizzata Itg-Diff Algoritmo proposto
Iris 99.2% 99.5%
Eielidi 99.6% 99.6%
Tabella 1
Accuratezza della segmentazione dei diversi metodi.

(a)
(a)
(b)
(b)

(a)
(a)(b)
(b)

Figura 9
Curve di errore cumulativo su test set. (a) Proporzione di errore attraverso il quadrato medio radice cumulativo. (b) Proporzione di errore attraverso il tasso di fallimento cumulativo.

Figura 10
Risultati di segmentazione con il metodo proposto.

(a)
(a)
(b)
(b)
(c)
(c)
(d)
(d)
(e)
(e)
(f)
(f)
(g)
(g)
(h)
(h)

(a)
(a)(b)
(b)(c)
(c)(d)
(d)(e)
(e)(f)
(f)(g)
(g)(h)
(h)

Figura 11
Risultati di segmentazione con diversi metodi (la prima e la seconda riga sono ottenute da Itg-Diff e dal metodo proposto separatamente).

Questo perché l’operatore Itg-Diff si basa sulle informazioni del gradiente sul vicinato. È sensibile alla variazione locale dell’intensità. Quando le immagini dell’iride contengono punti luminosi, palpebre, ciglia, montature di occhiali e così via, l’operatore Itg-Diff probabilmente produce segmentazioni errate.

Mentre la caratteristica SIFT è generata su un’area locale relativamente grande, è più robusta alla rotazione dell’immagine, alla variazione di luminosità, al ridimensionamento della scala e al rumore rispetto alle informazioni di gradiente. Questo migliora la robustezza dell’algoritmo di localizzazione.

La tabella 2 mostra il tempo di esecuzione del metodo proposto e degli altri due metodi. Ci vuole una media di 26,7 ms per localizzare un’immagine dell’iride nel nostro esperimento, che è molto efficiente rispetto agli algoritmi comparati.

Metodi Itg-Diff ED + Radon Algoritmo proposto
Tempo 600 ms 153.7 ms 26.7 ms
Tabella 2
Tempo di calcolo dei diversi metodi. Conclusioni

In questo articolo, viene proposto un efficiente algoritmo di localizzazione dell’iride basato su un modello di ottimizzazione. In primo luogo, RST e l’operatore Itg-Diff sono usati per localizzare la pupilla; poi i punti chiave sul confine esterno dell’iride sono rappresentati da caratteristiche SIFT e localizzati da SDM. Infine, i parametri del confine esterno dell’iride sono determinati da IRLS.

Il contributo principale di questo articolo potrebbe essere riassunto come segue. Viene sviluppato un modello di ottimizzazione per la localizzazione dell’iride. La caratteristica SIFT è usata per la rappresentazione dei confini dell’iride, che è più robusta delle informazioni del gradiente. Viene introdotto l’algoritmo SDM per risolvere il problema della localizzazione dell’iride, che può generare i punti chiave del confine esterno dell’iride.

I risultati sperimentali indicano che il metodo proposto può localizzare il confine esterno dell’iride e le palpebre superiori e inferiori in modo efficiente e robusto.

Conflitti di interesse

Gli autori dichiarano di non avere conflitti di interesse.

Riconoscimenti

Questo lavoro è supportato dal National Natural Science Funds of China, no. 61703088, dal Doctoral Scientific Research Foundation of Liaoning Province, no. 20170520326, e “the Fundamental Research Funds for the Central Universities,” N160503003.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.