Gli algoritmi di riconoscimento facciale sono sempre più precisi, anche con le mascherine


Cina e Russia rimangono tra i paesi in cui l’impatto delle intelligenze artificiali mette a rischio i diritti umani, ma il problema è globale: cosa dice l’ultimo studio del National Institute of Standard and Technology americano

L’ente governativo americano Nist – acronimo di National Institute of Standard and Technology – prosegue con gli studi sugli algoritmi di riconoscimento facciale. Ad alcuni mesi dal primo, la nuova pubblicazione riporta interessanti conclusioni: per la prima volta sono state misurate le performance di algoritmi post pandemici, sempre più accurati nell’autenticare volti anche coperti da mascherine chirurgiche.  

Dalla fine di marzo 2020 Nist ha analizzato altri 65 algoritmi (in totale 152) calcolandone l’accuratezza one-to-one, ovvero attraverso la comparazione di due fotografie della stessa persona all’interno di database differenti, uno realizzato con le immagini dei controlli di polizia al confine con gli Usa e l’altro contenente immagini di cittadini immigrati su suolo americano. Un esempio per capire meglio a cosa ci riferiamo quando parliamo di corrispondenza one-to-one è lo sblocco del telefono: secondo lo studio del Nist, se per sbloccare il telefono impostiamo una nostra foto con mascherina sul volto la probabilità che un estraneo riesca ad accedervi è sensibilmente più alta. 

L’esperimento ha una serie di limiti da considerare non ultimo quello relativo alle immagini utilizzate: è importante sottolineare che le fotografie sono state acquisite cooperando con il soggetto ritratto e non attraverso videocamere o altre modalità. Nella realtà, infatti, avere immagini che inquadrano perfettamente il volto di una persona è molto più difficile. 

Ad ora, secondo i ricercatori, Idemia e Pensees sviluppano gli algoritmi più accurati sul mercato. La prima è francese, la seconda ha quartier generale a Singapore. Nessun algoritmo è stato creato per identificare volti coperti bensì adattato alla situazione attuale. 

Il team di ricerca ha diviso le fotografie in due gruppi: quelle degli immigrati su suolo americano, migliori per risoluzione, hanno composto il gruppo di controllo; le immagini della polizia di frontiera, meno accurate, sono state modificate applicando digitalmente una mascherina chirurgica di varie forme, colore, texture e copertura. 

Mascherine di colore e forma diversa applicate digitalmente nell’esperimento del Nist (foto: B. Hayes, M. Ngan/Nist)

Un problema trasversale osservato sia nel precedente che in quest’ultimo studio è quello dei falsi negativi: a parte alcune eccezioni, la probabilità che un individuo con il volto coperto non sia riconosciuto da un algoritmo è ancora alta. Prendendo le immagini di attraversamento della frontiera, quindi non mascherate, gli algoritmi più accurati non riescono ad autenticare lo 0,3% delle persone e falsano la corrispondenza di 1 individuo su 100.000. Se il volto è coperto fino al 70% dell’area del viso però, anche gli algoritmi più accurati hanno comunque un tasso di fallimento che dallo 0,3% sale al 5%. Per quelli meno tolleranti la percentuale varia tra il 10 e il 40%. Questo in poche parole significa che la probabilità di non riconoscere il volto di una persona con il volto coperto attraverso i suoi dati biometrici, è molto alta. Con più probabilità quindi un individuo può essere scambiato con un altro oppure non riconosciuto, questione non da meno soprattutto per l’uso che si fa ora degli algoritmi di riconoscimento facciale (controllo e polizia predittiva, massimamente).

Rispetto ad altri casi in cui vi è la possibilità di fare un secondo tentativo per l’autenticazione del volto migliorando la luce, l’espressione o l’angolatura, in questo caso il miglioramento è quasi impossibile proprio perché l’algoritmo è fallace in partenza: non è infatti stato creato con lo scopo di autenticare volti parzialmente o molto coperti. Ed è proprio per questo motivo che le aziende produttrici stanno modificando e adattando i propri algoritmi. Secondo il team di ricerca del Nist, gli algoritmi analizzati e ora in commercio sono paragonabili a quelli presenti sul mercato nel 2017. Lo scarto fra algoritmi pre pandemici e algoritmi adattati al contesto pandemico è di 3 anni, non molto da un punto di vista tecnologico ma l’affidabilità è ancora lontana.  

La copertura del viso è certamente un fattore importante nel processo di autenticazione, per cui più la mascherina copre occhi naso e bocca e più sarà difficile trovare una corrispondenza valida. Rispetto allo studio precedente, il Nist ha testato anche mascherine di colori differenti al blu come ad esempio il nero, il rosso e il bianco. Secondo i ricercatori non è ancora chiara la correlazione tra colore di questa e la capacità di identificazione dell’algoritmo, ma sicuramente questo risultato può avere un impatto sull’allenamento e sui futuri sviluppi del riconoscimento facciale. All’atto pratico, con mascherine in texture differenti, molti algoritmi non solo non autenticano un volto ma nemmeno riescono a costruirne un template

Mascherine di colore e forma diversa applicate digitalmente nell’esperimento NIST.
Credit: B. Hayes, M. Ngan/NIST

Le aziende produttrici NTech Lab e Dahua Technology

Sugli algoritmi in sè, invece, non è dato sapere molto. Quelli sottoposti al NIST vengono testati solamente nel loro comportamento esterno, non è possibile capirne il funzionamento interno (in gergo, questi sistemi sono chiamate black box).

Tra le aziende che hanno inviato il loro algoritmo troviamo nomi abbastanza noti non solo per lo sviluppo di tecnologia biometrica, ma anche e soprattutto per le conseguenze problematiche che queste hanno nei loro paesi e fuori da essi. Una su tutte è Ntech Lab, start up russa nata appena cinque anni fa che fornisce la propria tecnologia a governi (in primis quello russo, gestendo più di 100.000 videocamere nella città di Mosca) e aziende altrettanto importanti come la cinese Dahua Technology. Come riportato da TechCrunch alcuni mesi fa, la start up moscovita ha concluso un investimento di 13 milioni di dollari finanziato dal Fondo per gli Investimenti diretti russo e due fondi sovrani, uno russo e l’altro anonimo ma proveniente dal Medio Oriente. Molto probabilmente l’azienda si espanderà cercando di vendere i propri prodotti anche ai governi latinoamericani (facendo concorrenza alla Cina), ma non solo: la start up ha l’intenzione di sondare anche il mercato dell’intrattenimento, della finanza e quello  ricettivo. Fra l’altro se Ntech Lab vi ricorda qualcosa è perchè una decina di anni fa ha sviluppato FindFace, app che consentiva di uploadare la foto di una persona e trovare un riscontro sul social media russo VKontakte. 

Sapere che gli algoritmi creati da questa azienda stiano migliorando la loro capacità di adattamento e autenticazione non è una buona notizia se unita alle dichiarazioni del Ceo Alex Minin: in un articolo di Forbes dello scorso anno quest’ultimo ha detto – omettendo quanto già fatto dalla polizia londinese con tecnologia NEC – che la Russia è dotata del primo sistema di riconoscimento facciale real time al mondo direttamente collegato con la polizia attraverso un’app, e che l’azienda sta lavorando all’implementazione del path tracking (riconoscimento della silhouette e delle distanze tra corpi). Oltre a ciò, in un’altra dichiarazione Minin ha affermato che nel momento in cui le persone sono “effettivamente monitorate” non c’è bisogno di “chiudere tutti nelle città”, sottintendendo che avere tutto sotto controllo è ciò che conta davvero a prescindere da chi ha in mano questa tecnologia. Un’interpretazione molto naif soprattutto se letta alla luce dei numerosi casi di discriminazione riscontrati nel mondo.

Nell’elenco di aziende si trovano anche Antheus Technologia (Brasile), Cortica (Israele), Imperial College di Londra, l’Università di Coimbra (Portogallo) e Bio Id Technology (Germania). Anche se la maggior parte sono realtà provenienti prevalentemente dagli Stati Uniti o dal Sud est asiatico: AsusTek Computer Inc., Acer, Canon information Technology Services Inc. e appunto Dahua Technology. Quest’ultima è stata blacklistata dal governo americano nel luglio 2019 perché ritenuta pericolosa per la sicurezza nazionale e la politica estera statunitense. In risposta ad una richiesta di informazioni sul tema inviata da Wired Italia, il Nist ha affermato che la natura del progetto portato avanti da quasi vent’anni è quello di fornire informazioni trasparenti e aperte, che aiutino la comunità internazionale ad avere una fotografia quanto più precisa dello stato dell’arte del riconoscimento facciale nel mondo. In nessun caso le tecnologie biometriche vengono esportate o trasferite da paesi terzi negli Usa, motivo per il quale anche Dahua Technology può prendere parte ai test.

In Cina comunque non tutti sono d’accordo all’utilizzo di tecnologie di riconoscimento facciale: come emerge da una recente ricerca di Beijing News realizzata su più di 1.500 cittadini cinesi, il 68% si è dichiarato contrario al riconoscimento facciale nelle aree residenziali, percentuale che aumenta fino all’87% nelle aree commerciali

Potrebbe interessarti anche





Vai all’articolo Originale!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

X