China and the U.S. both dominate the AI industry, with both countries leading in patents and academic research. Tech giant IBM has the largest AI patent portfolio, with 8,920 patents, ahead of Microsoft with 5,930.

Yet with respect to facial recognition, there have been more than 900 facial recognition patents filed in China — almost 10 times more than the number of patents filed in the U.S., according to data analysts CB Insights.

UN WIPO – World Intellectual Property Organization

***

L’utilizzo del riconoscimento facciale attraverso la tecnologia non è una innovazione di questi anni, ma nasce nel 1963 dalle teorie del matematico e informatico Woodrow Wilson Bledsoe, dottore alla Panoramic Research di Palo Alto. Alla fine del gennaio del 1963, Bledsoe pubblica per la King-Hurley Research Group, società finanziata dalla CIA, un report innovativo destinato a cambiare le possibilità future della sicurezza e del mercato.
Si tratta dello studio intitolato A proposal for a study to determine the feasibility of a simplified face recognition machine (qui il pdf in versione integrale del documento scansionato), una prima incursione nelle teorie sulla ricognizione facciale in cui Bledsoe analizza il nocciolo principale della questione: la possibilità di creare, con le tecnologie esistenti, un sistema in grado di riconoscere una identità sconosciuta attraverso una singola fotografia con una singola angolazione. Nel 1964, esce un secondo studio, Facial recognition project report (qui il pdf in versione integrale del documento scansionato) che risponde, dopo attenta valutazione, non solo alla prima domanda: il professore si spinge ancora più in là, chiedendosi se è fattibile risolvere il problema del riconoscimento facciale a un livello più complesso, ovvero risalire a una identificazione attraverso più foto dello stesso soggetto, con differenti angolazioni e con luci e ombre diverse. Come “ordinare” a un sistema di fare questo? Con quali macchine, con quale linguaggio, con quali connessioni? Bledsoe giunge alla conclusione che per il suo tempo, gli anni Sessanta, il riconoscimento facciale su larga scala è una ipotesi troppo avanzata e che non ci sono mezzi adeguati per far sì che diventi una realtà attuabile.

L’idea di un sistema che attraverso una fotografia permette l’identificazione di una persona, è però per i governi troppo importante per venire scartata e l’eredità di Bledsoe, che nel 1966 si ritira dalla ricerca, viene raccolta negli Stati Uniti da Peter Hart, professore di Stanford, ma proseguita anche a livello globale. Lo studio sul riconoscimento facciale viene silenziosamente portato avanti di pari passo con l’evoluzione dei sistemi tecnologici, soprattutto con grandi input da parte della ricerca giapponese, fino al momento in cui attraverso database di ogni genere (dove è prevista una foto), attraverso telecamere di sorveglianza pubbliche e private e le reti sempre più potenti e connesse tra loro, si crea l’effettiva possibilità per il suo utilizzo in ambito di sicurezza. Prima degli ultimi passi da gigante dell’intelligenza artificiale infatti (cioè fino a ieri), il riconoscimento facciale era, a livello globale, sempre un sistema applicato alla sicurezza che permetteva attraverso la comunicazione tra database, di compiere una ricerca e confrontare una o più foto di un soggetto, con milioni di altre immagini archiviate. Ci si spingeva fino a riscontri limitati da una probabilità di esattezza abbastanza bassa, anche a causa della qualità delle immagini principalmente estrapolate da fotogrammi di videoriprese.
Oggi siamo arrivati al livello superiore, quello dell’intelligenza artificiale applicata al riconoscimento facciale, un sistema biometrico estremamente sofisticato e potente, basato su strumenti e mezzi altrettanto sofisticati e potenti, che permette di riconoscere un volto ed estrapolare l’identità di una persona in movimento attraverso una folla, con una precisione altissima.
Dietro il momento in cui il software (oggi ne esistono diversi) identifica un viso, c’è un movimento di dati impressionante ma soprattutto ci sono le sabbie mobili dell’innovazione, terreno instabile e pericoloso soprattutto se si parla di etica.
L’etica applicata all’Intelligenza Artificiale è una questione delicata e controversa, largamente dibattuta, che coinvolge il mondo dell’ IT ad ogni livello; appelli accorati a una disciplina morale e sociale che oggi ancora non esiste, vengono da parte di organismi di ricerca e controllo come il recente (2017) AI Now Institute della New York University, un centro inaugurato dall’amministrazione Obama che si occupa di studiare l’impatto positivo e negativo dell’applicazione dell’Intelligenza Artificiale nella società, istituto in cui si impegnano esperti e tecnici delle grandi compagnie americane da Google a Microsoft. E’ da qui che nascono e si esprimono i dubbi maggiori e le discussioni principali legati a questo ambito, in cui le responsabilità si perdono nel momento in cui, in centri come la Silicon Valley, progetti e test vengono approvati e finanziati il più in fretta possibile per nutrire e approfittarsi del difetto principale del mercato: la sua voracità. L’Intelligenza Artificiale applicata alla ricognizione facciale è uno degli argomenti catalizzatori di flussi monetari enormi e l’importanza della sua evoluzione è primaria per i governi oltre che per i mercati. I primi intendono applicarla come sistema di sorveglianza e sicurezza primario, con vantaggi che sembrano enormi nei casi di crimini e dell’antiterrorismo, mentre i secondi ne intravedono le infinite potenzialità che già oggi si stanno concretizzando velocemente, come il tracciamento negli acquisti o il riconoscimento facciale delle emozioni.

Facial recognition and affect recognition need stringent regulation to protect the public interest. Such regulation should include national laws that require strong oversight, clear limitations, and public transparency. Communities should have the right to reject the application of these technologies in both public and private contexts. Mere public notice of their use is not sufficient, and there should be a high threshold for any consent, given the dangers of oppressive and continual mass surveillance.

AI Now Insititute

 

Oggi abbiamo esempi di riconoscimento facciale sul quotidiano grazie a social come Facebook, che ha sviluppato un proprio algoritmo interno in grado di riconoscere una identità grazie ai dati archiviati attraverso ogni singola foto individuale postata in precedenza. Il tag automatico, emerso per errore, subito nascosto e passato inosservato ai più, implica che i dati elaborati da Facebook per arrivar a quella semplice domanda (Vuoi taggarti nella foto?) provengono da un archivio la cui nostra percezione è astratta, ma che concretamente conserva ed elabora ogni singola immagine pubblicata da un account e da quelli ad esso collegati. L’anormalità di questo sistema, a prescindere dalla netta violazione della morale connessa alla privacy attuata dal social stesso, è misurabile attraverso il modello della Cina e dei suoi social scores.

In Cina il riconoscimento facciale è una realtà più che concreta, è una delle basi del sistema sociale di governo, non solo in ambito della pura sicurezza e la Cina conta di essere il leader dell’Intelligenza Artificiale applicata al sistema entro il 2033, nell’ambito di un mercato valutato da solo intorno ai 9 miliardi di dollari . Oggi quasi ogni singolo cittadino cinese (ricordo, quasi un miliardo e mezzo di persone) è inserito all’interno del sistema di riconoscimento facciale e ad ogni cittadino viene assegnato un punteggio sociale basato sulle sue azioni nella vita reale e in quella virtuale, un sistema di privilegi e punizioni che non risparmia nessuno e che ha molto a che fare con il controverso discorso incrociato dei big data. Forte del fatto che è impossibile vivere il quotidiano senza essere connessi e tracciabili, forte del numero di CCTV sparse per il paese (200 milioni di telecamere, negli Stati Uniti l’anno scorso erano 30 milioni) e forte della mancanza di democrazia che tiene sotto scacco una popolazione così numerosa, la Cina ha trasformato la sicurezza in un abuso.
Criminali e cittadini con un basso punteggio di social scores, sono tracciati costantemente dalle telecamere in mezzo alla folla e identificati, i visi proiettati su schermi giganti con dati e avvisi alla popolazione sui loro crimini, che siano ladri, evasori fiscali o troll su internet. I social cinesi acquisiscono tonnellate di dati che sono alla base del tracciamento online del singolo utente, le cui attività di trolling, la diffusione di fake news, la propaganda antigovernativa, le attività illecite, vengono sanzionate sia attraverso i social scores che, quando necessario, penalmente. Risulta molto difficile, per un cittadino cinese, sparire in una nazione di un miliardo e mezzo di persone dove persino i sistemi di sorveglianza privati sono collegati ai database delle autorità, garantendo la sicurezza in un modo semplice ed efficace: il riconoscimento facciale permette che sia negato l’accesso al portone a individui segnalati nei database del governo. Semplicemente, sono moltissime le porte che non si aprono per chi non è un cittadino modello, dal supermercato a un ufficio, da una libreria a una università.
La Cina ha scelto di applicare questo modello di sorveglianza per garantire alla società una sicurezza e un benessere che sono ben lontani dal raggiungere: a Hong Kong le proteste di strada antigovernative vanno avanti da oltre due settimane e i manifestanti utilizzano ogni mezzo a loro disposizione per evitare il riconoscimento facciale che non darebbe loro scampo e che è impossibile da neutralizzare. Le videocamere di sorveglianza sono nascoste ovunque, dai caschi della polizia ai cassonetti: si protesta con il volto coperto da passamontagna, caschi o bandane, ma non basta. La tecnologia cinese è davvero temibile: la YITU Technology è la prima compagnia in assoluto a sviluppare sistemi di sorveglianza per la pubblica sicurezza, i due fondatori sono giovani cinesi cresciuti nel mito di Stephen Hawking e con una gavetta in Alibaba. La tecnologia YITU ha portato risultati economici e tecnici impressionanti: è valutata 2 miliardi di dollari a soli sette anni dalla sua apertura, con finanziamenti di oltre 400 milioni di dollari solo in Cina e la sua piattaforma di scan facciale riconosce una persona o una macchina in movimento in mezzo alla folla in pochissimi secondi attingendo a un database gigantesco.

 

Tutto questo è stato possibile grazie a un test di prova legato a un passato di autoritarismo e nazionalismo mai abbandonati,  passato che ha moltissimo a che fare con la persecuzione di musulmani e minoranze etniche, due presenze sopportate malissimo dal governo centrale. Sull’onda della repulsione per gli Uiguri islamici, minoranza turcofona del profondo est, sono nate in anni recenti realtà contenitive come Kashgar, dove la vita vera all’ombra della sorveglianza supera qualsiasi brutale fantasia distopica. Interrogatori di uomini, donne e bambini da parte della polizia cinese, delazioni retribuite, arresti e sparizioni, abusi amministrativi, checkpoint ogni pochi metri con corridoi di smistamento dove gli Uiguri devono essere fotografati, immessi nel sistema di riconoscimento facciale e autorizzati a proseguire verso il prossimo. La polizia ha un’autorità quasi totale e cittadini sia cinesi che Uiguri, possono venire fermati per strada per un controllo del cellulare: le app di tracciamento di percorsi e backup delle attività online sono obbligatorie e questo legittima i controlli sui cellulari. Kashgar si trova nello Xinjang, una provincia dove l’etnia Han cinese è una minoranza e dove i musulmani devono, secondo il governo centrale, essere rigidamente controllati e disciplinati. Il resto della Cina resta a guardare, a riprova che il pugno di ferro del Governo è ben saldo sulle velleità di rimostranza del popolo. Kashgar è una realtà conosciuta in Cina ma in Occidente no. Ne raccontano, in un reportage unico dell’aprile 2019 che ha sconvolto i media, tre autori del New York Times, che sono riusciti a girare e fotografare la vita quotidiana a Kashgar diffondendo le informazioni sopra riportate.

Le dinamiche del sistema di sorveglianza cinese a Kashgar si sono estese rapidamente ma in maniera più sottile a tutta la nazione. Ad oggi tutto il miliardo e mezzo di cinesi che è schedato nel sistema di riconoscimento facciale, è suo malgrado protagonista degli abusi del mercato oltre che delle autorità: si elaborano ogni giorno nuovi sistemi per sfruttare il tracciamento individuale, soprattutto per controllare come i cinesi, risparmiatori o milionari, spendono i loro soldi nei negozi. L’applicazione nel campo della sicurezza resta comunque il fondamento apripista della legittimità dell’utilizzo: una nazione così popolosa convive ogni giorno con furti di identità, truffe, ladri, rapimenti, aggressioni, immigrazione interna e la sorveglianza capillare, unita al riconoscimento facciale, sono la risposta all’esigenza di sicurezza e immediata risposta alle necessità.

Beijing, May 10, 2018. (Gilles Sabrie /The New York Times)

L’esigenza di sicurezza e il benessere sociale sono anche i pilastri delle argomentazioni degli Stati Uniti per l’utilizzo del sistema di riconoscimento facciale, ad oggi utilizzato dalla polizia ma anche negli aeroporti e nelle due frontiere Canada – Messico dal Customs and Border Protection. Il fine è quello di trovare soggetti criminali, persone scomparse, ladri di identità, irregolari e facilitare gli ingressi dimezzando i tempi dei controlli. Negli aeroporti americani il riconoscimento facciale non è un sistema obbligatorio nonostante venga applicato proprio come se il cittadino non avesse alternativa, uno dei punti che ha incendiato la polemica contro il sistema americano. Aderire a questo tipo di controllo significa finire in un database che il Governo americano ha ufficialmente dichiarato sicuro per le persone che transitano, con la garanzia che lo scan immesso nel sistema venga cancellato dopo 12 ore dall’ingresso nel Paese. Le associazioni di tutela dei diritti sollevano domande semplici che ad oggi trovano poche risposte, a causa della legislazione impotente contro la velocità di applicazione delle nuove tecnologie. Chi garantisce la sicurezza di questo database? Da uale sistema è protetto, quali sarebbero le informazioni reali che finirebbero in mano degli sconosciuti se il sistema venisse bucato? Chi garantisce che gli scan siano eliminati? Chi garantisce che i dati a corollario dell’identità individuale non finiscano in un database perpetuo? A che serve un database di riconoscimento facciale “temporaneo” se uno dei più grandi difetti dell’intelligenza artificiale è quello di non riuscire ad operare senza dati sufficienti?
Sembra infatti che in America il sistema di riconoscimento di Amazon abbia messo alla luce una debolezza dell’intelligenza artificiale applicata al sistema: l’AI di Amazon sarebbe in grado di raggiungere percentuali di match abbastanza alte quando si tratta di individui bianchi, ma meno funzionale e più approssimativo quando si tratta di riconoscere individui afroamericani o dalla pelle scura. La giustificazione si legge in una intervista su Business Insider dove la giornalista Michelle Yan intervista sulla questione WonSook Lee:

Michelle Yan: That’s WonSook Lee, a professor in the school of Electrical Engineering and Computer Science at the University of Ottawa. She has 15 years of expertise in facial recognition, facial modeling, and computer animation. Wait, did she just say the accuracy rate of facial recognition is almost perfect?

WonSook Lee: So almost perfect.

Michelle Yan: Almost perfect? There are all these headlines about facial recognition being racist or having preprogrammed biases. Why was Amazon’s “Rekognition” misidentifying dark-skinned women but identifying white men?

WonSook Lee: That’s basically because they don’t have a lot of database for African people. If we recognize the gender, or if we recognize the age, and then also if we recognize ethnic groups with their skin tone, we can raise the recognition system better.

 

La nostra società, a differenza di quella cinese, non sembra pronta, per sua natura, ad affrontare le questioni etiche derivanti dall’utilizzo del riconoscimento facciale come sistema di sicurezza e nemmeno di mercato. Sembra non essere pronta per accettarlo in nessuna delle sue implicazioni:

Face recognition is one of the most dangerous biometrics from a privacy standpoint because it can so easily be expanded and abused — including by being deployed on a mass scale without people’s knowledge or permission

AI Now Insitute

 

Nonostante la questione si presti a solide argomentazioni, come l’efficacia in ambito di contrasto del terrorismo, del crimine e della sicurezza civile nelle strade, il fatto che la tecnologia e la sua applicazione siano vertiginosamente più rapide del sistema di leggi porta a una debolezza di fondo che può implicare uno scenario simile a quello cinese: la mancanza di regolamentazione su più livelli, non meno importante quello del marketing, può causare una arretratezza difficile da recuperare. Una nazione può diventare velocemente schiava di scelte di governo approssimative o sottovalutate, impossibili da disciplinare perché nel frattempo cresciute selvaggiamente e radicate nel quotidiano.

In Italia la situazione è adeguata al resto del mondo. Non poteva essere altrimenti, il riconoscimento facciale nel sistema di sicurezza non è uno strumento che andrà a scomparire ma è una realtà a cui bisogna adeguarsi. Il Ministero dell’Interno ha annunciato ufficialmente nel 2018 di utilizzare il sistema SARI, basato sul database delle impronte digitali e su quello anagrafico (SSA – AFIS) in un micro trafiletto che annuncia:

Sono terminate, infatti, le fasi di sperimentazione del nuovo software della Polizia di Stato denominato “Sistema Automatico di Riconoscimento Immagini”.

S.A.R.I, questo il suo nome derivato dall’acronimo, riesce da un’immagine fotografica di un “soggetto ignoto” a effettuare una ricerca computerizzata nella banca dati A.F.I.S., e grazie a due algoritmi di riconoscimento facciale, è in grado di fornire un elenco di immagini ordinato secondo un grado di similarità.

Sono però sempre gli operatori specializzati della Polizia scientifica ad effettuare la necessaria comparazione fisionomica. Questo – in caso di “match” – consente di integrare l’utilità investigativa del risultato anche con un accertamento tecnico a “valenza dibattimentale”.

 

Il Garante della Privacy nel luglio 2018 sembra approvare la legittimità di questo sistema, in quanto già previsto dalla legge in un decreto del maggio 2017 e predisposto da normative precedenti :

Il trattamento dei dati biometrici ricavabili anche dall’immagine facciale, effettuato dalle forze di polizia a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, è previsto e disciplinato da una pluralità di fonti normative […]
Tale trattamento, come ricordato in premessa, è riportato nel decreto del Ministro dell’interno 24 maggio 2017, recante l’individuazione dei trattamenti di dati personali effettuati con strumenti elettronici e i relativi titolari, in attuazione dell’art. 53, comma 3, del Codice e la cui vigenza è confermata, in via transitoria, dall’art. 49 del Decreto, fino all’adozione della diversa disciplina da adottarsi in applicazione del medesimo Decreto.
I dati personali oggetto di trattamento consistono, ai sensi dell’art. 2, lettera o), del Decreto, in dati biometrici, sub specie di “caratteristiche […] di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale […]”

Secondo il Garante della Privacy, le funzioni di SARI sono limitate e disciplinate. Se prima si trattava di utilizzare l’AFIS-SSA in questo modo:

In riscontro alla richiesta di chiarimenti del Garante, il Ministero ha precisato che il sistema è destinato ad affiancare il sistema AFIS-SSA, per fornire all’operatore un efficiente supporto informatico che ne agevoli l’attività di indagine.
Il sistema AFIS-SSA, attualmente in uso, consente di effettuare ricerche nell’archivio dei soggetti fotosegnalati (A.F.I.S.), tramite l’opera manuale di un operatore, che deve inserire nei campi presenti nella maschera di interrogazione informazioni anagrafiche, connotati e contrassegni (ad esempio, colore dei capelli, degli occhi, di tatuaggi), al fine di individuare la presenza nell’archivio AFIS del soggetto ricercato.
con l’integrazione di SARI:
Il sistema SARI Enterprise, di prossima attivazione, non effettuerà elaborazioni aggiuntive rispetto al AFIS-SSA, ma si limiterà ad automatizzare alcune operazioni che prima richiedevano l’inserimento manuale di connotati identificativi, consentendo le operazioni di ricerca nel data base dei soggetti fotosegnalati attraverso l’inserimento di una immagine fotografica, che sarà elaborata automaticamente al fine di fornire l’elenco di foto segnaletiche somiglianti, ottenute attraverso un algoritmo decisionale che ne specifica la priorità.
Pertanto, l’utilizzo del sistema SARI-Enterprise costituisce non un nuovo trattamento di dati personali, già previsto e disciplinato dalle predette fonti, bensì un nuova modalità di trattamento di dati biometrici, che dovrà essere effettuata nel rispetto delle regole previste dalla normativa rilevante in materia di tutela dei dati personali
I dubbi sono moltissimi, anche perché questa approvazione si riferisce all’implementazione di SARI nell’asse AFIS-SSA, detta modalità Enterprise, per quanto riguarda l’automatismo, prevedendo comunque un approccio finale umano alla verifica del dato, ma non fa riferimento alla modalità di riconoscimento facciale in modalità Real Time, che andrebbe a sfruttare un database di almeno nove milioni di cittadini per riconoscere in un secondo e mezzo la fotografia inserita nel sistema o un volto catturato dalle telecamere in mezzo alla folla.
Questa modalità è più lesiva della privacy e più fragile a livello di accettazione e gestione. Prevede l’utilizzo di sistemi di ripresa in eventi, luoghi pubblici, aree affollate così come l’archiviazione delle riprese per creare un database i cui dati vanno ad accrescere la percentuale di riconoscimento, migliorando via via le funzionalità di SARI in Real Time. Significa che i tifosi fuori dallo stadio così come i cittadini per strada nella notte di Capodanno, possono essere ripresi, finendo “schedati e scannerizzati” in un archivio video che il Garante della Privacy ricorda rigidamente limitato (le riprese video fatte dalle ff.oo devono essere distrutte dopo 7 giorni salvo richieste dettagliatamente motivate). Anche qui la contraddizione tra le necessità di miglioramento della tecnologia e le dichiarazioni sulla disciplina sono evidenti. Il primo impatto sociale di questa tecnlogia è certamente quello della percezione di una censura o minaccia governativa: facile che la pressione data dalla consapevolezza di essere filmati durante una manifestazione, soprattutto di protesta, porti molti cittadini ad escludersi preferendo non manifestare. In questo caso la soggezione del sistema di sorveglianza agisce come repressione di un diritto fondamentale dell’uomo e del cittadino, la libertà di espressione.
Scan facciale negli occhiali di una poliziotta cinese
Fonti e risorse:
Report di Wired.it dove si analizzano gli atti e le applicazioni, le contraddizioni e le motivazioni dell’utilizzo di SARI in Italia
Our Biometric Future Facial-Recognition Technology and the Culture of Surveillance 
Saggio completo della studiosa Kelly A. Gates, New York University, che traccia l’evoluzione del riconoscimento facciale attraverso le sue tappe globali fino all’applicazione contemporanea.

 

_______________________________________________________