Siete pronti a metterci la faccia?

Sì, in oriente. Nì, in occidente. La Facial Recognition è una tecnologia sempre più utilizzata, ma rimangono da sciogliere i nodi relativi alla privacy e ai diritti della persona. Ecco un altro ambito tecnologico dove rischiamo di perdere contro la Cina. Leggere per credere…

Per aprire il tornello del­la metropolitana basta uno sguardo. E per spe­dire un pacco è suffi­ciente un sorriso. Non è fantascienza, succe­de ogni giorno in Cina, dove le tecnologie per il riconoscimento facciale sono ovunque. E la privacy? È un problema relativo per chi è abituato a vivere sotto lo sguardo costante di centinaia di migliaia di teleca­mere, pronte a cogliere il minimo segnale di dissenso. Quello che succede dall’altra parte del mondo incuriosisce, fa sognare e spaventa anche un po’. A Shenzhen, per esempio, i 60enni salgono gratuitamen­te sul metrò senza biglietto né altro. Una volta registrati sul sito della società di tra­sporto pubblico, i tornelli intelligenti si aprono automaticamente al passaggio di una faccia… conosciuta.

Alla base di tutto chi c’è? Il gigante tec­nologico Tencent. L’altro colosso Ali­baba, attraverso la controllata Cainiao Network, non vuole essere da meno. Così, punta a permettere di spedire un pacco confermando con il proprio volto invece di firmare documenti, come ac­caduto fino a ora. Sono già pronte oltre 300 stazioni logistiche situate in otto di­verse località della Cina.

IN CERCA DI REGOLAMENTAZIONELa domanda però è lecita: chi in Europa o negli Stati Uniti – dove al massimo siamo arrivati a sbloccare il nostro smartphone con uno sguardo – sarebbe pronto a utilizzare il proprio viso come strumento di pagamento e password? Probabilmente solo pochi tecnottimisti. Intanto, le autorità civili richiamate all’attenzione su questo tema stanno frenando l’espansione dei sistemi di controllo e face recognition. Le big tech, a partire da Microsoft, hanno iniziato a cancellare interi database di immagini. Mentre Google è stata costretta, tra le polemiche, a interrompere il reclutamento “aggressivo” dei senzatetto di Atlanta, ingaggiati per allenare il riconoscimento facciale dei prossimi dispositivi in arrivo. Il provvedimento più forte, però, l’ha preso l’amministrazione di San Francisco, che ha vietato l’uso di tali tecnologie alle agenzie governative, polizia compresa. L’hanno presto imitata Somerville e poi Oakland, sempre in California. Secondo Luke Stark di Harvard, il riconoscimento facciale è «il plutonio dell’intelligenza artificiale: queste tecnologie hanno delle falle insormontabili dovute al modo in cui schematizzano i volti, rinforzando categorizzazioni negative su razza e genere, con effetti sociali tossici». Sembrano confermarlo anche i risultati delle sperimentazioni portate avanti a Londra tra il 2016 e il 2018: nel 96% dei casi, le persone identificate dalle videocamere come potenziali criminali erano, invece, normali cittadini.

Poco male: queste perplessità non hanno impedito alla compagnia aerea Emirates di chiedere e ottenere dall’agenzia americana di protezione delle frontiere (U.S. Customs Border Protection) l’autorizzazione a effettuare il check-in dei passeggeri in partenza per gli Stati Uniti attraverso il riconoscimento facciale al gate.

Questa tecnologia – in rampa di lancio anche nello scalo milanese di Linate – riduce a due secondi il tempo per il controllo di identità e accelera le procedure di imbarco: attenzione, non serve una pre-registrazione e i passeggeri possono scegliere di non avvalersi di tale sistema. «Il nostro obiettivo finale è aiutare i passeggeri a viaggiare “senza carta”, senza la necessità di passaporti e documenti di identità», è la strategia ambiziosa annunciata dal vicepresidente di Emirates Group Security, Abdulla Al Hashimi.

PALETTI COMUNITARIQuanto vale, dunque, questa comodità? Quanta parte della nostra privacy siamo disposti a cedere per sfruttare i vantaggi del progresso? Le domande sono sempre le stesse, nate all’alba della connettività, ma ora esigono una risposta. Nell’Ue, sia il Gdpr sulla privacy sia la Direttiva Polizia prevedono limiti alla possibilità di trattare dati biometrici per finalità speciali. Il Gdpr, per esempio, equipara questi dati a quelli etnici, sanitari o genetici, di cui è vietato il trattamento, se non in presenza di determinate condizioni di liceità. E il sentimento generale verso queste tecnologie è ben differente. Basta guardare la bufera nata attorno all’app Alice, proposta dal governo francese per implementare l’identità digitale: la richiesta dei dati biometrici ha fatto scendere sul piede di guerra le associazioni dei consumatori. Una reazione simile aveva suscitato la scoperta dell’esistenza del Sistema automatico di riconoscimento delle immagini (Sari) in uso da parte delle forze di polizia italiane. Il Financial Times a fine agosto ha svelato che la Commissione europea sta lavorando a un regolamento esplicitamente pensato per i diritti relativi ai dati sul riconoscimento facciale. Nelle intenzioni dell’ente Ue ci sarebbe quello di far conoscere ai cittadini europei «quando e come vengono utilizzati i dati», e con ogni eccezione «strettamente circoscritta», per garantire un uso appropriato di questo potente strumento. Era stata proprio la nuova presidente Ursula von der Leyen a dichiarare la sua volontà di intervenire entro i primi 100 giorni del suo mandato sul tema legato alle implicazioni etiche dell’intelligenza artificiale.

«Lo scopo del Gdpr non è limitare l’uso di queste tecnologie, anzi di agevolarlo per favorire lo sviluppo dell’economia digitale, tutelando i diritti degli interessati», avverte l’avvocato Carola Caputo del Digital&Law Department dello Studio legale Lisi. «Il D.Lgs. 196/2003 (il cosiddetto Codice privacy, recentemente modificato) attribuisce al Garante per la protezione dei dati personali il compito di adottare misure di garanzia e di stabilire ulteriori condizioni di liceità del trattamento dei dati genetici, biometrici e relativi alla salute. In attesa che tali misure siano definite, resta valido come riferimento il Provvedimento generale in materia di biometria del 2014. L’auspicio è di arrivare quanto prima alla completa definizione del quadro regolatorio, indispensabile per creare il clima di fiducia necessario che dia garanzie agli investitori. Le tecnologie biometriche, in particolare, presentano potenzialità di impiego assai ampie dal settore sanitario, alla gestione del rapporto di lavoro, al commercio elettronico». «Il tema della protezione dei dati personali, d’altra parte, riguarda tutte le tecniche di riconoscimento biometrico, non solo i sistemi di facial recognition. In Cina, per esempio, se ne fa un uso indiscriminato per finalità di tracciamento e controllo generalizzato degli individui, nell’Unione europea per fortuna esistono maggiori tutele», aggiunge l’avvocato. «L’uso di sistemi biometrici, in virtù della delicatezza dei dati oggetto di trattamento, può presentare rischi elevati per gli interessati. Per questo, in presenza di un trattamento sistematico di dati biometrici si rende necessaria l’esecuzione di una valutazione d’impatto sulla protezione dei dati (Dpia). Facendo un esempio concreto», aggiunge Caputo, «il Garante della privacy, chiamato a esprimersi su uno schema di decreto attuativo della cosiddetta “Legge concretezza”, ha rilevato profili di dubbia compatibilità con la disciplina in materia di protezione dei dati personali. Lo schema del provvedimento, infatti, prevede l’impiego contestuale e obbligatorio di due sistemi di verifica del rispetto dell’orario di lavoro (raccolta di dati biometrici e videosorveglianza), in contrasto con il principio di stretta necessità del trattamento rispetto al fine perseguito. Per altro aspetto, l’utilizzo sistematico di rilevazione biometrica in tutte le PA – senza alcuna valutazione preventiva dei fattori di rischio che lo giustifichino – pone di fatto sullo stesso piano l’ufficio comunale di un paesino di campagna e un centro di ricerca nucleare ad alta sicurezza».

FALSI PROBLEMIDal punto di vista del business, quindi, lavorare sulla face recognition in Europa è più complicato che altrove, ma questo vale per tutte le applicazioni dell’AI e per quelle di machine learning in particolare. Così la pensa Fabrizio Falchi, ricercatore dell’Istituto di scienza e tecnologie dell’informazione del Cnr: «Con la face recognition posso essere riconosciuto ovunque, ma se lo smartphone che porto in tasca ha il Gps attivo sono già immediatamente localizzabile dalle grandi aziende che ritengo meno affidabili». Come si può combattere la concorrenza estera e conquistare nuovi mercati partendo dall’Europa? «Servono grandi idee da vendere all’estero, ma anche clienti avanzati tecnologicamente e database enormi di dati per far lavorare il machine learning. Per questo è complicato vendere face recognition sviluppato in Europa in Cina: la mia tecnologia, magari avanzatissima, può essere battuta da un loro algoritmo meno avanzato, ma allenato su più dati», aggiunge lo scienziato. «Può valere invece il discorso inverso: un’azienda europea può rivolgersi al mercato comunitario presentando il proprio algoritmo e garantendo il trattamento corretto dei dati. Attraverso questa strada si possono creare e vendere prodotti che attirino maggiormente la fiducia dei clienti». E i possibili approdi di questo lavoro esistono già: «Facebook offre la possibilità di scovarsi nelle foto postate da altri. Oggi è tecnicamente possibile rintracciare sul web e foto dove si è stati immortalati involontariamente per chiederne la rimozione. L’analisi di questi dati aperti è possibile ed è un trend in crescita».

Articolo pubblicato su Business People. dicembre 2019

© Riproduzione riservata