Stati Uniti e Razzismo: la tecnologia rimane neutrale?

Mi chiamo Margherita, italiana, migrante.

Gestisco un progetto globale sulla sicurezza dei confini e lo scambio responsabile di dati biometrici tra Stati al fine di prevenire il transito di soggetti sospettati di essere associati a reti terroristiche.

Per vocazione e professione quindi sono molto sensibile al rispetto dei diritti umani che, soprattutto nel mio ambito lavorativo, risultano molto spesso offuscati/soffocati sotto il mantello della sicurezza nazionale o internazionale, addirittura.

Ho sempre pensato ad alcune comunità statunitensiper esempio New York o San Francisco, come rari campioni pacifici di coesistenza di etnie che hanno sempre mantenuto marcati i loro caratteri identitari e culturali nelle più peculiari e libere espressioni.

Ho deciso di dedicare questo contributo al tema della (presunta) neutralità e accuratezza delle tecnologie che si occupano di verificare l’identità, principalmente attraverso sistemi di raccolta e riconoscimento dei dati biometrici. Si potrebbe credere che la tecnologia sia neurale rispetto ai colori della pelle e che darà sempre un vantaggio ai “buoni fini” nel suo impiego, seppur all’avanzamento dell’innovazione tecnologica vada di pari passo l’evoluzione dei metodi di frode in vari campi di applicazione.

Recentemente, il National Institute of Standards and Technology (NIST), equivalente americano dell’Istituto di Standardizzazione emissario dei protocolli ISO più comunemente adottati in Europa, ha pubblicato prove empiriche secondo cui la maggior parte degli algoritmi di riconoscimento facciale presentano “differenze demografiche” che possono peggiorare la loro accuratezza in base all’età, al sesso o alla razza di una persona. Dai campioni analizzati è infatti emerso che gli asiatici e gli afroamericani avevano fino a 100 volte più probabilità di essere identificati in modo errato rispetto ai bianchi, a seconda del particolare algoritmo e del tipo di ricerca. I nativi americani avevano il più alto tasso di falsi positivi di tutte le etnie. Ancora più allarmante il risultato che i volti delle donne afroamericane fossero i più falsamente identificati nei tipi di ricerca utilizzati dagli investigatori della polizia, dove un’immagine viene confrontata con migliaia o milioni (cosiddette ricerche “uno ad n”) di altre nella speranza di una corrispondenza per identificare un sospetto. Gli algoritmi più utilizzati negli Stati Uniti hanno anche mostrato alti tassi di errore per le ricerche “uno ad uno” di asiatici, afroamericani, nativi americani e abitanti delle isole del Pacifico. (The UN Compendium on Recommended Practices not he Use and Share of Biometrics Data to Counter Terrorism, 2018) .

Tali risultati hanno originato molti dibattiti pubblici, in quanto sistemi di rilevamento e riconoscimento biometrico posizionati in luoghi pubblici sono tra i principali strumenti utilizzati dalle forze dell’ordine negli Stati Uniti per l’identificazione di sospetti e testimoni. Conseguentemente, gli errori sistemici di questi strumenti, con l’aggravante di algoritmi discriminatori, potrebbero anche esporre erroneamente un individuo a misure sanzionatorie o limitative della propria libertà. Il dibattito sull’equilibrio tra libertà e sicurezza si è inacerbito dopo i recenti fatti di cronaca statunitense che hanno dato origine all’ondata di manifestazioni anti-razziste su scala globale. Purtroppo, in questo specifico settore la responsabilità non è solamente degli stati ma anche dei colossi della tecnologia che producono certi sistemi tecnologici ad uso pubblico e privato. Mentre per risolvere il problema della discriminazione di natura razziale i governi nella storia hanno adottato misure politiche e legislative o più recentemente programmi culturali volti a rafforzare l’integrazione sociale, è più debole e disomogenea la risposta del settore privato. Molte multinazionali come Amazon, che offre servizi agli utenti abilitati da riconoscimento biometrico, hanno annunciato misure di verifica dei rispettivi sistemi volte a correggere certi algoritmi per diminuire i rischi associati alla devianza e ai fenomeni erronei di morfismo che potrebbero generare casi di discriminazioni. Se le aziende che producono certi sistemi per uso pubblico e privato abbiano risolto questo errore tecnologico nei loro prodotti resta ancora una questione aperta. In attesa dello sviluppo degli standard dei sistemi biometrici che dovranno essere recepiti obbligatoriamente dal settore privato e da ogni segmento del settore pubblico autorizzato alla raccolta e gestione dei dati in questione, quanti individui rischieranno di essere soggetti dell’erroneo pregiudizio di Terminator?! 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *