Il riconoscimento facciale è già una realtà: in Occidente viene utilizzato da Apple per sbloccare l’iPhone e da Facebook per taggare le persone, ma c’è un Paese, la Cina, in cui, insieme ad altri strumenti di controllo delle masse (identificazione vocale, censura della Rete, controllo dei social network), sta divenendo un inquietante mezzo di repressione della libertà individuale e della privacy, con implicazioni etiche non indifferenti. Veniamo per gradi.
Secondo una ricerca del centro studi inglese Ihs Markit, riportata da la Repubblica in un articolo di Massimo Ferraro, già nel 2016 in Cina erano presenti 176 milioni di telecamere di sorveglianza; entro il 2020 ne verranno installate 450 milioni. In pratica ci sarà una telecamera ogni due abitanti. Sempre entro il 2020 verrà poi forse adottata quella che è la misura più inquietante: un sistema di “credito sociale”, con annessa valutazione del comportamento reale e virtuale di ogni cittadino cinese. Premi, ammende o divieti saranno elargiti dallo Stato in base alla propria “condotta”. Impossibile non pensare all’episodio 01×03 “Caduta libera” di Black Mirror.
Tuttavia, senza sviare il discorso, ritornando al problema della tecnologia di riconoscimento facciale, esistono ancora alcuni limiti pratici nel suo utilizzo. Per cominciare, ad esempio, gli occhiali smart in dotazione alla polizia cinese possono riconoscere un volto solo se la persona resta ferma per qualche secondo; in secundis, il database cinese è talmente vasto da non consentire una individuazione immediata del soggetto schedato; terzo: si è proprio sicuri che gli algoritmi e le macchine preposte alla sorveglianza non facciano discriminazioni? Bianchi vs neri, omosessuali contro etero (nei Paesi in cui essere omosessuali è ancora un reato), ecc. La ricercatrice del MIT Joy Buolamwini, durante la trasmissione Ted Talk, ha dichiarato in merito: «Si dà per scontato che le macchine siano neutrali e c’è addirittura la speranza che la tecnologia che creiamo avrà meno pregiudizi di noi, ma non abbiamo equipaggiato questi sistemi con gli strumenti necessari a sconfiggere i nostri “bias”». I bias, secondo la definizione di Wikipedia, sono «giudizi non necessariamente corrispondenti all’evidenza, sviluppati sulla base dell’interpretazione delle informazioni in possesso», detto altrimenti sono dei “pregiudizi”. Pregiudizi che, quindi, potrebbero essere passati alle macchine, le quali, ipso facto, risulterebbero faziose.
Per ultimo, vi è il problema dei “falsi positivi”. Si tratta degli errori commessi dalle macchine durante il riconoscimento facciale di qualcuno. In Cina milioni di persone, scambiate per altre, vengono schedate ogni giorno negli archivi di polizia senza che abbiano combinato nulla e spetta poi loro dimostrare di non essere le persone identificate. Insomma, come scrive Andrea Daniele Signorelli su Wired, si tratta di una “presunzione di colpevolezza”.
Fortunatamente chi legge, probabilmente, non vive in Cina, anche se in molti altri Paesi, come Stati Uniti, Gran Bretagna, Ungheria e Australia si stanno adottando o si pensa di adottare misure simili a quelle cinesi. È veramente questa la società in cui vogliamo vivere? David Hunt, sviluppatore dell’algoritmo “Image Recognition Cainthus”, ha affermato: «Se non ti senti pericolosamente minacciato la prima volta che senti parlare del riconoscimento facciale, significa che non hai ancora capito di che cosa si tratta».