Stai camminando per strada. A tua insaputa decine di videocamere ti riprendono e, in tempo reale, sono in grado di risalire al tuo nome, la tua età, il tuo stato civile, il tuo reddito. Che tu lo voglia o no, avviene ogni giorno con sistemi di riconoscimento facciale sempre più sofisticati. I dati anagrafici vengono associati a caratteristiche fisiologiche e comportamentali, consentendo l’identificazione univoca di una persona.
La biometria – applicata a volti, impronte digitali e iridi – ha vantaggi superiori ai normali sistemi di sicurezza, perché i tratti che rileva sono unici per ognuno di noi e non variano nel tempo. Spesso però comporta abusi e violazioni, dal momento che le informazioni personali possono essere acquisite a fini commerciali, oppure rubate con tecniche di spoofing e utilizzate per compiere atti illeciti, senza un consenso esplicito.
Se ne parla di frequente, l’uso improprio della tecnologia è un tema sensibile che riguarda il rispetto della privacy e dei diritti. Questione che porta molti attivisti a esprimere forti dubbi sulla legittimità del controllo quando i sistemi sono sfruttati per manipolare e accusare ingiustamente. Basti per tutte l’iniziativa “Ban the Scan” di Amnesty International, in prima linea contro i pregiudizi, la discriminazione razziale e di genere.
Una risposta tecnologica è stata suggerita dal Machine Learning antagonistico, il cui scopo è la costruzione di input in grado di ingannare i sistemi informatici che utilizzano algoritmi di apprendimento. In pratica si inverte l’intento della tecnologia originale di sorveglianza e la si trasforma in uno strumento anti-sorveglianza. L’algoritmo perturba il dato, o meglio inibisce il meccanismo ricognitivo e fa in modo che il soggetto inquadrato non venga identificato come una persona. Se per la macchina non lo è, allora non ha dati biometrici da rilevare.
Dall’incontro tra fashion, tessile e ingegneria è nato così l’abbigliamento hi-tech che protegge l’identità di chi lo indossa, perché in grado di bloccare il riconoscimento facciale. Si chiamano Adversarial Pattern, tessuti avversari. In Italia, la startup Cap_able ha trasformato questa innovativa tecnologia in capi di abbigliamento di una Collezione Manifesto che, tramite un algoritmo presente nei tessuti, tutela le persone e contrasta la sorveglianza di massa. Un progetto etico che vuole sensibilizzare la collettività e che evolve anche grazie a una collaborazione di ricerca con il Dipartimento di Ingegneria del Politecnico di Milano.
Ancora un paio di esempi creativi di Adversarial Design. Il primo è un progetto che riesce a confondere i sistemi utilizzati per tracciare gli spostamenti in automobile e studia i tessuti per generare modelli che vengono individuati come targhe. Il secondo estende la tecnologia agli oggetti di uso comune presenti in ufficio, dove una tazza, una borraccia o uno sticker possono eludere le telecamere a circuito chiuso.
Quanto viene realizzato da simili iniziative è consentito? Pare proprio di sì, tutto legittimo e legale. In Italia non è possibile utilizzare in luoghi pubblici telecamere con identificazione biometrica, a meno che non vi siano motivi di sicurezza indicati dalle prefetture. La tecnologia dei tessuti avversari evita il riconoscimento dei dati biometrici, ma è inefficace contro i metodi di sicurezza pubblica come i metal detector e le telecamere tradizionali.
Non si tratta di essere irriconoscibili, portare una maschera o avere un trucco esagerato è di sicuro meno regolare. La chiave non è l’invisibilità, anzi. L’abbigliamento è di norma così sgargiante e appariscente che è quasi impossibile passare inosservati, si risulta invisibili come potrebbero esserlo Elton John e Lady Gaga al Congresso del Partito del Lavoro nordcoreano. Molto probabilmente i sistemi di Face Recognition troveranno presto il modo di superare queste tecniche evasive. Fino ad allora, faremo bene a scegliere un look distintivo e a indossare una bella maglia lisergica per il prossimo struscio in centro.