Argo Panoptes, secondo alcune versioni del mito, era un gigante coperto da centinaia di occhi sparsi sul corpo.
Argo è anche il nome di un progetto di videosorveglianza voluto dalla Città di Torino: un sistema di telecamere disposte nei punti sensibili della città e dotate di una intelligenza artificiale capace di elaborare dati sui passanti ripresi. Le telecamere sono state installate, ma al momento l’impiego dell’intelligenza artificiale è sospeso grazie all’intervento del garante nazionale per la protezione dei dati personali.
Pubblichiamo qui una intervista a Riccardo Coluccini, giornalista freelance che si occupa di temi legati alla sorveglianza digitale. L’intervista è avvenuta su Radio Blackout il 3 maggio del 2022 e riguarda la storia del progetto Argo, i suoi punti critici e le ragioni della sospensione dell’intelligenza artificiale. Dopo questa intervista, a gennaio del 2023, su La Stampa un articolo informa che la ditta incaricata di installare le infrastrutture di Argo è fallita, ma la Città è pronta a una assegnazione alternativa per procedere con la disposizione di nuovi occhi meccanici. Due mesi dopo, sempre La Stampa riporta le parole di Giovanna Pentenero, a capo dell’assessorato responsabile alla polizia municipale e alle politiche sulla sicurezza. Pentenero afferma che 133 telecamere sarebbero state installate e rese funzionanti entro la primavera di quest’anno. Pentenero sostiene che la Città di Torino intende interloquire con il garante per ottenere l’autorizzazione ad attivare gli algoritmi di sorveglianza. A giugno il parlamento dell’Unione Europea ha approvato la prima legge che regola l’uso dell’intelligenza artificiale. Secondo questa legge, che ancora deve entrare in vigore, sarebbero proibiti i rilevamenti biometrici negli spazi pubblici. (-fm)
* * *
Che cos’è Argo? Come nasce?
Il progetto Argo viene approvato dalla giunta torinese a metà del 2020 e viene definito come un progetto di videosorveglianza diffusa, ovvero di espansione delle videocamere installate nella città. L’obiettivo è quello di installare circa 275 telecamere. Per videocamere intendo sia quelle che monitorano le persone che camminano in strada, sia quelle che vengono posizionate negli accessi alle aree ZTL o nelle strade di accesso alla città. Quindi c’è questo duplice aspetto. Il progetto è approvato perché c’è la necessità di aumentare la sicurezza percepita nella cittadinanza. Ovviamente quella di installare telecamere è una delle soluzioni più facili che vengono in mente, di fatto ovunque, ma questo ha delle criticità. Innanzitutto il progetto Argo non prevede delle normali videocamere, ma da progetto sono previste delle telecamere con degli algoritmi. Questi algoritmi dovrebbero essere in grado di distinguere, per esempio, un uomo da una donna, di riconoscere gli indumenti che indossa una persona e quindi di vedere in quali zone della città si muove, e di distinguere anche i colori e forse altri accessori che sono presenti.
Quindi, se io ho una maglietta rossa in un determinato punto, io posso mettere nel sistema “maglietta rossa” e in questa maniera da sola la telecamera può seguirmi.
Esattamente. Non si tratta tanto di un sistema di riconoscimento facciale, ovvero di algoritmi che, data l’immagine di un volto, riconoscono subito una persona, quindi il suo nome e cognome. Però, come sottolinei tu, se una videocamera riesce a seguirci durante il percorso giornaliero che facciamo, può scoprire dove viviamo, dove lavoriamo, quali locali, quali spazi frequentiamo. E se io so dove vai a dormire la sera, dove esci la mattina, so anche facilmente chi sei.
Tu hai parlato della Città di Torino. Chi sono gli altri enti promotori e come è stato finanziato questo progetto?
Il progetto ha raccolto in totale un milione e mezzo di euro. Ottocentomila sono messi dalla Città di Torino – e tra gli attori, oltre al comune, c’è la polizia municipale stessa, che è la gestrice di questo progetto –; dall’altra parte ci sono settecentomila euro che sono stati messi dal ministero dell’Interno, che quindi è una parte interessata all’installazione di questo sistema. Chiaramente il ministero non finanzia direttamente la Città di Torino, c’è un bando nazionale tramite cui vengono finanziate altre città italiane sulla base di progetti che presentano una classifica della pericolosità legata al numero dei reati commessi nella città. E questi sono i soggetti economici.
A gestire il progetto vero e proprio, invece, è la società pubblica, partecipata dal comune, 5T, che si occupa già della gestione del traffico di Torino e segue i data center. Questa società è la stessa che ha prodotto l’analisi del progetto, perché infatti questo progetto Argo nasce nel 2018. Nel 2018 c’era una sorta di bozza del progetto che poi ha subito delle revisioni fino ad arrivare al progetto approvato nel 2020. E nel 2021 si è già concluso un bando per la fornitura delle videocamere e queste stanno via via per essere installate nella città.
Questo progetto sembra nascere per il controllo del traffico, anzi sembra una infrastruttura innanzitutto utilizzata per il controllo del traffico. Allora come si intersecano queste due modalità: da una parte il controllo sociale e dall’altra la visione del traffico agli incroci?
Negli Stati Uniti il tema delle videocamere che monitorano il traffico è più dibattuto. Ci sono associazioni che sottolineano come il monitoraggio degli spostamenti delle auto sia un modo per monitorare i comportamenti dei cittadini. Nel caso di Torino vediamo che questi due monitoraggi sono palesi. Nel senso che molte di queste videocamere sfrutteranno i pali già precedentemente installati per il monitoraggio dei varchi alle ZTL. Non solo c’è un appoggio a una infrastruttura già esistente, ma c’è una comunione di intenti nel monitorare i comportamenti, perché non solo si controlla il passaggio delle auto, ma ci sono algoritmi che dovrebbero essere persino in grado di monitorare il passaggio di biciclette, scooter e altri tipi di mezzi. Oltre a questo, c’è anche quello che monitora lo spostamento del corpo umano e quindi di chi passa di fronte a queste videocamere.
Questo è chiaramente un rischio da tenere in considerazione: quando sappiamo di essere monitorati, noi modifichiamo il nostro comportamento. Questo rischia di creare delle zone in cui le persone non si sentono in grado di poter passare liberamente. Potenzialmente alcune persone potrebbero decidere di cambiare il percorso che fanno quotidianamente perché sanno che quella zona è particolarmente sottoposta a sorveglianza. Secondo il comune questo rischio non deve essere considerato, in quanto l’unica legge da rispettare è quella della percezione della sicurezza, e quindi il comune afferma, dopo un confronto con le circoscrizioni, che le stesse circoscrizioni vogliono più videocamere.
Adesso a che punto siamo con il progetto Argo? Perché è stato bloccato, e come?
Al momento il comune di Torino ha sospeso l’implementazione degli algoritmi, quindi ora non c’è alcun algoritmo in funzione. D’altra parte l’installazione delle videocamere, e dunque la registrazione dei video, è stata approvata. Il bando per l’acquisto di queste videocamere si è concluso e l’azienda che ha vinto il bando è la Aladina Radio, che già collabora con la polizia municipale di Torino, se non sbaglio, per fornire dei ponti radio e comunicazioni. Io e una collega, Laura Carrer del dipartimento di diritti digitali dell’Hermes Center, insieme stiamo seguendo una campagna europea che si chiama Reclaim your face che cerca di opporsi a questo tipo di sorveglianza che utilizza dati biometrici, quindi dati dei nostri corpi. Così a gennaio del 2021 abbiamo inviato una segnalazione al garante italiano per la protezione dei dati personali, esponendo le criticità che a nostro avviso erano presenti nel progetto Argo. Il garante, a maggio del 2021, ci ha comunicato che aveva iniziato a interloquire con il comune di Torino e aveva esposto alcuni dubbi. Dubbi principalmente relativi alla base legale, ovvero in merito alle leggi che permetterebbero al comune di utilizzare questo tipo di algoritmi, ma sottolineando anche ulteriori criticità, come il fatto che non fosse stata fatta una valutazione di impatto sulla protezione dei dati personali. Ovvero, è previsto dal regolamento europeo sulla privacy che, quando si installano questo tipo di sistemi, deve essere fatta una valutazione sui potenziali rischi. Come dicevo prima, ci sono bozze di questo progetto che risalgono al 2018: dal 2018 al 2020 non era stata mai prodotta una valutazione di impatto. Il garante ribadisce allora al comune la necessità di fare una attenta valutazione di quali sono i rischi, in modo da capire se è possibile effettivamente attivare questi algoritmi. Il comune di Torino ha risposto di essere interessato ad aprire il dialogo con il garante, ma il garante ha sottolineato che prima il comune di Torino avrebbe dovuto parlare con il proprio responsabile della privacy e decidere insieme quali fossero i punti da discutere e toccare. Secondo il garante c’è anche il rischio che questi sistemi di videosorveglianza si vadano ad aggiungere a quelli esistenti, perché ricordiamo che a Torino, sempre sotto l’amministrazione Appendino, era stato avviato il progetto AperTo, azioni per le periferie torinesi, in cui si stavano installando videocamere. Quindi il garante sottolinea questo rischio: singole iniziative messe insieme possono portare a una situazione in cui c’è una vera e propria sorveglianza diffusa e indiscriminata di tutta la popolazione. Grazie a questo intervento che ha coinvolto il garante, al momento attuale gli algoritmi sono bloccati. Dobbiamo capire quale sarà la scelta finale del comune di Torino: se andare o meno avanti con il progetto iniziale. La stessa assessora all’innovazione, Chiara Foglietta, nel novembre 2021 si era detta contraria all’uso indiscriminato di questo tipo di tecnologia, aveva dei dubbi sul progetto, però non sappiamo quali saranno i risultati futuri.
Con un sistema di videosorveglianza dotata di questi algoritmi si possono analizzare gli spostamenti di una persona a partire dall’abbigliamento e altri dettagli. Per esempio una persona entra in una farmacia, va in università, incontra il partner in casa, partecipa a una manifestazione sotto gli occhi delle telecamere. Sono enormi e preoccupanti le possibilità che si aprono a partire dall’uso di questi occhi elettronici a disposizione delle forze dell’ordine. Interessante la confusione che ci sia, in questo progetto, fra sesso e genere, un altro punto su cui si dibatte.
In teoria l’algoritmo del processo Argo dovrebbe essere in grado di distinguere tra uomo e donna, però dagli studi fatti sugli algoritmi noi sappiamo che questi algoritmi rischiano di confondere il genere con il sesso. Tutte le persone transgender rischiano di essere identificate come uomini quando in realtà si riconoscono nel genere femminile, o viceversa. E questo è un ulteriore rischio di discriminazione che si aggiunge agli altri rischi di sorveglianza generalizzata. In aggiunta a questo ci sono altri tipi di discriminazione, per esempio il copricapo o gli indumenti possono rivelare informazioni sulla religione di una persona, e questo è un dato sensibile che deve essere protetto in maniera particolare. Prima facevi riferimento alla partecipazione a manifestazioni pubbliche: anche quelle sono dati sensibili, perché rivelano informazioni sull’orientamento politico, sull’appartenenza o sull’affiliazione a un movimento. Se pensiamo alle notizie sui cortei, sugli attacchi della polizia, possiamo immaginare come questo tipo di algoritmo, se fosse in funzione, potrebbe essere utilizzato per stanare, individuare tutte le persone che vi hanno partecipato.
Se l’algoritmo è bloccato, non funziona il sistema di intelligenza artificiale, però si mantiene la registrazione delle immagini. Queste immagini dove finiscono? Da chi vengono controllate, come vengono archiviate? Chi osserva le immagini? E senza un algoritmo, è più laborioso l’esame delle immagini?
I dati raccolti dalle telecamere sono in teoria gestiti dalla polizia municipale. Inoltre, per legge devono essere conservati per sette giorni. Nel caso in cui ci siano delle indagini della polizia di stato, la polizia può richiedere alla polizia municipale di avere accesso a queste riprese. Un aspetto interessante deriva dal bando delle telecamere stesse, dove si dice che il software, ovvero l’algoritmo, non deve essere fornito, ma queste telecamere devono essere pronte per ricevere in futuro un potenziale algoritmo, ma soprattutto devono avere anche una capacità di memoria a bordo di 512 gigabyte, quindi non solo i dati vengono condivisi direttamente nel server centrale della polizia municipale, ma le telecamere devono essere in grado di raccoglierli a bordo e conservarli. Potenzialmente, nella città di Torino ci troveremo con video e video caricati su ogni singola videocamera presente nella città. Questo evoca delle preoccupazioni dal punto di vista della sicurezza degli stessi dati. Cosa succede se il server centrale della polizia municipale è hakerabile e non è stato protetto in maniera corretta? Cosa succede se i video salvati nelle singole videocamere non sono cifrati e possono essere accessibili da remoto? Queste sono domande a cui al momento il comune di Torino non ha dato risposta e sarebbe interessante sentire cosa ne pensano a riguardo.