Videosorveglianza nelle metropolitane e stazioni, è lecito usarla?
E’ noto che per tutto il 2025, è ancora in atto una moratoria del Garante della Privacy, relativamente all’installazione di sistemi avanzati di videosorveglianza ed utilizzo dei dati biometrici facciali, in particolare vogliamo seguire gli sviluppi del progetto pensato dall’amministrazione capitolina in occasione del Giubileo a Roma all’interno delle metropolitane. Il Garante nel suo ultimo atto ha richiesto agli amministratori cittadini, il 9 Maggio scorso, di rendere effettivi tutti gli accorgimenti e gli adempimenti previsti dal GPDR, che ricordiamo essere il regolamento europeo in materia di protezione dei dati personali.
La valutazione d’impatto obbligatoria
Nelle more del regolamento, è stata richiesta una valutazione d’impatto (DPIA) sull’utilizzo dei dati biometrici, che deve illustrare e prevedere, oltre che ad informare, sul corretto utilizzo dei dati raccolti nel trattamento, nonché che esamini i rischi per i diritti e le libertà degli individui e le misure mitigative previste. Il comune di Roma aveva emesso un regolamento nel 2021, che però l’Autorità Garante, ha chiesto di implementare in maniera specifica soprattutto per quanto riguarda l’aspetto dello sviluppo di procedimento di raccolta, trattamento e custodia dei dati biometrici ogni qual volta (come prevede il GPDR) vi sia una nuova tecnologia applicabile, principio generale sempre valido.
Nello specifico caso verrà utilizzata l’intelligenza artificiale, quindi una nuova tecnologia applicata su larga scala che richiede una valutazione d’impatto attuale ed obbligatoria. Anche se le basi giuridiche per la leicità del trattamento sono giustificate dalle esigenze di sicurezza pubblica funzionali alla gestione dell’evento giubilare. Le perplessità riguardano il principio di minimizzazione e proporzionalità del trattamento, tali sistemi infatti possono facilmente estendere la sorveglianza oltre agli individui specificamente segnalati, anche agli ignari cittadini. Vi sono anche rischi significativi legati ai falsi positivi e ai problemi di bias nelle IA che gestiscono il riconoscimento facciale, potenzialmente portando a discriminazioni ingiustificate.
Per saperne di più sulla DPIA leggi questo articolo.
Il ruolo delle risorse umane
Il riconoscimento facciale non è infallibile, condizioni di illuminazione e diverse espressioni del volto oggetto del trattamento, potrebbero non identificare correttamente quei soggetti che sono nelle banche dati delle forze dell’ordine grazie al fotosegnalamento.
Inoltre le risorse umane che devono essere dietro all’utilizzo del sistema di videosorveglianza, avranno il compito di fare queste valutazioni anche nell’ottica del rispetto dei principi del GDPR che prevede non vi sia un procedimento totalmente automatizzato nella valutazione e nella decisione delle azioni da intraprendere, queste risorse devono ricevere la corretta formazione per esercitare i controlli. Sicuramente, le nuove tecnologie portano con sé dubbi ed interrogativi a cui bisogna dare risposta, ma nel globale complesso di opportunità, devono portarci a non avere diffidenza e sfiducia verso le innovazioni tecnologiche e più in particolare verso le autorità pubbliche che vogliono avvalersene. Di fatto, sono anche gli aspetti sociali che devono essere trattati con senso di responsabilità, poiché nelle persone potrebbe scattare un meccanismo consuetudinario che possa rendere i cittadini abituati ai controlli portandoli a considerarli del tutto normali, seppure possano instillare una percezione di erosione della privacy ad altri soggetti con differente prospettiva del problema.