Il Regno Unito Sperimenta un Algoritmo per Prevedere gli Omicidi: Rischi Etici e Dubbi Sull’Efficacia
- Un algoritmo può prevenire un omicidio?
- È giusto usarlo?
- Cosa rischiano i diritti civili?
- Siamo pronti a fidarci della tecnologia nel sistema giudiziario?
Londra – Il governo del Regno Unito ha avviato un progetto sperimentale che mira a prevedere chi potrebbe commettere un omicidio utilizzando algoritmi basati su dati forniti dalla polizia e da altri enti pubblici. Questo programma, noto in fase iniziale come Homicide Prediction Project, si ispira ad approcci predittivi simili già sperimentati negli Stati Uniti, sollevando interrogativi critici sull’etica, sull’efficacia e sul rispetto dei diritti individuali.
La tecnologia si basa sull’analisi di grandi database contenenti informazioni personali su centinaia di migliaia di cittadini, inclusi dati sensibili come stato mentale, dipendenze, disabilità, precedenti di autolesionismo e persino il fatto di essere stati vittime di reato. Indicatori come etnia e genere sono anch’essi inclusi, sollevando dubbi legittimi circa il rischio di discriminazioni sistemiche e bias algoritmici. Secondo le fonti governative, il progetto è attualmente in fase di ricerca ed è giustificato con la finalità di “prevenire e rilevare atti illeciti”.
Intelligenza Artificiale e Rischi di Derive Autoritarie
Il programma britannico rievoca inquietanti scenari descritti dallo scrittore e Premio Nobel Aleksandr Solženicyn nel suo capolavoro Arcipelago Gulag, dove il regime sovietico reprimeva i cittadini sospettati di potenziali infrazioni, senza processo e spesso senza ritorno. Il parallelo è d’obbligo: in entrambi i casi, lo Stato pretende di identificare il crimine prima che avvenga, sacrificando il principio di innocenza e il diritto al giusto processo.
Oltre al potenziale abuso, un altro rischio concreto è la mancanza di accountability. Come documentato dalla matematica Cathy O’Neil, algoritmi usati nel sistema scolastico statunitense hanno causato licenziamenti ingiustificati basandosi su metriche imprecise. Quando i soggetti cercavano spiegazioni, ricevevano risposte impersonali: “Ce lo ha detto l’algoritmo”. Questo fenomeno è stato definito da alcuni esperti come accountability sink, ovvero un “buco nero della responsabilità”, dove nessuno può essere ritenuto responsabile e l’errore diventa irreversibile.
In campo giudiziario, esempi simili non mancano. Negli Stati Uniti, un algoritmo chiamato TIGER (acronimo di Targeted Interventions to Greater Enhance Re-entry) ha influenzato decisioni di libertà condizionata, mentre nello stato del Wisconsin l’uso di un sistema predittivo ha contribuito alla condanna di un imputato, senza che questi potesse accedere al funzionamento interno dell’algoritmo, protetto da segreto industriale.
Bias, Privacy e Pericoli per i Diritti Civili
Il caso britannico presenta ulteriori criticità. I dati utilizzati nel progetto sono stati raccolti da istituzioni come il Ministero della Giustizia, la polizia di Greater Manchester e il Police National Computer, senza che le persone coinvolte abbiano dato il consenso esplicito al loro utilizzo. Le minoranze etniche e gli abitanti delle aree economicamente svantaggiate risultano sovra-rappresentati, replicando distorsioni storiche nelle pratiche di polizia.
Studi pregressi dimostrano che gli algoritmi predittivi risultano meno accurati per soggetti afrodiscendenti rispetto ad altri gruppi. Il pericolo, quindi, è che queste tecnologie non facciano altro che proiettare nel futuro pregiudizi sistemici già esistenti, perpetuando disuguaglianze invece di contrastarle.
Infine, l’impiego di intelligenza artificiale per anticipare comportamenti criminali pone una domanda fondamentale: come possiamo sapere se un crimine è stato realmente evitato o se non sarebbe mai accaduto? L’indeterminatezza di questi sistemi alimenta un’ambiguità strutturale che può compromettere seriamente il concetto stesso di giustizia.
L’applicazione di modelli predittivi in ambito penale rappresenta una svolta controversa per uno Stato democratico come il Regno Unito. La protezione del pubblico non può basarsi esclusivamente sulla tecnologia, ma deve sempre tenere conto della dignità umana, della trasparenza e del principio di proporzionalità. Altrimenti, il rischio è quello di ripetere, in chiave moderna e digitale, gli errori più oscuri del passato.
Ricorda tanto il film “Minority Report”, diretto da Steven Spielberg e uscito nel 2002
È un thriller fantascientifico ambientato nel 2054, con Tom Cruise protagonista. Racconta di una unità di polizia chiamata “Precrime” che, grazie a tre veggenti chiamati precog, è in grado di prevedere e prevenire omicidi prima che accadano, arrestando i futuri colpevoli. Il film è basato su un racconto breve di Philip K. Dick.
Trama breve di Minority Report:
Nel 2054, a Washington D.C., il crimine sembra quasi scomparso grazie al sistema “Precrime”, che utilizza tre sensitivi (precog) in grado di prevedere gli omicidi prima che avvengano. Gli agenti della divisione speciale arrestano quindi le persone prima che commettano un crimine, basandosi sulle visioni dei precog.
Il protagonista, John Anderton (interpretato da Tom Cruise), è il capo dell’unità Precrime. La sua vita cambia radicalmente quando i precog prevedono che sarà lui stesso a commettere un omicidio entro pochi giorni. Da quel momento, Anderton fugge per scoprire la verità, cercando di dimostrare la propria innocenza e mettere in dubbio l’infallibilità del sistema.
Temi principali del film:
- Libero arbitrio vs. determinismo: le persone possono cambiare il proprio destino o il futuro è scritto?
- Sorveglianza e controllo: quanto potere dovrebbe avere lo Stato per “proteggere” i cittadini?
- Giustizia preventiva: è etico punire qualcuno per un crimine che non ha ancora commesso?
- Tecnologia e umanità: fino a che punto la tecnologia può sostituire il giudizio umano?