L’adozione di sistemi automatizzati nella redazione dei rapporti di polizia sta sollevando un acceso dibattito negli Stati Uniti, soprattutto in merito a rischi di trasparenza e responsabilità. Un’indagine condotta dalla Electronic Frontier Foundation (EFF) mette in luce le criticità di Axon Draft One, un sistema di intelligenza artificiale che promette di semplificare il lavoro delle forze dell’ordine, ma rischia di introdurre nuovi problemi in un settore già delicato come quello della giustizia.
Il caso di Axon Draft One
Axon Draft One è stato lanciato lo scorso anno in Colorado come soluzione innovativa per la generazione automatica di rapporti di polizia. Basato su una variante di ChatGPT, il sistema trasforma le registrazioni audio raccolte dalle bodycam degli agenti in documenti ufficiali.
Tuttavia, secondo gli esperti della Electronic Frontier Foundation, la tecnologia soffre di una falla fondamentale: non è possibile distinguere in modo trasparente quali parti del testo siano state prodotte dall’algoritmo e quali invece siano frutto di modifiche umane.
Vuoto di responsabilità
Questa mancanza di trasparenza si traduce in un grave vuoto di responsabilità. Il sistema, infatti, non conserva versioni intermedie dei rapporti di polizia e non tiene traccia delle modifiche apportate dagli agenti. Di conseguenza, quando un documento viene presentato in tribunale, non è possibile effettuare un audit efficace sulle sue origini o sulle eventuali alterazioni.
Questo scenario apre la porta alla possibilità che gli operatori si nascondano dietro il cosiddetto “errore della macchina”, evitando di assumersi la responsabilità di eventuali inesattezze o omissioni.
Difficile esportare un elenco degli agenti che hanno utilizzato l'AI
La situazione si complica ulteriormente considerando che, nonostante le rassicurazioni di Axon circa l’esistenza di meccanismi di controllo, l’indagine della Electronic Frontier Foundation dimostra che ottenere dati statistici sull’uso dello strumento è praticamente impossibile.
Molti dipartimenti di polizia non sono in grado nemmeno di esportare un elenco degli agenti che hanno utilizzato la intelligenza artificiale o dei documenti generati automaticamente. Questa opacità rende difficile qualsiasi tentativo di audit indipendente e limita la possibilità di identificare eventuali abusi o malfunzionamenti del sistema.
Le problematiche dell'uso dell'AI nel campo della giustizia
Non a caso, alcuni stati americani stanno già correndo ai ripari. In California è stata proposta una legge che obbligherebbe a conservare la prima bozza prodotta dalla intelligenza artificiale e a distinguere chiaramente le parti automatizzate. In Utah si stanno discutendo normative simili, mentre nella contea di King, nello stato di Washington, i procuratori hanno deciso di vietare del tutto l’uso di questi strumenti nella redazione dei rapporti di polizia.
Matthew Guariglia, analista senior della Electronic Frontier Foundation, sottolinea la gravità della situazione affermando che le forze dell’ordine non dovrebbero utilizzare l’AI per scrivere i rapporti di polizia, evidenziando i rischi di interpretazioni errate delle registrazioni audio e la possibile assenza di una revisione umana adeguata. Queste criticità, se non affrontate, potrebbero avere ripercussioni profonde sulla giustizia, alimentando il rischio di errori giudiziari e di perdita di fiducia nei confronti delle istituzioni.
Se vuoi aggiornamenti su AI inserisci la tua email nel box qui sotto: