A CURA DI

AVV. ANTONELLA ROBERTI

INTELLIGENZA ARTIFICIALE E LOTTA CONTRO LA CRIMINALITÀ NEL RISPETTO DEI DIRITTI E DELLE LIBERTÀ FONDAMENTALI

Autore: Dott.ssa Laura De Rose, Vice direttore Foroeuropa

 

 

Di fronte alle minacce di una criminalità sempre più invasiva e ‘digitale’, e le sfide dei Big Data, l’uso dell’intelligenza artificiale (IA) è sempre più indispensabile per le autorità di contrasto.

Allo stesso tempo, alcuni sistemi di IA sollevano specifiche preoccupazioni, soprattutto per quanto riguarda la protezione e la tutela dei diritti fondamentali. Anche in questo campo, è quindi indispensabile raggiungere il necessario equilibrio tra sicurezza dei cittadini e diritto alla privacy, ovvero tra lotta contra la criminalità e rispetto dei diritti e delle libertà fondamentali.

L’Unione Europea (UE) ha avviato un’articolata riflessione su questi temi. La Commissione europea ha pubblicato nel febbraio 2020 un Libro bianco sull'IA e ha proposto di istituire un quadro normativo europeo per un'IA affidabile. Nell'ottobre 2020, il Parlamento europeo ha adottato tre risoluzioni legislative sull'IA riguardanti l'etica, la responsabilità civile e la proprietà intellettuale, e ha chiesto alla Commissione di istituire un quadro giuridico europeo completo relativo allo sviluppo, diffusione e uso dell’IA e tecnologie correlate.

Una tappa fondamentale nelle attività dell’UE è la proposta legislativa della Commissione, pubblicata nell’aprile 2021, per un nuovo regolamento sull’IA. La Commissione propone di introdurre una definizione giuridica ‘neutra’ dei sistemi di IA, ovvero basata esclusivamente sugli aspetti tecnologici, come segue:

Un sistema IA è “un software sviluppato con una o più delle tecniche e degli approcci elencati nell'allegato I[1], che può, per una determinata serie di obiettivi definiti dall'uomo, generare output quali contenuti, previsioni, raccomandazioni o decisioni che influenzano gli ambienti con cui interagiscono”.

Inoltre, la Commissione propone un approccio basato sulla prospettiva dei rischi, identificando quattro livelli di rischio, ovvero:

  • Rischi inaccettabili, quali quelli derivanti dall’uso di sistemi IA che violano i valori dell'UE;
  • Sistemi IA ad alto rischio, quali quelli elencati nella proposta della Commissione, ovvero i sistemi che creano un impatto negativo sulla sicurezza delle persone e sui loro diritti fondamentali. La proposta prevede di applicare a questi sistemi una serie di requisiti obbligatori (compresa una valutazione di conformità);
  • Sistemi IA a rischio limitato, soggetti a una serie limitata di obblighi (ad esempio trasparenza); e
  • Sistemi IA a rischio minimo, ovvero i sistemi, che possono in quanto tali essere sviluppati e utilizzati nell'UE senza ulteriori obblighi giuridici rispetto alla legislazione esistente.

I sistemi IA che determinano rischi inaccettabili saranno proibiti. Essi includono non soltanto i sistemi che dispiegano "tecniche subliminali" manipolative dannose e che sfruttano gruppi vulnerabili (disabilità fisica o mentale), ma anche i sistemi che permettono l’identificazione biometrica "in tempo reale" in spazi accessibili al pubblico, per esempio i sistemi di riconoscimento facciale.

Tuttavia, vista la loro rilevanza per le attività di contrasto, la proposta della Commissione consente l’uso di questi sistemi per importanti motivi di pubblica sicurezza, previa opportuna autorizzazione giudiziaria o amministrativa. In particolare, il loro utilizzo sarebbe consentito per la ricerca mirata di potenziali vittime di reato, compresi i bambini scomparsi, per prevenire una minaccia specifica, sostanziale e imminente alla vita o alla sicurezza fisica delle persone, incluso un attacco terroristico, e per l'individuazione, localizzazione, identificazione o perseguimento di un autore o di una persona sospettata di un reato soggetto al mandato d'arresto europeo.

Tra i sistemi ad alto rischio figurano quelli utilizzati a fini di attività di contrasto e quelli relativi al controllo dei flussi migratori e delle frontiere.

Nel contempo, i più alti rappresentanti delle forze nazionali di polizia riflettono sulla proposta dell’UE e sul suo impatto sul lavoro delle attività di contrasto, e si coordinano al fine di rivolgere un messaggio comune alle istituzioni dell’UE e ai ministri nazionali competenti.

Ne è risultata una Dichiarazione congiunta dei Capi delle Polizie Nazionali dei Stati membri dell’UE, firmata il 24 maggio 2022 a Berlino. Questo documento è di grande rilevanza nel quadro delle attuali discussioni sul progetto di regolamento.

Innanzitutto, i capi delle polizie europee hanno accolto con favore l'iniziativa della Commissione, vista l’importanza dell’IA e le opportunità e rischi cui essa è associata. Tuttavia, le regole formulate potrebbero pregiudicare seriamente il lavoro della polizia. 

Il primo aspetto da considerare è che l’IA è uno strumento assolutamente indispensabile. Dato che il numero di reati commessi nello spazio digitale è in aumento e che questi reati comportano quantità significative di dati, nell'ordine dei terabyte a più cifre per una sola indagine, l'uso di strumenti supportati dall'IA è indispensabile per il successo della lotta contro la criminalità e l'applicazione della legge. Di fatto, l'IA è una parte essenziale degli strumenti utilizzati dalle forze dell'ordine al fine di analizzare volumi sempre crescenti di dati ed estrarre prove digitali. Senza l'aiuto di tecnologie avanzate, le autorità di contrasto non saranno in grado di restare al passo con la trasformazione digitale, e non potranno quindi neppure proteggere adeguatamente le vittime dei reati nell'era digitale: l'uso dell’IA non è una scelta ma una necessità.

Un altro punto importante della Dichiarazione riguarda le norme proposte in materia di accesso ai dati da parte di terzi, per esempio al fine di collaudare i sistemi di IA. In questi casi, è indispensabile tener conto che i dati di polizia sono particolarmente sensibili, escludere in ogni caso la possibilità di un accesso remoto illimitato, e assicurare le necessarie garanzie di confidenzialità e protezione delle informazioni.

Inoltre, benché la proposta della Commissione basata sul rischio sia plausibile, questo approccio non deve portare a una situazione in cui interi ambiti di applicazione che interessano le forze di sicurezza siano generalmente classificate ad alto rischio e quindi sottoposte ‘by default’ a forti vincoli. Per esempio, l'uso di un algoritmo per controllare la qualità delle impronte digitali non dovrebbe portare a classificare l'intero processo quale sistema ad alto rischio.

La Dichiarazione sottolinea altresì che la maggior parte delle applicazioni IA utilizzate dalle forze di polizia nell'UE non presentano un rischio elevato di danno per la sicurezza e i diritti fondamentali delle persone. In effetti, i sistemi per il riconoscimento vocale e del testo, l’estrazione di informazioni, o la classificazione di immagini mirano a automatizzare le attività di elaborazione dei dati in modo da sollevare gli analisti da compiti ripetitivi e consentire loro di concentrarsi su aspetti più cognitivi. Inoltre, queste tecniche sono utilizzate per supportare il lavoro degli analisti di fronte a un aumento significativo di set di dati strutturati e non strutturati, ovvero dati con diversi livelli di complessità e di difficoltà di interpretazione, ma non comportano un processo decisionale automatico.

Alla luce di questi elementi, le nuove norme dovrebbero consentire la valutazione dei rischi nei casi individuali. Inoltre, va tenuto presente che l’uso dei sistemi IA da parte delle forze di polizia è regolato da disposizioni di legge ed è soggetto a severi controlli. Questi sistemi non sostituiscono, bensì supportano le attività investigative, quindi i risultati ottenuti con l'uso dell'IA sono sempre valutati e verificati da esseri umani.

Le autorità di polizia fanno anche notare che la maggior parte di questi sistemi vengono applicati a dati ottenuti nel contesto di un'indagine penale, quindi non vi è una dimensione “in tempo reale”, o l’eventualità di un’analisi indiscriminata dei dati.

Sulla base di tutti questi elementi, le polizie europee hanno rivolto delle richieste specifiche ai co-legislatori dell’UE, tra cui le seguenti.

Innanzitutto, il futuro regolamento deve prevedere eccezioni, che prendano sufficientemente in conto le peculiarità e esigenze specifiche delle autorità di contrasto all'interno del quadro giuridico esistente e alla luce della realtà delle indagini nell'era digitale.

Inoltre, il regolamento non può portare a una situazione in cui le forze di polizia non possano utilizzare affatto l'IA, o farlo solo con notevole sforzo e ritardo. Pertanto, è necessario prevedere adeguate procedure accelerate per garantire che la polizia possa svolgere i suoi compiti in modo efficace e tempestivo, nel rispetto dei diritti fondamentali.

Il regolamento e la definizione dei sistemi di IA in esso contenuti non dovrebbero riguardare le procedure informatiche già consolidate, che finora non sono state generalmente considerate IA, onde evitare che tali procedure cadano nell'ambito di applicazione del regolamento e non possano quindi più essere utilizzate.

Come menzionato, Il regolamento dovrebbe consentire la valutazione dei rischi nei casi specifici, invece di classificare in via generale i sistemi di polizia che utilizzano l'IA come alto rischio.

Sarebbe anche importante che il regolamento riconosca l'uso criminale dell'IA e la necessità di conferire alle forze di polizia i poteri necessari per indagare sui crimini "abilitati dalla cibernetica".

L’obiettivo finale di tali richieste è quello di permettere alle forze di polizia di continuare a svolgere efficacemente i compiti loro assegnati dalla legge in materia di controllo, prevenzione e contrasto della criminalità, soprattutto in un contesto digitale che è caratterizzato da un volume sempre crescente di informazioni e dati personali.

La proposta della Commissione è ora all'esame dei co-legislatori, cioè del Parlamento europeo e del Consiglio.

Il testo è accessibile sul sito dell’UE (EUR-Lex), in tutte le lingue ufficiali: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A52021PC0206

 

[1] Si tratta in particolare di: a) approcci di apprendimento automatico, compreso il cosiddetto “apprendimento per rinforzo”, con utilizzo di un'ampia gamma di metodi, tra cui l'apprendimento profondo (deep learning);b) approcci basati sulla logica e approcci basati sulla conoscenza, compresi la programmazione induttiva (logica), le basi di conoscenze, i motori inferenziali e deduttivi, e il ragionamento (simbolico); nonché c) approcci statistici, e metodi di ricerca e ottimizzazione.