Presentazione della PdL per un’autorità per l’intelligenza artificiale e le neurotecnologie

Giovedì 24 ottobre 2024, nella Sala Caduti di Nassiriya del Senato della Repubblica Italiana, la Rete per i Diritti Umani Digitali ha preso parte alla presentazione della proposta di legge per un’autorità per l’intelligenza artificiale e le neurotecnologie (AIANT) insieme ai Senatori Basso, Nicita e Sensi.

Perché siamo ospiti d’onore? Il disegno di legge si ispira alla proposta unificata per la creazione di un’autorità indipendente per l’intelligenza artificiale in Italia, elaborata e promossa dalla Rete.

…Proposta che si può consultare qui:

Autorita-AI-Ita-2024

Ci hanno ascoltati! Da anni sosteniamo la necessità di un’autorità indipendente per la governance dell’intelligenza artificiale in ogni Stato membro dell’Unione Europea.

In Italia, abbiamo avanzato una proposta che enfatizza indipendenza, multi-disciplinarietà, trasparenza, etica e tutela dei diritti.

Siamo felici di comunicarvi che è stata accolta la nostra richiesta di istituire tavoli di lavoro permanenti aperti alla partecipazione della società civile.

Se il disegno di legge dovesse essere approvato, le organizzazioni più rappresentative della cittadinanza in tema di diritti umani digitali saranno incluse nei lavori dell’autorità, garantendo un processo decisionale inclusivo e trasparente.

Per saperne di più sulla Rete Diritti Umani Digitali e sul nostro lavoro a favore di un’innovazione tecnologica responsabile e orientata al bene comune, vi invitiamo a consultare questo link.

Intervento

Laura Ferrari (The Good Lobby Italia)

Buongiorno Senatori, buongiorno a tutti i presenti,

Mi chiamo Laura Ferrari, Public Affairs Consultant per The Good Lobby, e sono qui con la Dott.ssa Sara Marcucci di Privacy Network in rappresentanza della Rete per i Diritti Umani Digitali.

La Rete consiste nella coalizione delle organizzazioni della società civile impegnate nella promozione e nella tutela dei diritti umani nella sfera digitale, ed è composta da The Good Lobby Italia, Privacy Network, Hermes Center, Strali, Period Think Tank e Amnesty International Italia.

Brevemente, per farvi comprendere qual è l’attitudine della Rete, possiamo dire che il nostro obiettivo è quello di diffondere conoscenza e consapevolezza dell’impatto generato dalle nuove tecnologie, e in particolare dall’intelligenza artificiale, sui diritti umani e sulla società, e sulla base di tali consapevolezze ci proponiamo di promuovere richieste puntuali alle istituzioni e ai decisori pubblici.

Noi pensiamo che per garantire un’adeguata tutela dei diritti umani e digitali e mitigare i rischi insiti in una tecnologia per sua natura difficilmente intelligibile, sia fondamentale stabilire norme idonee ad assicurare equità e trasparenza sugli usi dei sistemi di intelligenza artificiale.

Quindi, quello che intendiamo fare è affiancare le istituzioni con spirito costruttivo, offrendo il nostro contributo, laddove può essere utile nella ricomposizione del quadro dei rischi e dei risvolti inattesi della tecnologia, comunque in una prospettiva di progresso e incentivazione delle innovazioni, che però non dimentichi di regolare gli ambiti in cui possono insorgere discriminazioni e disparità a danno delle cittadine e dei cittadini.

Come Rete, abbiamo iniziato la nostra attività (coordinandoci con realtà europee omologhe) nel momento delle negoziazioni tra Parlamento europeo e Consiglio dell’Unione Europea, per definire la disciplina del Regolamento europeo in materia di intelligenza artificiale: l’AI Act.

Durante questo percorso abbiamo sostenuto la necessità che ogni Stato membro dovesse designare un’autorità indipendente.

Dunque, una volta che, approvato l’AI Act, la questione è passata sul piano nazionale, abbiamo delineato una proposta unificata per la creazione di un’Autorità indipendente destinata alla governance dell’Intelligenza Artificiale (IA) in Italia, secondo una visione improntata alla multi-disciplinarietà, competenza tecnica e con un’ enfasi sull’etica e i diritti.

Questa nostra proposta ha trovato riscontro nella visione dei qui presenti Senatori, che non possiamo che ringraziare, in quanto in questa proposta di legge abbiamo constatato una fortissima presenza dei valori e dei contenuti che abbiamo portato avanti con la nostra proposta per un’autorità indipendente.

Ritroviamo, in particolare, il tema dell’indipendenza, della multi-disciplinarietà, della trasparenza, e anche quello dell’apertura alla società civile, nel DDL presentato.

Su questo ultimo punto, la partecipazione della società civile, poi, diamo un ultimo suggerimento per rendere ancora più concreta l’intenzione che è già ben presente nella pdl: noi pensiamo che possa essere istituire dei tavoli di lavoro permanenti che includano anche le organizzazioni più rappresentative della cittadinanza in tema di diritti umani digitali.

Vi ringrazio per l’attenzione.
Passo la parola alla mia collega, Dott.ssa Marcucci.

Sara Marcucci (Privacy Network)

Buongiorno, sono Sara Marcucci e oggi indosso il mio cappello di Privacy Network in rappresentanza della Rete per i Diritti Umani Digitali.

Vorrei iniziare ringraziando il Senatore Basso per l’invito e l’opportunità di partecipare alla presentazione del DDL presentato dai Senatori Basso, Nicita e Sensi, che prevede l’istituzione di un’Autorità nazionale per l’intelligenza artificiale in Italia.

Come menzionato dalla mia collega la Dott.ssa Ferrari, l’indipendenza, la multidisciplinarietà, la trasparenza e l’apertura alla società civile, tutti elementi che abbiamo sostenuto nel nostro lavoro come Coalizione, sono principi che ritroviamo nel DDL proposto dai Senatori.

Questi aspetti sono fondamentali per garantire che l’Autorità operi in modo equo, integrato e inclusivo, proteggendo gli interessi della collettività e assicurando che la regolamentazione sull’IA sia allineata ai bisogni della società.

Ma perché abbiamo bisogno di questa Autorità? Oggi vorrei soffermarmi sulle ragioni che stanno alla base di questo bisogno.

L’intelligenza artificiale (IA) offre benefici in molti settori, come quello sanitario, amministrativo e finanziario. Tuttavia, è uno strumento materiale composto da modelli statistici, minerali rari, lavoro umano, cavi sottomarini, satelliti e dati, ovvero percezioni del mondo.

L’IA quindi non è neutra: è il prodotto del contesto in cui viene ideata, prodotta e utilizzata. Ciò significa che le disuguaglianze e le marginalizzazioni presenti nel mondo reale si riflettono inevitabilmente in essa, riproducendosi in maniera sistematica.

L’IA ha sempre dei bias (che siano questi nei dati o nei modelli), ovvero una particolare e situata modalità di vedere e conoscere il mondo. Il punto non è quindi eliminare i bias, che ci saranno sempre, ma mitigarli e governarli.

La vera sfida che affrontiamo è quella di quantificare, codificare il mondo umano e quello cosiddetto “più-che-umano”, cioè tutto ciò che non è strettamente umano.

La quantificazione implica classificazione, standardizzazione e gerarchizzazione: tutto ciò che è X non è Y. Quando l’intelligenza artificiale viene applicata a contesti umani, soprattutto nel settore pubblico – per esempio nell’erogazione di servizi – emergono rischi significativi.

Negli ultimi anni, a livello internazionale, si è discusso molto di come la dataficazione possa portare a discriminazioni sociali.

Abbiamo visto casi emblematici: sistemi di riconoscimento facciale che non riescono a riconoscere i volti delle donne nere, algoritmi che negano sussidi a cittadini immigrati, prestiti rifiutati sulla base del sesso o dello status economico, e insegnanti licenziate senza spiegazioni perché l’algoritmo responsabile delle decisioni era una black box: un sistema opaco che non rende comprensibili i processi che portano alla decisione finale.

Questi esempi mostrano chiaramente che l’IA, senza un controllo adeguato, può amplificare e sistematizzare ulteriormente le disuguaglianze già esistenti.

Questi sono alcuni dei rischi che come Coalizione abbiamo portato alla luce, e per i quali pensiamo sia fondamentale avere un’Autorità sull’intelligenza artificiale che sia non solo imparziale e indipendente, ma anche trasparente, partecipata e responsabile verso i cittadini.

I meccanismi di controllo previsti dal DDL, come le ispezioni, i poteri sanzionatori e la supervisione sull’utilizzo dell’IA, sono essenziali per garantire che i sistemi vengano implementati in conformità con standard etici e normativi.

Ma, come notato nel DDL, l’Autorità deve svolgere un ruolo preventivo, promuovendo la sensibilizzazione e l’educazione pubblica sui rischi e le opportunità dell’IA.

Questo approccio proattivo è fondamentale per creare una cultura dell’uso responsabile delle tecnologie, aiutando cittadini e istituzioni a comprendere meglio le implicazioni di queste tecnologie.

Vorrei approfittare di questo momento per riflettere insieme sull’importanza di stabilire meccanismi di valutazione chiari che ci permettano di comprendere quando l’IA sia realmente utile e necessaria per raggiungere un determinato obiettivo, e quando invece si rischia di considerarla automaticamente come la soluzione migliore, anche in contesti dove forse non lo è.

Questo diventa particolarmente importante nel considerare anche gli impatti ambientali dell’IA, che sono ancora poco esplorati ma sicuramente significativi, in quanti l’IA è una tecnologia materiale, il cui utilizzo impiega minerali rari, acqua, elettricità, energia, e produce CO2.

Dobbiamo quindi co-costruire metodi di valutazione per determinare questo valore e capire quando l’uso dell’IA è giustificato e porta un valore complessivo aggiunto, e quando invece potremmo trovare un’altra strada altrettanto o più soddisfacente.

Questo ci permetterebbe anche di individuare con più chiarezza quali sono le cose a cui diamo valore, e quindi quali bias–inevitabili–le AI che useremo avranno.

Pensiamo che attraverso gli strumenti identificati nel DDL oggi presentato, come ad esempio i meccanismi di controllo, la supervisione e la vigilanza sull’uso dell’IA e il coinvolgimento della società civile, l’Autorità possa giocare un ruolo centrale in questo processo, contribuendo a valutare l’impatto sociale e ambientale dell’IA e garantendo un equilibrio tra innovazione e tutela dei diritti umani e del pianeta.

Torna in alto