Presentato a Roma il paper sui redress mechanisms: ecco com’è andata

Il 15 aprile abbiamo presentato alla Camera dei Deputati il nostro policy paper sui redress mechanisms, gli strumenti di ricorso contro i danni causati dall’intelligenza artificiale (il paper si può leggere a questo link; titolo completo: Garantire i diritti nell’era dell’IA – Meccanismi di ricorso e tutela dei diritti alla luce del regolamento europeo sull’intelligenza artificiale). Ecco il resoconto del nostro direttore, Davide Del Monte.

Com’è andato l’incontro

Ospitati da Elisabetta Piccolotti, deputata di AVS, e in compagnia dell’associazione amica The Good Lobby Italia, abbiamo avuto l’occasione di ribadire alcuni punti fondamentali rispetto all’impatto della tecnologia sulla società.

Innanzitutto, questo paper rappresenta solo l’ultimo tassello di un trittico di pubblicazioni a cui abbiamo lavorato nell’ultimo anno, con l’obiettivo di analizzare il regolamento europeo sull’intelligenza artificiale e avvertire dei rischi derivanti dalla diffusione di questa tecnologia, proponendo anche le contromisure che la politica dovrebbe prendere.

Dal nostro punto di vista, la questione è prima di tutto politica e solo successivamente tecnica: se le raccomandazioni che proponiamo nel report partono da una prospettiva giuridica, la cornice entro cui bisogna ragionare necessita però di una chiara visione ideologica.

Questi ultimi anni hanno visto un susseguirsi incessante di regolamenti, direttive e atti europei per riuscire a governare, o quantomeno limitare, l’impatto di algoritmi e intelligenza artificiale sulla nostra società, ma sempre da una posizione di retroguardia e con un ritardo incolmabile rispetto alla realtà ormai cristallizzata nei fatti.

DSA, DMA, AI ACT, DATA ACT… probabilmente in un futuro molto prossimo il Quantum ACT. Tutti mattoni di un muro di protezione costruito con estremo ritardo, quando piattaforme e algoritmi avevano già invaso i nostri spazi pubblici e le nostre vite private.

Per questo crediamo che la politica, sia europea che nazionale, debba cominciare a muoversi con anticipo, visione ed efficacia, su un piano valoriale e di principi prima che giuridico, per riuscire ad essere almeno un passo avanti e non 10 passi indietro rispetto all’industria tecnologica che va avanti spedita e al di fuori di ogni regola, sia legale che, spesso, di buon senso.

La tecnologia è davvero neutrale?

Può sembrare assurdo dover parlare di tecnologia in questi termini, ma così stanno le cose, dobbiamo mettercelo bene in testa: tanto per cominciare, la tecnologia non è per niente neutrale. Tutti possiamo esserne danneggiati, ma alcuni, anzi alcune, di più.

Donne, migranti, persone di colore (qualsiasi colore, tranne il bianco), persone che versano in condizione di povertà, sono soggetti dagli algoritmi agli stessi pregiudizi sociali che quegli algoritmi hanno, consapevolmente o inconsapevolmente, contribuito a creare, e di conseguenza avranno bisogno di tutela, protezione e strumenti di ricorso e riparazione.

In questo senso, speriamo che le nostre raccomandazioni vengano prese in considerazione da chi ha potere politico e decisionale, ma speriamo anche che le tante organizzazioni e collettivi che offrono supporto ai gruppi più deboli o marginalizzati diano la giusta importanza al tema, non relegando l’impatto dell’intelligenza artificiale in un angolino del loro quotidiano.

Perché i redress mechanisms servono ora

Come per la politica, è il momento di realizzare che l’unica salvezza è muoversi in anticipo e non aspettare di attivarsi solo in risposta alle spinte che arrivano dall’altra sponda dell’Atlantico.

Le prime 5 start up americane del settore dell’intelligenza artificiale messe insieme hanno un valore di mercato di circa 1,5 mila miliardi di dollari e, come spiega Catherine Bracy nel suo saggio “World Eater”, agiscono seguendo l’unica regola aurea dei fondi di venture capital da cui sono nate e che le sorreggono: espandersi il più velocemente possibile a prescindere da qualsiasi norma sociale, legge o regolamento, per diventare al più presto “too big to fail” e indispensabili al sistema, anche tramite meccanismi di lock in.

Prepararsi a rispondere a cose fatte è quindi una strategia perdente in partenza: bisogna agire con velocità e visione, con un deciso e chiaro approccio politico che privilegi la tutela dei diritti e la difesa degli interessi della società, non le opportunità di profitto del settore.

Anche a questo servono dei meccanismi di ricorso ben congegnati, efficaci e di chiaro e semplice utilizzo per i cittadini e il terzo settore.

Torna in alto