L’Artificial Intelligence (AI) Office della Commissione Europea rilascerà a breve le linee guida sulla definizione di intelligenza artificiale e sulla classificazione dei sistemi vietati ai sensi dell’AI Act, il regolamento UE sull’intelligenza artificiale.
Linee guida che, una volta approvate, si riveleranno cruciali nel processo di attuazione del regolamento.
Ecco perché le organizzazioni facenti parte delle coalizioni Società civile per l’AI Act e #ProtectNotSurveil, compresa Hermes Center, hanno deciso di dire la loro in materia, sfruttando l’apertura di un’apposita consultazione.
L’AI Act è già stato criticato a più riprese dalla società civile per non contrastare adeguatamente potenziali violazioni dei diritti umani — ad esempio, nell’ambito di applicazione della giustizia e nell’ambito migratorio.
Di seguito, alcune delle richieste chiave che abbiamo presentato all’AI Office (versione integrale in inglese su accessnow.org):
- Includere anche i sistemi cosiddetti “semplici” nell’ambito della definizione di sistema d’intelligenza artificiale. Tali sistemi non devono essere considerati “fuori ambito” dell’AI Act solo perché ricorrono ad algoritmi meno complessi. Il timore è che gli sviluppatori possano servirsi della definizione di IA e della classificazione dei sistemi di IA ad alto rischio per eludere gli obblighi previsti dal regolamento. In sostanza, quest’ultimo deve concentrarsi soprattutto sul rischio potenziale, non solo sui metodi tecnici.
- Apportare ulteriori specifiche e chiarimenti ai divieti da applicarsi ai sistemi che pongono un “rischio inaccettabile” per i diritti umani fondamentali, così da prevenire discriminazioni contro i gruppi emarginati e utilizzo illecito della sorveglianza biometrica di massa.
2.1. In particolare: il divieto del social scoring (pratica volta a valutare il comportamento delle persone attraverso parametri online e offline, assegnando loro un punteggio) deve essere meglio specificato, e deve includere dettagli sull’applicazione dei sistemi IA nei settori del welfare e della migrazione.2.2. Il divieto di praticare predictive policing (pratica che consiste nell’utilizzo di sistemi di IA da parte delle forze dell’ordine per l’elaborazione di previsioni realtive a un crimine futuro) prevede fin troppe eccezioni, allo stato attuale. Si chiede che le linee guida riconoscano che la previsione del “rischio di commettere un reato” comprende, di fatto, un’ampia gamma di comportamenti, i quali comportano conseguenze giuridiche e amministrative.
2.3. Il divieto attuale sul web scraping non mirato delle immagini facciali lascia spazio a diverse lacune. Le linee guida devono chiarire che qualsiasi deroga dal divieto deve essere conforme alla giurisprudenza della Corte di Giustizia dell’UE, e che qualsiasi volto estratto da Internet o da filmati CCTV deve essere direttamente collegato alla commissione di un crimine. Altrimenti, le immagini facciali di persone innocenti potrebbero essere estratte solo perché appaiono nello stesso filmato CCTV in cui è stato commesso un crimine. Chiediamo inoltre alla Commissione di prevenire le lacune eliminando la definizione proposta di database di immagini facciali.
2.4. Consideriamo problematica legittimazione di alcuni sistemi di riconoscimento delle emozioni nell’AI Act. Questi strumenti, oltre ad essere scientificamente inaffidabili, sono altamente invasivi e potrebbero portare a gravi conseguenze per le persone coinvolte. Le linee guida devono quindi stabilire in modo chiaro la differenza tra apparecchiature mediche legittime (ad esempio, i monitor cardiaci) e sistemi che mirano a dedurre o identificare le emozioni delle persone (ad esempio, la “rilevazione di aggressività”). I secondi non possono essere considerati esenti dal divieto.
2.5. Categorizzazione biometrica: è fondamentale che le linee guida chiariscano che il divieto si applica anche quando vengono fatte deduzioni su “etnia” e “identità di genere”.
2.6. Le linee guida devono rafforzare il linguaggio relativo all’identificazione biometrica remota o riconoscimento biometrico (RBI) per prevenire forme di sorveglianza biometrica di massa. In particolare, devono specificare che lo sviluppo di sistemi RBI in tempo reale per l’esportazione dovrebbe essere compreso nell’ambito del divieto; che la clausola “senza il loro coinvolgimento attivo” riferito alle persone potenzialemente sorvegliate non consente necessariamente delle forze dell’ordine di affiggere cartelli nell’area sorvegliata e affermare che le persone sono coinvolte attivamente e quindi sorvegliabili. Infine, mentre continuiamo a chiedere un divieto totale sull’RBI a posteriori (ex post) da parte di attori pubblici e privati, sollecitiamo che la clausola della “significativa dilazione” sia di almeno 24 ore dopo la cattura.
- Per quanto riguarda l’interazione con altre leggi dell’Unione, le linee guida devono garantire che la legislazione sui diritti umani, in particolare la Carta dei diritti fondamentali dell’UE, costituiscano il fulcro per l’attuazione del regolamento. Per questo motivo, le linee guida sono tenute a sottolineare che l’obiettivo dei divieti è quello di servire a scopo preventivo.