Meta ha intenzione di “aprire” l’utilizzo di Llama, il suo LLM (large language model), alle agenzie governative statunitensi e ai fornitori del settore bellico per scopi di “sicurezza nazionale”.
Questa partnership, annunciata il 4 novembre sul sito del colosso tech e poi ripresa da varie testate, come The Verge, solleva grandi preoccupazioni tra i rappresentanti della società civile e organizzazioni come la nostra.
Significativa anche la tempistica: Meta ha annunciato la partnership con il governo USA per questioni di sicurezza nazionale tre giorni dopo l’uscita di un’esclusiva di Reuters che documentava l’utilizzo di Llama 3 da parte dell’Esercito Popolare di Liberazione cinese.
La crescente militarizzazione dell’intelligenza artificiale costituisce una minaccia per i diritti umani, poiché alimenta pratiche invasive come sorveglianza di massa, controllo sociale e, soprattutto, moltiplica le capacità distruttive belliche, come dimostrato con l’invasione di Gaza da parte dell’esercito israeliano.
Sebbene l’accordo tra Meta e agenzie governative preveda alcune restrizioni, ricordiamo che le applicazioni di IA in ambito militare spesso comportano una supervisione limitata, e ciò rappresenta un problema in termini di trasparenza e accountability. Inoltre, tale collaborazione potrebbe accelerare lo sviluppo di armi autonome o altri sistemi esenti da garanzie etiche e imprecisi e fallaci.
Un esempio concreto è Defense Llama di Scale AI, strumento basato su Llama AI e utilizzato per pianificare operazioni militari. Nonostante il marketing ne esalti l’efficacia, gli esperti hanno evidenziato come l’algoritmo fornisca suggerimenti imprecisi e pericolosamente semplicistici, come nel caso della pianificazione di attacchi aerei.
Queste lacune mettono in discussione l’affidabilità dell’IA in decisioni militari critiche, minacciando di sostituire i tradizionali processi guidati da esperti con meccanismi meno rigorosi dal punto di vista etico e giuridico.
A lungo termine, l’uso indiscriminato di tecnologie AI potrebbe ulteriormente spianare la strada a sistemi d’arma autonomi e altri strumenti potenzialmente devastanti, senza adeguate salvaguardie etiche.