Una giudice ha dato ragione ad Anthropic nella disputa contro il Pentagono

una-giudice-ha-dato-ragione-ad-anthropic-nella-disputa-contro-il-pentagono
Una giudice ha dato ragione ad Anthropic nella disputa contro il Pentagono

E ha bloccato le restrizioni decise dal governo Trump dopo il rifiuto dell’azienda di AI di fornire indiscriminatamente i propri software

Caricamento player

Un tribunale federale della California ha bloccato temporaneamente le restrizioni imposte dall’amministrazione del presidente Donald Trump contro la società di intelligenza artificiale Anthropic. Anthropic è nota per il chatbot Claude ed è stata la prima ad aver ottenuto contratti da centinaia di migliaia di dollari con il dipartimento della Difesa statunitense, ma nelle ultime settimane tra le due parti è emerso un acceso scontro: il segretario alla Difesa Pete Hegseth voleva la massima libertà nell’impiego delle sue tecnologie, mentre Anthropic era contraria a certi utilizzi, per esempio per la sorveglianza di massa o in guerra.

La giudice Rita Lin, in particolare, si è espressa contro il provvedimento con cui l’amministrazione Trump aveva indicato Anthropic come “rischio per la catena di approvvigionamento”, ovvero come un fornitore del governo che con le sue attività comporta possibili rischi per la sicurezza nazionale.

La giudice ha accolto il ricorso presentato da Anthropic, sostenendo che gli organi governativi non possano usare il potere dello Stato «per punire o reprimere pareri sgraditi». Con la sua decisione ha sospeso la designazione di “supply-chain risk”, che di solito viene adottata per impedire ad aziende legate al governo cinese di fare affari negli Stati Uniti, soprattutto in settori strategici come quello delle telecomunicazioni o della difesa appunto. Ha sospeso anche il provvedimento che vietava alle agenzie federali di usare le tecnologie dell’azienda. La decisione comunque non è definitiva, e il caso può andare avanti.

I contratti fatti con il Pentagono prevedono che le tecnologie di Anthropic possano essere impiegate per la gestione di documenti secretati e legati alla sicurezza nazionale, ed è per questo motivo che l’azienda viene tenuta strettamente sotto controllo dal dipartimento della Difesa. Hegseth però aveva chiesto alla società di rendere disponibili i suoi sistemi di intelligenza artificiale per qualsiasi uso militare, minacciandola di revocare i contratti. Anthropic, che in questi anni ha cercato di distinguersi da altre società impegnate nelle AI per la maggiore attenzione alla tutela dei dati degli utenti e per un approccio più cauto verso lo sviluppo di sistemi che potrebbero essere pericolosi per la collettività, si era però rifiutata di cedere alle pressioni.

Come conseguenza Trump aveva ordinato a tutte le agenzie governative federali di smettere di usare i suoi prodotti. Le trattative erano ricominciate, ma poi l’amministrazione Trump l’aveva esclusa dalle forniture per il dipartimento della Difesa e l’aveva indicata come rischio per la catena di approvvigionamento. L’azienda aveva quindi fatto causa sia in California che nel distretto di Columbia (il territorio in cui si trova la capitale Washington), accusando l’amministrazione Trump di aver utilizzato la classificazione per colpirla su basi ideologiche, e violando il Primo emendamento della Costituzione statunitense, quello sulla libertà d’espressione.

– Leggi anche: La questione tra il Pentagono e le aziende di intelligenza artificiale, dall’inizio

Related Post