Il Pentagono sta cercando di integrare l’IA nell’analisi dei dati di massa, scatenando un duro scontro etico tra Anthropic, che ha rifiutato l’uso per sorveglianza domestica, e OpenAI, che ha invece siglato un accordo. Il dibattito evidenzia un pericoloso vuoto normativo: il governo può acquistare legalmente dai privati enormi dataset commerciali, aggirando di fatto il Quarto Emendamento che richiederebbe un mandato. Il caso solleva interrogativi su come definire la privacy in un’era in cui le tracce digitali sono diventate una merce accessibile alle agenzie di intelligence.
Il confronto pubblico tra il Dipartimento della Difesa statunitense e alcune delle principali aziende di intelligenza artificiale ha riportato al centro del dibattito una questione mai del tutto risolta: se e in che misura la legge consenta al governo degli Stati Uniti di raccogliere e analizzare dati su larga scala relativi ai propri cittadini. A distanza di oltre un decennio dalle rivelazioni di Edward Snowden sulla raccolta di metadati telefonici da parte della NSA, il quadro normativo resta incerto e non sempre allineato con la percezione comune di cosa costituisca una violazione della privacy.
La controversia è esplosa quando il Pentagono ha manifestato l’intenzione di utilizzare Claude, il modello di AI sviluppato da Anthropic, per analizzare grandi quantità di dati commerciali riguardanti cittadini americani. Anthropic ha posto come condizione che la propria tecnologia non venisse impiegata per la sorveglianza domestica di massa, né per sistemi d’arma autonomi. A seguito della rottura delle trattative, il Dipartimento della Difesa ha classificato Anthropic come rischio per la catena di approvvigionamento, un’etichetta normalmente riservata a entità straniere considerate una minaccia.
Nel frattempo OpenAI, la società dietro ChatGPT, ha siglato un accordo che permetteva l’uso della propria tecnologia per qualsiasi scopo conforme alla legge. La formulazione ha sollevato critiche immediate, innescando una reazione tra gli utenti che hanno disinstallato l’applicazione in massa e organizzato manifestazioni presso la sede di San Francisco.
Le modifiche all’accordo OpenAI
A seguito delle proteste, OpenAI ha annunciato di aver rivisto i termini del contratto con il Pentagono. La nuova versione specifica che i sistemi dell’azienda non saranno utilizzati per la sorveglianza domestica di cittadini statunitensi e non saranno messi a disposizione di agenzie di intelligence come la NSA. Il CEO Sam Altman ha sostenuto che la normativa vigente già vieti al Dipartimento della Difesa di condurre sorveglianza domestica, e che l’accordo si limiti a riflettere tali vincoli legislativi.
Dario Amodei, amministratore delegato di Anthropic, ha espresso una posizione opposta, affermando che se tale forma di sorveglianza risulta attualmente legale è solo perché la legislazione non ha ancora tenuto il passo con le capacità in rapida evoluzione dell’intelligenza artificiale. Il nuovo contratto di OpenAI include anche l’impegno a implementare misure tecniche di controllo, descritte come uno strato di sicurezza progettato per monitorare e bloccare usi proibiti, oltre alla presenza di personale dell’azienda che collaborerà direttamente con il Pentagono.
Restano tuttavia aperti diversi interrogativi. Il contratto continua a consentire l’utilizzo della tecnologia per qualsiasi scopo legale, il che potrebbe includere la raccolta e l’analisi di informazioni personali sensibili. Inoltre, non è chiaro cosa accada in caso di sorveglianza non intenzionale o quando si tratti di stranieri o immigrati senza documenti presenti sul territorio statunitense.
Cosa consente la legge attuale
La questione centrale riguarda proprio cosa la normativa consideri sorveglianza. Secondo esperti legali, molte attività che il pubblico percepirebbe come forme di controllo non rientrano tecnicamente nelle definizioni giuridiche di ricerca o sorveglianza. Informazioni pubbliche come post sui social media, filmati di telecamere di sicurezza o registri elettorali sono accessibili senza restrizioni particolari, così come i dati relativi a cittadini americani raccolti incidentalmente durante la sorveglianza di cittadini stranieri.
Un aspetto particolarmente rilevante riguarda l’acquisto di dati commerciali. Negli ultimi anni, agenzie che vanno dall’ICE e IRS fino all’FBI e alla NSA hanno fatto ricorso crescente a questo mercato di informazioni, alimentato da un’economia digitale che raccoglie dati degli utenti a scopi pubblicitari. Attraverso questi dataset, il governo può accedere a informazioni che altrimenti richiederebbero mandati o citazioni in giudizio, come la localizzazione dei dispositivi mobili o la cronologia di navigazione.
Il Quarto Emendamento della Costituzione statunitense protegge da perquisizioni e sequestri irragionevoli, ma fu scritto in un’epoca in cui raccogliere informazioni significava entrare fisicamente nelle abitazioni. Le leggi successive, come il Foreign Intelligence Surveillance Act del 1978 o l’Electronic Communications Privacy Act del 1986, furono concepite quando la sorveglianza comportava intercettazioni telefoniche o di email. La maggior parte della normativa esistente precede l’espansione di internet e la generazione massiccia di tracce digitali da parte degli utenti.
L’intelligenza artificiale come moltiplicatore di capacità
L’intelligenza artificiale amplifica drasticamente le possibilità di sorveglianza. Secondo gli esperti, l’AI può aggregare singole informazioni non sensibili in sé, ma che combinate consentono di individuare schemi, formulare previsioni e costruire profili dettagliati delle persone su scala massiva. Finché il governo raccoglie i dati in modo conforme alla legge, può utilizzarli senza vincoli significativi, incluso l’impiego in sistemi di intelligenza artificiale.
Il Pentagono può avere legittimi interessi di sicurezza nazionale nella raccolta e nell’analisi di dati su cittadini americani, ma solo per un sottoinsieme specifico di missioni. Operazioni di controspionaggio, ad esempio, possono richiedere informazioni su cittadini che lavorano per governi stranieri o sono coinvolti in attività terroristiche internazionali. Tuttavia, l’intelligence mirata può talvolta estendersi a raccolte di dati più ampie.
Al momento, la regolamentazione dell’uso militare dell’intelligenza artificiale avviene attraverso contratti privati piuttosto che attraverso la legislazione. Alcuni parlamentari hanno iniziato a muoversi in questa direzione: il senatore Ron Wyden dell’Oregon sta cercando supporto bipartisan per una legge che affronti la sorveglianza di massa, dopo aver promosso senza successo dal 2021 il Fourth Amendment Is Not For Sale Act, che limiterebbe l’acquisto di dati commerciali da parte del governo.





