In meno di due settimane, il panorama delle partnership tra aziende di intelligenza artificiale e governo statunitense ha vissuto una svolta inattesa. Le trattative tra Anthropic e il Pentagono per l’utilizzo di Claude sono fallite, l’amministrazione Trump ha inserito l’azienda in una lista di rischi per la catena di approvvigionamento, e Anthropic ha annunciato che impugnerà la decisione in tribunale. Nel frattempo, OpenAI ha siglato rapidamente un accordo con il Dipartimento della Difesa, scatenando reazioni contrastanti tra gli utenti.
La vicenda ha portato a un picco di disinstallazioni di ChatGPT, con un aumento registrato del 295 percento, mentre Claude ha scalato le classifiche degli app store. All’interno di OpenAI, almeno un dirigente si sarebbe dimesso per preoccupazioni legate alla velocità con cui l’accordo sarebbe stato annunciato, senza adeguate garanzie preventive.
Le implicazioni per le startup tecnologiche
La questione centrale riguarda il futuro delle collaborazioni tra startup e governo federale, in particolare con il Pentagono. Durante una conversazione nel podcast Equity di TechCrunch, i giornalisti Kirsten Korosec, Sean O’Kane e Anthony hanno discusso se questa controversia possa spingere altre aziende emergenti a riconsiderare il proprio interesse verso fondi e contratti federali.
Secondo Sean O’Kane, la situazione presenta caratteristiche particolari che difficilmente si ripeteranno per altre realtà. Molte aziende, dalle startup alle Fortune 500, collaborano da tempo con il Dipartimento della Difesa senza attirare l’attenzione pubblica. General Motors, ad esempio, produce veicoli militari da decenni, incluse versioni elettriche e autonome, senza che questo generi dibattito diffuso.
Perche Anthropic e OpenAI sono casi speciali
Le aziende di intelligenza artificiale come Anthropic e OpenAI si trovano sotto i riflettori per una combinazione di fattori. I loro prodotti sono utilizzati quotidianamente da milioni di persone e generano costante attenzione mediatica. Questo rende qualsiasi loro decisione, specialmente quelle che riguardano applicazioni militari, particolarmente visibile e soggetta a scrutinio pubblico.
L’elemento che amplifica ulteriormente il dibattito riguarda l’uso specifico delle tecnologie di intelligenza artificiale in contesti operativi che coinvolgono decisioni critiche. La discussione non si limita a una semplice collaborazione commerciale, ma tocca questioni etiche legate all’impiego di sistemi automatizzati in scenari militari. Questo aspetto distingue la questione da altre partnership con il settore della difesa.
Il nodo dei contratti modificati
Uno degli aspetti piu rilevanti della vicenda riguarda il tentativo del Pentagono di modificare i termini di un contratto gia esistente con Anthropic. I contratti governativi richiedono normalmente tempi lunghi di negoziazione e definizione, e tentativi di alterare accordi gia stabiliti rappresentano una situazione insolita.
Questo elemento, secondo gli osservatori, potrebbe avere ripercussioni piu ampie rispetto al singolo caso. La possibilita che i termini contrattuali vengano rivisti unilateralmente rappresenta un elemento di incertezza per qualsiasi azienda che valuti collaborazioni con enti governativi. Al momento, tuttavia, non emergono segnali di un ripensamento generalizzato da parte delle startup tecnologiche verso opportunita nel settore della difesa.
La questione include anche dinamiche personali tra figure chiave, con riferimenti a tensioni tra il CEO di Anthropic e Emil Michael, Chief Technology Officer per il Dipartimento della Difesa e figura nota per il suo passato in Uber. Le posizioni pubbliche di Anthropic e OpenAI non sono sostanzialmente diverse in termini di principi: entrambe le aziende dichiarano di volere restrizioni sull’uso delle proprie tecnologie. La divergenza sembra riguardare principalmente le modalita e i tempi di implementazione di queste partnership.





