Quello che è successo nelle ultime due settimane tra Anthropic e il Pentagono (che l'amministrazione Trump ha ribattezzato "Dipartimento della Guerra") non è una semplice disputa contrattuale. È il primo vero banco di prova su chi debba stabilire i limiti dell'intelligenza artificiale quando questa viene applicata alla difesa nazionale. E le implicazioni, per chi investe nel settore tech e AI, sono profonde.
Facciamo un passo indietro. Anthropic, l'azienda dietro Claude è stata fondata da ex dirigenti di OpenAI con una missione chiara: sviluppare sistemi di intelligenza artificiale che siano potenti ma anche sicuri. Per anni questa posizione è sembrata sostenibile. L'azienda ha collaborato con il governo USA, è diventata il primo laboratorio AI ad operare sulle reti classificate del Pentagono e ha intrecciato partnership commerciali con colossi come Amazon, Google e Microsoft. Poi le cose sono cambiate, e in fretta.
La Rottura: Due Linee Rosse Che il Pentagono Non Ha Accettato
Il nodo centrale è presto detto. Nel luglio 2025, Anthropic e il Pentagono avevano firmato un contratto che prevedeva l'uso di Claude nelle reti classificate militari, con il Pentagono che accettava le policy di utilizzo accettabile dell'azienda. Successivamente, il Dipartimento della Difesa ha chiesto di rinegoziare quei termini, pretendendo che Claude fosse disponibile per "tutti gli usi leciti" senza alcuna restrizione aggiuntiva.
Anthropic ha mantenuto due posizioni non negoziabili. La prima: nessun uso di Claude per la sorveglianza di massa dei cittadini americani. La seconda: nessun impiego per alimentare armi completamente autonome capaci di selezionare e colpire bersagli senza intervento umano. Il CEO Dario Amodei ha motivato queste scelte spiegando che i modelli AI attuali non sono affidabili abbastanza per gestire autonomamente decisioni letali, e che la sorveglianza di massa rappresenta una violazione dei diritti fondamentali.
Il Pentagono la vede all'opposto. Per i vertici militari, nessun fornitore privato può inserirsi nella catena di comando limitando l'uso della tecnologia per scopi legali. Settimane di negoziati non hanno prodotto alcun compromesso. Il 27 febbraio 2026, scaduto l'ultimatum delle 17:01, Anthropic non ha ceduto.
Cronologia degli eventi chiave
Il Memo Trapelato e le Scuse di Amodei
A rendere tutto più incandescente è intervenuto un elemento umano e politico. Un promemoria interno di Dario Amodei è trapelato sui media: il CEO sosteneva che l'amministrazione Trump stava punendo Anthropic perché l'azienda non aveva offerto donazioni o "lodi in stile dittatoriale" al presidente. La frase ha fatto il giro del mondo, trasformando una disputa tecnico-legale in una storia di scontro politico personale.
Amodei ha successivamente riconosciuto che il tono del suo memo non era stato d'aiuto e che aveva reso un momento già complicato ancora più teso. Ha espresso rammarico per il linguaggio utilizzato. Ma non ha cambiato posizione sui contenuti: secondo lui la mossa del Pentagono resta legalmente infondata e pericolosa per l'intero settore. Un mix insolito, dunque: scuse per la forma, nessun arretramento sulla sostanza.
La Designazione: Un Precedente Senza Precedenti
Il 5 marzo 2026 il Pentagono ha formalmente notificato ad Anthropic la designazione come "rischio per la catena di approvvigionamento", con effetto immediato. Si tratta di un'etichetta normalmente riservata ad aziende straniere legate a stati ostili — pensiamo al caso Huawei, per intenderci. Anthropic è la prima azienda americana a riceverla pubblicamente.
In termini pratici, la designazione obbliga tutti i contractor della difesa a certificare di non utilizzare i modelli Claude nel loro lavoro con il Pentagono. Il presidente Trump ha inoltre ordinato a tutte le agenzie federali di cessare l'uso della tecnologia Anthropic, concedendo un periodo di transizione di sei mesi. La GSA (General Services Administration) ha già rimosso Anthropic dalla piattaforma USAi.gov.
Amodei ha tuttavia sottolineato che la portata effettiva della misura è più stretta di quanto la retorica iniziale suggerisse. La lettera ricevuta dal Pentagono indica che il divieto si applica solo all'uso di Claude come "parte diretta" dei contratti militari. I clienti commerciali non sono coinvolti, e lo stesso vale per i lavori governativi non legati alla difesa.
OpenAI Si Fa Avanti: Opportunismo o Pragmatismo?
Poche ore dopo l'annuncio del ban, OpenAI ha comunicato di aver raggiunto un proprio accordo con il Pentagono per dispiegare i suoi modelli sulle reti classificate. Il CEO Sam Altman ha dichiarato che l'accordo è stato "sicuramente affrettato" ma motivato dalla volontà di de-escalare la situazione. Ha assicurato che OpenAI condivide le stesse "linee rosse" di Anthropic — niente sorveglianza di massa, niente armi autonome — aggiungendo una terza: niente decisioni automatizzate ad alto rischio come sistemi di credito sociale.
La mossa ha scatenato polemiche. Molti dipendenti di OpenAI hanno espresso frustrazione interna per quella che è apparsa come un'operazione opportunistica. Altman stesso ha ammesso che l'effetto ottico non era dei migliori. Osservatori esterni hanno poi sollevato dubbi sulla reale forza delle garanzie contrattuali di OpenAI, notando che il linguaggio legale potrebbe contenere scappatoie significative. La rivista MIT Technology Review ha osservato che le tutele di OpenAI si basano più sul rispetto della legge esistente che su vincoli contrattuali specifici — esattamente il tipo di approccio che Anthropic considerava insufficiente.
Palantir e i Contractor: L'Effetto Domino sulla Difesa
L'impatto più immediato e tangibile si sta manifestando su Palantir Technologies (PLTR). Il Maven Smart System di Palantir — la piattaforma AI utilizzata dagli operatori militari in Medio Oriente — fa pesante affidamento su Claude per l'analisi dei dati e il supporto decisionale. Secondo quanto riportato da Reuters, svincolarsi da Claude sarà un processo "doloroso" perché molte parti di Maven sono state costruite specificamente attorno alle capacità del modello Anthropic.
Il titolo Palantir ha mostrato una reazione bifasica. Inizialmente ha subito pressioni al ribasso per l'incertezza sulla transizione, ma poi è rimbalzato di oltre il 13% in sei sedute consecutive, con gli analisti che hanno letto la situazione come un'opportunità: con Anthropic fuori dai giochi, Palantir e i suoi nuovi partner AI (OpenAI, xAI di Elon Musk, Google) potrebbero catturare miliardi di dollari in contratti governativi. Diversi analisti di Wall Street hanno alzato il rating a "Buy" definendo Palantir come il principale beneficiario nel lungo periodo.
Lockheed Martin ha dichiarato che seguirà le direttive del presidente e cercherà altri fornitori di modelli linguistici, precisando di non dipendere da un singolo fornitore. Ma per i contractor più piccoli, la sostituzione potrebbe essere tutt'altro che indolore.
L'Effetto Paradossale: Claude Conquista i Consumatori
Ed ecco il colpo di scena che pochi si aspettavano. Mentre Anthropic perdeva il Pentagono, vinceva i consumatori. Claude è salito al primo posto nell'App Store di Apple il 28 febbraio, superando sia ChatGPT che Google Gemini. Nei giorni successivi ha raggiunto la vetta anche su Google Play. Secondo i dati di Appfigures, al 2 marzo Claude registrava circa 149.000 download giornalieri negli USA contro i 124.000 di ChatGPT.
Secondo Similarweb, gli utenti attivi giornalieri di Claude su mobile sono passati da circa 4 milioni a inizio anno a 11,3 milioni al 2 marzo, con un balzo del 183%. L'azienda stessa ha confermato che le iscrizioni giornaliere sono triplicate rispetto a novembre. Anthropic ha persino registrato un'interruzione temporanea del servizio per la "domanda senza precedenti".
Un sondaggio di Morning Consult su 2.000 adulti americani ha rilevato che oltre la metà degli intervistati ritiene che il governo sia andato troppo oltre nel trattamento di Anthropic, e due terzi — trasversalmente rispetto agli schieramenti politici — crede che le aziende tech abbiano la responsabilità di porre limiti ai propri prodotti AI.
Microsoft, Google e Amazon: Claude Resta Disponibile
Un elemento cruciale per la valutazione dell'impatto reale è arrivato dai tre giganti del cloud. Microsoft ha dichiarato che i suoi legali hanno studiato la designazione e concluso che i prodotti Anthropic, incluso Claude, possono continuare ad essere offerti ai clienti (escluso il Dipartimento della Guerra) attraverso piattaforme come M365, GitHub e Microsoft AI Foundry. Google ha confermato la stessa posizione: Claude resta disponibile su Google Cloud per progetti non legati alla difesa. E Amazon Web Services ha comunicato che i clienti possono continuare ad utilizzare Claude per tutti i carichi di lavoro non associati alla difesa.
Questo è fondamentale: la grande maggioranza dei ricavi di Anthropic proviene dal settore commerciale, non dalla difesa. Le partnership cloud con i tre hyperscaler restano intatte, e questo limita significativamente il danno economico diretto.
Cosa Significa per gli Investitori
Breve periodo: Volatilità e Riposizionamento
Nel breve termine, chi investe nel settore AI e difesa deve prepararsi a una fase di volatilità e riposizionamento. I titoli dei contractor della difesa — Palantir in testa — sono soggetti a movimenti erratici legati ad ogni nuova dichiarazione o sviluppo legale. OpenAI, che non è quotata ma i cui effetti si riflettono su partner come Microsoft, potrebbe beneficiare nel breve dalla sostituzione di Claude nelle reti classificate. Attenzione anche ai titoli di Amazon e Google, investitori di Anthropic per miliardi di dollari, che potrebbero subire pressioni se il mercato percepisse rischi per le loro relazioni governative. Finora, le rassicurazioni dei tre cloud provider hanno contenuto le preoccupazioni.
Medio periodo: La Battaglia Legale
Nel medio termine, il fattore determinante sarà la causa legale che Anthropic ha annunciato. L'azienda ritiene che la designazione ecceda i poteri conferiti dalla legge e intende contestarla in tribunale. Se un giudice desse ragione ad Anthropic, l'etichetta potrebbe essere annullata o limitata, stabilendo un precedente che proteggerebbe anche altri laboratori AI. Se invece il Pentagono prevalesse, il precedente renderebbe più facile per il governo disciplinare qualsiasi azienda tech che rifiuti di conformarsi ai desideri militari. La lettera firmata da 30 ex funzionari militari e dell'intelligence che chiede al Congresso di indagare sul precedente creato aggiunge peso politico alla questione. Senatori di entrambi gli schieramenti hanno già criticato la mossa dell'amministrazione.
Lungo periodo: Un Nuovo Paradigma per l'IA Militare
Sul lungo periodo, questa vicenda potrebbe ridefinire completamente il rapporto tra industria AI e governi. Ci sono tre scenari da monitorare. Il primo è quello legislativo: il Congresso potrebbe decidere di intervenire con leggi specifiche che definiscano quali guardrail le aziende AI possono o devono imporre quando lavorano con il militare. Il secondo riguarda il precedente internazionale: governi autoritari potrebbero usare il caso Anthropic come giustificazione per punire aziende AI che rifiutano certi utilizzi militari o di sorveglianza. Alleati democratici, d'altro canto, potrebbero mettere in discussione la credibilità degli USA nel criticare pratiche simili altrove. Il terzo scenario è quello della ristrutturazione industriale: le aziende AI che mantengono rigide norme di sicurezza rischiano di trovarsi escluse da mercati lucrativi, favorendo quelle più disposte ad allinearsi alle richieste militari.
Segnali positivi per il settore AI
La crescita esplosiva dei download di Claude dimostra che i consumatori premiano le aziende che difendono i propri principi etici. Microsoft, Google e Amazon hanno confermato che le partnership commerciali con Anthropic non sono coinvolte, proteggendo la maggior parte dei ricavi. La reazione bipartisan al Congresso e la lettera dei 30 ex funzionari suggeriscono che il precedente potrebbe essere corretto prima di consolidarsi. Palantir e altri contractor potrebbero beneficiare dalla diversificazione dei fornitori AI.
Rischi da monitorare con attenzione
L'effetto paralizzante potrebbe estendersi ben oltre i contratti direttamente coinvolti: contractor prudenti potrebbero abbandonare Anthropic anche per progetti non legati alla difesa, per evitare qualsiasi rischio. La causa legale potrebbe richiedere anni, durante i quali l'incertezza pesa sulle valutazioni. Se il precedente regge, qualsiasi laboratorio AI con forti principi di sicurezza diventa un potenziale bersaglio. La sostituzione di Claude nei sistemi Maven di Palantir potrebbe creare gap operativi temporanei in un momento di tensioni geopolitiche attive.
Il Quadro Più Ampio: Chi Decide i Limiti dell'IA?
Al di là dei numeri e dei titoli azionari, lo scontro Anthropic-Pentagono pone una questione fondamentale che definirà il prossimo decennio del settore. Le aziende che sviluppano intelligenza artificiale di frontiera dovrebbero avere il diritto di tracciare linee rosse che nemmeno i militari possono oltrepassare? Oppure gli stati dovrebbero sempre avere l'ultima parola, purché i loro utilizzi siano leciti?
Un parallelo utile è quello della crittografia. Immaginate un'azienda che produce strumenti di cifratura e si rifiuta di indebolirne la sicurezza. Alcuni governi potrebbero minacciarla di bandirla, sostenendo che una crittografia forte aiuta i criminali. L'azienda deve quindi scegliere tra la promessa di privacy fatta ai suoi utenti e l'accesso a un mercato enorme. Anthropic si trova in una posizione analoga, ma il terreno di scontro è l'IA militare.
Per gli investitori, la lezione pratica è questa: il settore dell'intelligenza artificiale non è più solo una storia di capacità tecnologiche e modelli linguistici sempre più potenti. È anche una storia di governance, di scelte etiche e di rapporti di forza tra industria e governi. Le aziende che navigheranno meglio questo equilibrio — mantenendo la fiducia dei consumatori senza alienare completamente i governi — saranno quelle meglio posizionate nel lungo termine.
Lo scontro è appena iniziato. Tribunali, legislatori e ministeri della difesa di mezzo mondo stanno guardando. E con loro, milioni di investitori.
