OpenAI sostituisce Anthropic nei contratti militari USA: lo scontro sui limiti dell'IA bellica

Sam Altman firma con il Dipartimento della Guerra per l'accesso alle reti classificate. Anthropic bandita dalle agenzie federali dopo il rifiuto di rimuovere l…

Contenuto

OpenAI sostituisce Anthropic nei contratti militari USA: lo scontro sui limiti dell'IA bellica

Scopri anche

OpenAI sostituisce Anthropic nei contratti militari USA: lo scontro sui limiti dell'IA bellica

OpenAI sostituisce Anthropic nei contratti militari USA: lo scontro sui limiti dell'IA bellica

In questo articolo:

Sam Altman ha annunciato su X l'accordo raggiunto tra OpenAI e il Dipartimento della Guerra per l'implementazione dei modelli di intelligenza artificiale nelle reti classificate del Pentagono. La notizia arriva poche ore dopo la decisione dell'amministrazione Trump di designare Anthropic come "rischio per la supply chain della difesa", una classificazione normalmente riservata ad aziende di nazioni avversarie come Huawei o Kaspersky.

La sostituzione di Anthropic con OpenAI nei contratti governativi segna un punto di svolta nelle relazioni tra Big Tech e istituzioni militari statunitensi. Il Pentagono ha concesso agli appaltatori un periodo di transizione di sei mesi per sostituire Claude Code, il modello linguistico di Anthropic, con le tecnologie di OpenAI.

Le ragioni del conflitto tra Anthropic e il Pentagono

⬆ Torna su

Secondo una ricostruzione del Washington Post, il punto di rottura risale a un incontro riservato del dicembre 2025 tra Dario Amodei, CEO di Anthropic, e il Sottosegretario alla Guerra per la Ricerca e l'Ingegneria, Emil Michael. Durante la riunione, Michael avrebbe sottoposto ad Amodei uno scenario di crisi: un attacco imminente di missili balistici diretti verso il suolo statunitense, con tempi di reazione umani insufficienti.

Il Pentagono chiedeva se Anthropic avrebbe permesso ai propri modelli di assumere il controllo dei sistemi difensivi per neutralizzare la minaccia. La risposta di Amodei, che ha suggerito di contattare l'azienda per discutere una deroga temporanea ai protocolli di sicurezza, è stata interpretata dai vertici della Difesa come una prova di "inaccettabile arroganza". Per il Pentagono, l'idea che la difesa nazionale debba dipendere dal permesso telefonico di un dirigente privato rappresenta una vulnerabilità strategica.

Anthropic ha tracciato due linee rosse invalicabili: il divieto di utilizzare Claude per la sorveglianza di massa dei cittadini americani e per progettare o gestire armi letali completamente autonome. L'azienda ha basato la propria identità sull'approccio "AI Safety", finalizzato a rendere i sistemi affidabili e allineati ai valori umani.

La reazione dell'amministrazione Trump

⬆ Torna su

Il Segretario alla Difesa Pete Hegseth ha accusato Anthropic di voler imporre i propri termini di servizio al governo, mettendo in pericolo i soldati americani. Trump ha annunciato su Truth la cessazione immediata dell'uso della tecnologia Anthropic da parte di qualsiasi agenzia federale, definendo Amodei "sinistroide esaltato" in un post sul suo social.

Emil Michael ha definito Amodei "un bugiardo con il complesso di Dio" su X, mentre Elon Musk ha dichiarato che "Anthropic odia la civiltà occidentale" sotto un post di Michael, affermazione poi ripubblicata dallo stesso Hegseth. Musk controlla xAI, società concorrente di Anthropic con contratti militari.

Il senatore democratico Mark Warner, vicepresidente della Commissione Intelligence del Senato, ha accusato Trump di mettere a rischio la prontezza operativa per ragioni ideologiche. Claude è già utilizzato dalla NSA per esaminare intercettazioni e comunicazioni estere, e dalla CIA come supporto per l'individuazione di pattern nei report informativi.

L'accordo OpenAI-Pentagono

⬆ Torna su

Sam Altman ha dichiarato che l'accordo include "le stesse identiche tutele" richieste da Anthropic: divieto di sorveglianza di massa a livello nazionale e responsabilità umana nell'uso della forza, compresi i sistemi d'arma autonomi. Altman ha scritto che il Dipartimento della Guerra "condivide questi principi, li riflette nella legge e nelle politiche, e li abbiamo inseriti nel nostro accordo".

Il fulcro tecnico del compromesso risiede nel "safety stack", una struttura a strati sovrapposti progettata per regolare l'interazione tra l'intelligenza artificiale e l'utilizzatore finale. Si tratta di un sistema di filtri e controlli intermedi che agisce come una camera di compensazione: il governo può impartire comandi e utilizzare la capacità di calcolo del modello per scopi ritenuti leciti, ma ogni input deve passare attraverso una serie di protocolli di verifica automatizzati.

OpenAI ha accettato di operare all'interno del perimetro legale tracciato dal governo, cercando un punto di equilibrio tra le esigenze della sicurezza nazionale e i propri protocolli di sicurezza. Altman ha auspicato che il Pentagono "offra gli stessi termini a tutte le aziende di IA" come modo per "ridurre le tensioni dai provvedimenti legali e governativi verso accordi ragionevoli".

Le diverse posizioni aziendali

⬆ Torna su

La posizione pubblica di Altman ha imitato parte del linguaggio morale di Anthropic, ma le scelte delle due aziende sono legalmente diverse. Anthropic ha inquadrato "linee rosse" contro la sorveglianza e l'autonomia letale; il Pentagono ha definito ciò inaccettabile. La volontà di Altman di firmare accordi di accesso operativo per reti classificate posiziona OpenAI come l'azienda disposta a operare all'interno dei sistemi di difesa.

Dario Amodei era uno dei massimi dirigenti di OpenAI prima di abbandonare la società nel 2021 insieme alla sorella Daniela e a un gruppo di ricercatori senior. Il motivo della scissione fu il dissenso sulla visione di Altman, giudicata troppo orientata al profitto e meno attenta ai rischi esistenziali dell'intelligenza artificiale. Durante l'AI Summit di Nuova Delhi, Altman e Amodei hanno evitato di stringersi la mano sul palco.

Sam Altman è intervenuto su CNBC per difendere la posizione di Amodei: "Pur avendo divergenze con Anthropic, in gran parte mi fido di loro come azienda e credo che tengano davvero alla sicurezza". Anthropic ha recentemente superato OpenAI in termini di liquidità totale raccolta.

Il contesto geopolitico

⬆ Torna su

L'azione del Pentagono in coordinamento con Israele è arrivata poche ore dopo l'annuncio di Altman. Gli Stati Uniti sono impegnati in operazioni militari congiunte nella regione mediorientale, con attacchi segnalati a Riad, Doha, Abu Dhabi e Dubai. Il modello Claude, secondo quanto riferito, era l'unico sistema di IA utilizzato in alcune operazioni classificate.

Il Dipartimento della Difesa ha ventilato la possibilità di invocare il Defense Production Act per ottenere l'accesso al modello senza restrizioni. Amodei ha sottolineato la contraddizione tra le due condizioni: "una ci definisce un rischio per la sicurezza; l'altra definisce Claude essenziale per la sicurezza nazionale".

Le implicazioni contrattuali

⬆ Torna su

Anthropic aveva un contratto da 200 milioni di dollari firmato nell'estate 2025. L'azienda ha annunciato che ricorrerà in tribunale contro il divieto, denunciando "intimidazioni" e sostenendo che la designazione come fornitore rischioso poggerebbe su basi giuridiche deboli.

In un comunicato ufficiale, Anthropic ha affermato: "Non abbiamo mai sollevato obiezioni a specifiche operazioni militari né tentato di limitare l'uso della nostra tecnologia in modo ad hoc. Tuttavia, in un ristretto numero di casi, riteniamo che l'IA possa minare, anziché difendere, i valori democratici". L'azienda ha specificato che l'obiezione ai sistemi d'arma completamente autonomi si fonda su una valutazione tecnica: "oggi, i sistemi di IA di frontiera non sono semplicemente abbastanza affidabili da alimentare armi completamente autonome".

La questione della missione originaria di OpenAI

⬆ Torna su

Fondata nel 2015 come organizzazione senza scopo di lucro, OpenAI aveva il mandato esplicito di sviluppare un'intelligenza artificiale generale a esclusivo beneficio dell'umanità, garantendo trasparenza e condivisione dei risultati. La successiva chiusura dei codici sorgente e la metamorfosi in "Public Benefit Corporation" avevano già alimentato dubbi sulla tenuta etica dell'organizzazione.

L'integrazione diretta nei sistemi classificati del Dipartimento della Guerra viene letta da osservatori come il definitivo allontanamento dalla missione originaria. OpenAI si è posizionata come il partner pragmatico disposto a servire le esigenze dello stato, mentre Anthropic ha mantenuto una postura morale che ne ha determinato l'esclusione dal mercato della difesa.

Il vuoto normativo internazionale

⬆ Torna su

Non esistono normative internazionali per l'uso dell'intelligenza artificiale in ambito bellico. Le Nazioni Unite tentano da anni di stabilire direttive senza successo, mentre le Convenzioni di Ginevra risultano obsolete rispetto all'idea di macchine in grado di selezionare autonomamente i propri bersagli.

La battaglia di PR intorno all'IA è diventata un campo di battaglia di politica estera. Per dipendenti, investitori e clienti, la scelta sta iniziando a sembrare la scelta di una parte: una sventola bandiere, l'altra pubblica proclami sulla coscienza. I team di approvvigionamento ora valuteranno il rischio politico tanto quanto le prestazioni: si acquista software anche per il bagaglio geopolitico del fornitore.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La sostituzione di Anthropic con OpenAI nei contratti militari ridefinisce il equilibrio tra etica aziendale e esigenze di sicurezza nazionale. La disponibilità di OpenAI a operare attraverso il "safety stack" suggerisce una via pragmatica, ma le tensioni con la missione originaria dell'azienda rimangono evidenti.

  • Scenario 1: Il ricorso legale di Anthropic potrebbe rallentare la transizione, lasciando un vuoto operativo nei sei mesi concessi per la sostituzione di Claude Code.
  • Scenario 2: Il safety stack si rivela funzionale, diventando uno standard per futuri accordi tra Big Tech e agenzie governative.
  • Scenario 3: Le critiche bipartisan al trattamento di Anthropic portano a una revisione delle procedure di designazione dei fornitori strategici.

Cosa monitorare

⬆ Torna su
  • L'effettiva applicazione delle tutele inserite nell'accordo OpenAI-Pentagono rispetto alle linee rosse tracciate da Anthropic.
  • L'impatto operativo della transizione sulle attività della NSA e della CIA che già utilizzano Claude.
  • Le mosse concorrenziali di xAI e altri attori nel settore dei contratti militari.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • openai
  • anthropic
  • ai
  • chatgpt

Link utili

Apri l'articolo su DeafNews