OpenAI sostituisce Anthropic nelle forniture al Pentagono: accordo da miliardi e scontro etico sull'IA militare
OpenAI ha firmato un accordo con il Dipartimento della Guerra statunitense dopo il rifiuto di Anthropic di cedere senza limitazioni. Sam Altman parla di accord…
Contenuto

Scopri anche
- Anthropic e il Pentagono: lo scontro sul controllo dell'intelligenza artificiale militare
- Google registra 90 vulnerabilità zero-day nel 2025: i fornitori di spyware commerciale superano gli attori statali
- Il ritorno delle CPU nei data center: l'infrastruttura server nell'era dell'AI agente
- Broadcom punta a 100 miliardi di ricavi AI entro il 2027 con chip personalizzati
- OpenAI rilascia GPT-5.3 Instant: conversazioni più dirette e riduzione degli errori per ChatGPT
- L'intelligenza artificiale può replicare la personalità umana con due ore di conversazione
- Nvidia costruisce l'impero dell'infrastruttura AI: investimenti miliardari e partnership strategiche
- Claude supera ChatGPT nell'App Store USA dopo il rifiuto di Anthropic a collaborare con il Pentagono
- Chrome 145: aggiornamento urgente per CVE-2026-2441, prima zero-day del 2026
- GPT-5.3 Instant e la crisi di OpenAI: tra ritiri, proteste e sfide di mercato
- OpenAI sostituisce Anthropic nei contratti militari USA: lo scontro sui limiti dell'IA bellica
- Vulnerabilità zero-day: Google e Apple corrono ai ripari dopo attacchi attivi
- Riot Platforms firma accordo decennale con AMD per data center AI da 311 milioni di dollari
- OpenAI rilascia GPT-5.3 Instant: conversazioni più naturali e riduzione degli errori
- Il problema della sycophancy: perché i modelli AI cambiano opinione sotto pressione
- Certificazione NATO per iPhone e le minacce digitali: sicurezza e attacchi
- AI e mercati: l'impatto dell'automazione sui modelli di business e la correlazione con le criptovalute
- Apple rilascia aggiornamenti di sicurezza per iPhone e iPad datati: protegge dispositivi fino a un decennio
- Google Pixel Drop di marzo 2026: novità AI, modalità desktop e sicurezza
- DeepSeek V4: accesso anticipato solo a fornitori cinesi, NVIDIA e AMD esclusi
OpenAI sostituisce Anthropic nelle forniture al Pentagono: accordo da miliardi e scontro etico sull'IA militare
- Il cambio di fornitura e le garanzie richieste
- La posizione di Sam Altman e le correzioni annunciate
- Anthropic e Claude Code Security: 500 vulnerabilità individuate
- Le simulazioni e i test condotti
- Il precedente accordo Anthropic-Palantir e il contesto operativo
- Le origini della rivalità Altman-Amodei
- Ilvoltafaccia di OpenAI sulle finalità originarie
- Il contesto geopolitico e industriale
- Le questioni aperte su sicurezza e controllo
- Implicazioni e scenari
- Cosa monitorare
- Fonti
OpenAI ha firmato un accordo con il Dipartimento della Guerra degli Stati Uniti per fornire i propri modelli di intelligenza artificiale sulle reti cloud ad alta segretezza del Pentagono. L'intesa arriva poche ore dopo la rottura tra il Dipartimento della Difesa e Anthropic, che aveva rifiutato di cedere la propria tecnologia senza garanzie sull'impiego. Sam Altman, amministratore delegato di OpenAI, ha ammesso che l'accordo è apparso "opportunistic and sloppy" (opportunistico e affrettato), annunciando modifiche contrattuali per chiarire i principi aziendali.
Il cambio di fornitura e le garanzie richieste
⬆ Torna suAnthropic era stata esclusa dalla lista dei fornitori del Pentagono con l'etichetta di "supply chain risk", una designazione finora riservata a società cinesi o russe come ZTE, Huawei e Kaspersky Lab. La decisione è arrivata dopo che Dario Amodei, CEO di Anthropic, aveva rifiutato condizioni contrattuali che lasciavano piena libertà al Dipartimento della Difesa sull'utilizzo del modello Claude, temendo applicazioni incompatibili con gli standard di sicurezza aziendali: sorveglianza di massa degli americani e sviluppo di armi autonome.
Donald Trump ha definito Anthropic un'azienda "woke". Anthropic ha denunciato l'"intimidazione" del Pentagono e ha assicurato che ricorrerà in tribunale contro il divieto, sfidando qualunque designazione come fornitore "rischioso".
OpenAI ha colmato il vuoto lasciato da Anthropic accettando l'uso per ogni finalità legale, ma inserendo meccanismi tecnici che impediscano determinati comportamenti. "Due dei nostri più importanti principi di sicurezza sono il divieto della sorveglianza di massa a livello nazionale e la responsabilità umana nell'uso della forza, compresi i sistemi d'arma autonomi", ha dichiarato Altman. L'azienda prevede di installare barriere tecnologiche capaci di vincolare l'uso dei modelli anche in contesti sensibili.
La posizione di Sam Altman e le correzioni annunciate
⬆ Torna suIn un post su X, Altman ha scritto che OpenAI sta lavorando con il Dipartimento della Guerra per "aggiungere elementi al nostro accordo per chiarire i nostri principi". Tra le modifiche: garantire che l'IA non venga utilizzata per la sorveglianza domestica degli americani e che le agenzie di intelligence come la National Security Agency non possano affidarsi ai servizi di OpenAI senza vincoli.
"Ci sono molte cose per cui la tecnologia non è ancora pronta e molte aree dove non comprendiamo ancora i compromessi necessari per garantire la sicurezza", ha aggiunto Altman. L'amministratore delegato ha riconosciuto di aver agito con eccessiva fretta: "Non avremmo dovuto affrettarci a renderlo pubblico venerdì scorso". Ha definito l'episodio un "buona esperienza di apprendimento".
Anthropic e Claude Code Security: 500 vulnerabilità individuate
⬆ Torna suNel frattempo, Anthropic ha lanciato Claude Code Security, una funzionalità progettata per scansionare le basi di codice alla ricerca di vulnerabilità di sicurezza e fornire suggerimenti mirati per le patch. Il tool si distingue dagli analizzatori tradizionali basati su pattern: Claude "legge" e "comprende" il codice come un ricercatore umano, tracciando i flussi di dati attraverso l'applicazione per identificare errori logici complessi o problemi di controllo degli accessi.
Ogni rilevamento viene sottoposto a un processo di verifica a più stadi, durante il quale Claude riesamina i propri risultati e tenta di filtrare i falsi positivi. Per ogni rilevamento confermato, il sistema assegna una valutazione di gravità e un punteggio di confidenza. Le modifiche non vengono mai implementate automaticamente ma richiedono sempre una decisione consapevole degli sviluppatori.
Durante i test, il team ha utilizzato il modello Claude Opus 4.6 e ha individuato oltre 500 vulnerabilità in progetti open-source, alcune delle quali erano rimaste non rilevate nonostante anni di revisione da parte di esperti. I risultati sono attualmente in fase di triage e verranno divulgati responsabilmente ai manutentori.
Le simulazioni e i test condotti
⬆ Torna suAnthropic ha trascorso oltre un anno a testare le capacità di cybersecurity di Claude, partecipando a competizioni del settore e collaborando con il Pacific Northwest National Laboratory. In una simulazione di attacco a un impianto di trattamento delle acque, Claude ha completato in circa tre ore un'operazione che normalmente richiederebbe settimane a un team di esperti. Durante i test, ha trovato autonomamente una via alternativa per aggirare una protezione di Windows quando il primo tentativo era fallito.
La nuova funzionalità viene lanciata come anteprima limitata per i clienti Enterprise e Team. I manutentori di repository open-source possono richiedere accesso gratuito accelerato per garantire che i propri progetti beneficino dei nuovi meccanismi di protezione.
Il precedente accordo Anthropic-Palantir e il contesto operativo
⬆ Torna suPrima della rottura con il Pentagono, Anthropic aveva già reso disponibili i propri modelli per analisi di dati logistici e operazioni di intelligence attraverso partnership con attori come Palantir. L'accordo biennale, del valore di 200 milioni di dollari, era iniziato nel 2024 ed è terminato bruscamente pochi giorni prima dell'annuncio di OpenAI.
Anche negli attacchi condotti dagli Stati Uniti con Israele contro l'Iran, il Pentagono aveva utilizzato il modello Claude per le valutazioni di intelligence, l'identificazione dei target e per simulare scenari di battaglia, secondo quanto riportato dal Wall Street Journal. Claude è stato l'unico modello IA utilizzato in operazioni segrete, inclusa quella che a inizio gennaio ha portato alla cattura del presidente venezuelano deposto Nicolás Maduro.
Le origini della rivalità Altman-Amodei
⬆ Torna suLa competizione tra OpenAI e Anthropic ha radici profonde. Dario Amodei ha lavorato per anni in OpenAI come vicepresidente della ricerca, contribuendo allo sviluppo dei modelli GPT-2 e GPT-3. Nel 2021, insieme alla sorella Daniela e un gruppo di colleghi, ha lasciato l'azienda per fondare Anthropic, convinto che OpenAI non stesse dando sufficiente peso alla sicurezza nello sviluppo dei propri sistemi.
Le tensioni sono emerse pubblicamente durante l'India AI Impact Summit di Nuova Delhi, quando Altman e Amodei si sono rifiutati di unirsi in una catena umana con altri leader del settore tecnologico, alzando ciascuno un pugno chiuso invece della mano aperta del vicino. La scena è diventata virale sui social.
La rivalità commerciale si è intensificata nel 2026 con la crescente popolarità della suite Claude Code, che ha superato Codex di OpenAI in termini di adozione sul mercato. Durante il Super Bowl, Anthropic aveva mandato in onda una campagna pubblicitaria che prendeva in giro la decisione di OpenAI di introdurre inserzioni pubblicitarie in ChatGPT. Altman aveva definito quegli spot "chiaramente disonesti".
Ilvoltafaccia di OpenAI sulle finalità originarie
⬆ Torna suOpenAI è stata fondata nel 2015 come organizzazione senza scopo di lucro. Il documento fondativo, il "Charter", stabiliva l'obiettivo di creare un'intelligenza artificiale generale nell'interesse collettivo. La missione iniziale dei fondatori, tra cui figurava Elon Musk, era quella di condividere i risultati degli studi sull'intelligenza artificiale per evitare che diventasse un monopolio pericoloso. Musk ha lasciato OpenAI nel 2018.
L'azienda ha recentemente dichiarato: "Crediamo che la nostra tecnologia introdurrà nuovi rischi nel mondo e vogliamo che le persone che difendono gli Stati Uniti abbiano gli strumenti migliori". La posizione segna un cambio rispetto alla missione originaria di un'intelligenza artificiale "sicura e a beneficio dell'umanità".
La "Costituzione" che regola il comportamento di Claude di Anthropic riconosce che "un mondo trasformato dall'IA avanzata possa mettere a disposizione di chi controlla i sistemi più potenti livelli di superiorità militare ed economica senza precedenti". L'azienda afferma di non avere "una soluzione completa a questo problema" e sottolinea che in alcuni casi "una transizione sicura e benefica verso l'IA avanzata potrebbe richiedere che alcuni attori sviluppino capacità pericolosamente potenti".
Il contesto geopolitico e industriale
⬆ Torna suLa competizione tecnologica tra Stati Uniti e Cina considera l'intelligenza artificiale come il fattore determinante per la supremazia del prossimo decennio. Il governo statunitense preme affinché le eccellenze della Silicon Valley contribuiscano direttamente alla resilienza dello Stato, vedendo nel settore privato un asset strategico.
OpenAI si avvicina al termine di una raccolta fondi che potrebbe superare i cento miliardi di dollari. Secondo Bloomberg, i principali investitori della prima tranche sarebbero Amazon (fino a 50 miliardi), SoftBank (circa 30 miliardi), Nvidia (intorno ai 20 miliardi) e Microsoft. La valutazione complessiva di OpenAI potrebbe superare gli 850 miliardi di dollari. L'azienda non prevede di essere redditizia prima del 2029.
Google ha rilasciato Gemini 3.1 Pro, ottenendo il 77,1% sul benchmark ARC-AGI-2, oltre il doppio rispetto al 31,1% del predecessore Gemini 3 Pro e sopra i risultati di Opus 4.6 di Anthropic (68,8%) e GPT-5.2 di OpenAI (52,9%).
Le questioni aperte su sicurezza e controllo
⬆ Torna suL'accordo con OpenAI solleva interrogativi su come verranno verificati e certificati i cosiddetti guardrail tecnici: chi controlla che funzionino e come si gestisce l'audit di modelli complessi in ambienti classificati. Anthropic presenta Claude Code Security come uno strumento che dà ai difensori le stesse armi degli attaccanti, ma il processo non è mai completamente automatico: Claude identifica i problemi e suggerisce le soluzioni, ma la decisione finale spetta sempre a uno sviluppatore umano.
OpenAI ha chiarito di non essere d'accordo con la decisione del Dipartimento della Difesa di mettere Anthropic nella blacklist. L'azienda terrà una riunione con tutto il personale per rispondere alle domande dei dipendenti. Il Pentagono, nel frattempo, amplia il proprio ventaglio di fornitori: restano in campo attori come Google e xAI di Elon Musk, a dimostrazione che la strategia americana punta a evitare dipendenze eccessive da un singolo player.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suL'ingresso di OpenAI nelle forniture militari statunitensi rappresenta un punto di svolta nella governance tecnologica. La sostituzione di Anthropic solleva interrogativi sulla tenuta dei principi etici quando incontrano opportunità contrattuali di grande rilievo economico.
- Scenario 1: Il contenzioso legale avviato da Anthropic potrebbe ridefinire i confini della designazione "supply chain risk", stabilendo se il rifiuto di collaborazioni militari costituisca un rischio per la sicurezza nazionale.
- Scenario 2: Le barriere tecnologiche promesse da Altman potrebbero rivelarsi parzialmente efficaci, lasciando aperto un dibattito sulla reale controllabilità degli impieghi militari.
- Scenario 3: La competizione commerciale potrebbe spostarsi sul terreno della cybersecurity, con Claude Code Security che si posiziona come alternativa tecnicamente più rigorosa.
Cosa monitorare
⬆ Torna su- L'evoluzione del ricorso legale di Anthropic contro la designazione di "rischio supply chain".
- L'effettiva implementazione delle limitazioni tecniche annunciate da OpenAI e la loro resistenza a possibili aggiramenti.
- L'impatto delle 500 vulnerabilità individuate da Claude sui progetti open-source interessati.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.repubblica.it/tecnologia/2026/03/04/news/openai-anthropic-pentagono-intelligenza-artificiale-militare-425199396/
- https://b2b-cyber-security.de/en/ki-funktion-sucht-fuer-sicherheitsteams-schwachstellen-im-code/
- https://en.ilsole24ore.com/art/openai-changes-to-the-opportunistic-and-sloppy-agreement-with-the-pentagon-AI5SzwjB
- https://www.primaonline.it/2026/03/02/466963/il-pentagono-sceglie-openai-per-lia-ma-contro-liran-ha-usato-i-sistemi-di-anthropic/
- https://www.rivista.ai/2026/03/01/openai-conquista-il-pentagono-dopo-il-caso-anthropic-sicurezza-potere-e-nuovi-equilibri-nellai-militare/
- https://www.avveniredicalabria.it/la-sfida-tra-openai-e-anthropic-divide-il-settore-dellintelligenza-artificiale-tra-corsa-ai-profitti-e-sicurezza-degli-algoritmi/
- https://www.roberto-serra.com/news/anthropic-claude-code-security-ia-cybersecurity-23-02-2026/
In breve
- openai
- anthropic
- cybersecurity
- ai