OpenAI conquista il Pentagono, Anthropic lancia Claude Code Security per la difesa informatica
OpenAI firma un accordo con il Dipartimento della Guerra statunitense sostituendo Anthropic, che aveva rifiutato condizioni senza limitazioni. Contemporaneamen…
Contenuto

Scopri anche
- LLM e memoria persistente: come Google e OpenAI stanno risolvendo il problema del contesto
- OpenAI sostituisce Anthropic nelle forniture al Pentagono: accordo da miliardi e scontro etico sull'IA militare
- Vulnerabilità zero-day: Google e Apple corrono ai ripari dopo attacchi attivi
- Anthropic e il Pentagono: lo scontro sul controllo dell'intelligenza artificiale militare
- Google registra 90 vulnerabilità zero-day nel 2025: i fornitori di spyware commerciale superano gli attori statali
- Il ritorno delle CPU nei data center: l'infrastruttura server nell'era dell'AI agente
- Certificazione NATO per iPhone e le minacce digitali: sicurezza e attacchi
- OpenAI rilascia GPT-5.3 Instant: conversazioni più dirette e riduzione degli errori per ChatGPT
- L'intelligenza artificiale può replicare la personalità umana con due ore di conversazione
- Apple rilascia aggiornamenti di sicurezza per iPhone e iPad datati: protegge dispositivi fino a un decennio
- Broadcom punta a 100 miliardi di ricavi AI entro il 2027 con chip personalizzati
- Claude supera ChatGPT nell'App Store USA dopo il rifiuto di Anthropic a collaborare con il Pentagono
- Chrome 145: aggiornamento urgente per CVE-2026-2441, prima zero-day del 2026
- Samsung Galaxy: aggiornamenti sicurezza 2026 e rilascio One UI 8 con funzioni AI
- Nvidia costruisce l'impero dell'infrastruttura AI: investimenti miliardari e partnership strategiche
- OpenAI sostituisce Anthropic nei contratti militari USA: lo scontro sui limiti dell'IA bellica
- Riot Platforms firma accordo decennale con AMD per data center AI da 311 milioni di dollari
- Vulnerabilità software e cybersecurity: come proteggersi dagli attacchi informatici
- GPT-5.3 Instant e la crisi di OpenAI: tra ritiri, proteste e sfide di mercato
- Il problema della sycophancy: perché i modelli AI cambiano opinione sotto pressione
OpenAI e il Pentagono: l'accordo che ridefinisce i rapporti tra Big Tech e difesa militare
- Il voltafaccia di OpenAI: dalla missione umanitaria agli accordi militari
- La rottura tra Anthropic e il Pentagono
- Le misure di salvaguardia tecniche di OpenAI
- Claude Code Security: il tool che ha trovato 500 vulnerabilità
- La reazione dei mercati finanziari
- Il confronto etico nelle "Costituzioni" aziendali
- La disponibilità di Claude Code Security
- La rivalità Altman-Amodei e i dati finanziari
- Implicazioni e scenari
- Cosa monitorare
- Fonti
OpenAI ha stretto un accordo con il Dipartimento della Guerra degli Stati Uniti per fornire la propria tecnologia di intelligenza artificiale per operazioni belliche. L'azienda guidata da Sam Altman subentra ad Anthropic nelle forniture per le reti cloud ad alta segretezza del Pentagono, dopo che la società fondata da Dario Amodei aveva rifiutato di cedere la propria tecnologia senza garanzie sul suo utilizzo. La mossa segna un cambio di posizione rispetto alle origini di OpenAI, fondata nel 2015 come organizzazione senza scopo di lucro con l'obiettivo di creare un'intelligenza artificiale "sicura e a beneficio dell'umanità".
Il voltafaccia di OpenAI: dalla missione umanitaria agli accordi militari
⬆ Torna suL'annuncio della collaborazione con il governo statunitense contiene una dichiarazione che testimonia il cambiamento di rotta dell'azienda. OpenAI ha affermato che la propria tecnologia "introdurrà nuovi rischi nel mondo" e che "le persone che difendono gli Stati Uniti" devono avere "gli strumenti migliori". Il documento fondativo dell'azienda, il "Charter", stabiliva l'obiettivo di creare un'intelligenza artificiale generale nell'interesse collettivo, condividendo i risultati degli studi per evitare che la tecnologia diventasse un monopolio pericoloso.
Elon Musk, tra i fondatori e uscito dall'azienda nel 2018, temeva che un'IA avanzata potesse sviluppare una volontà propria e rappresentare una minaccia per l'umanità. Sam Altman, nel 2016, aveva espresso su Twitter la sua "paura numero uno riguardo Trump: la guerra". Dieci anni dopo, OpenAI sostiene che la tecnologia debba essere al servizio degli Stati Uniti per proteggere il Paese, restringendo la missione originaria di "beneficiare l'umanità" agli interessi di una singola nazione.
La rottura tra Anthropic e il Pentagono
⬆ Torna suAnthropic aveva intrapreso una strada simile attraverso partnership con attori come Palantir, rendendo disponibili i propri modelli per analisi di dati logistici e operazioni di intelligence. Un accordo biennale del valore di 200 milioni di dollari, iniziato nel 2024, si è concluso bruscamente pochi giorni prima dell'annuncio di OpenAI. La rottura è avvenuta dopo che Anthropic ha rifiutato condizioni contrattuali che lasciavano al Dipartimento della Difesa piena libertà di utilizzo del modello Claude.
L'amministrazione di Donald Trump ha etichettato Anthropic come rischio per la supply chain della sicurezza nazionale, una designazione finora riservata a società cinesi o russe come ZTE, Huawei o Kaspersky Lab. Anthropic ha denunciato quella che definisce un'"intimidazione" e ha assicurato che ricorrerà in tribunale contro il divieto. L'azienda ha specificato che le garanzie richieste riguardavano il divieto della sorveglianza di massa a livello nazionale e la responsabilità umana nell'uso della forza, compresi i sistemi d'arma autonomi.
Le misure di salvaguardia tecniche di OpenAI
⬆ Torna suSam Altman ha annunciato l'accordo parlando di "profondo rispetto per la sicurezza" e ha specificato che OpenAI metterà in atto "misure di salvaguardia tecnica" per garantire che i modelli funzionino come dovuto. L'azienda ha scelto di accettare l'uso per ogni finalità legale, inserendo nei sistemi meccanismi tecnici che impediscano determinati comportamenti, tra cui la sorveglianza domestica di massa e l'uso diretto in armi autonome letali. Una differenza architetturale rispetto all'approccio contrattuale richiesto dal Pentagono ad Anthropic.
L'integrazione delle tecnologie OpenAI nei sistemi classificati richiederà tempo. L'azienda non è ancora completamente abilitata per ambienti ad alta classificazione e dovrà passare attraverso i canali infrastrutturali del governo, spesso legati a fornitori cloud come Amazon, che ha rafforzato la partnership con OpenAI nello stesso periodo. Il Pentagono mantiene in campo anche altri attori come Google e xAI di Elon Musk, puntando a evitare dipendenze eccessive da un singolo fornitore.
Claude Code Security: il tool che ha trovato 500 vulnerabilità
⬆ Torna suNello stesso periodo dello scontro con il Pentagono, Anthropic ha lanciato Claude Code Security, una funzionalità che scansiona interi codebase alla ricerca di vulnerabilità. Il tool ha individuato oltre 500 vulnerabilità in progetti open-source, alcune delle quali presenti da decenni senza essere state rilevate da revisioni umane. Anthropic sta procedendo alla notifica responsabile dei manutentori dei progetti coinvolti.
Il sistema si basa sul modello Claude Opus 4.6 e funziona seguendo il flusso dei dati attraverso l'applicazione, identificando errori logici complessi o problemi di controllo degli accessi che gli strumenti tradizionali basati su pattern potrebbero mancare. Ogni rilevamento viene sottoposto a un processo di verifica multi-stadio in cui Claude riesamina i propri risultati per filtrare i falsi positivi. Per ogni rilevamento confermato, il sistema assegna un livello di gravità e un punteggio di affidabilità.
Le modifiche non vengono mai applicate automaticamente: richiedono sempre una decisione consapevole degli sviluppatori. Anthropic ha testato le capacità di Claude per oltre un anno, collaborando anche con il Pacific Northwest National Laboratory per simulare un attacco a un impianto di trattamento delle acque, completato in circa tre ore rispetto alle settimane normalmente richieste da un team di esperti.
La reazione dei mercati finanziari
⬆ Torna suL'annuncio di Claude Code Security ha provocato una reazione negativa sui titoli del settore cybersecurity. Le azioni CrowdStrike sono scese del 6,8%, Okta del 9,2%, Cloudflare del 6,7%, SailPoint del 9,1%, Zscaler del 5,47% e Palo Alto Networks dell'1,5%. Il Global X Cybersecurity ETF ha chiuso la giornata con un calo quasi del 5%. Gli analisti di Barclays hanno definito la reazione "incongrua", sostenendo che uno strumento per la sicurezza del codice non compete direttamente con ciò che fanno aziende come CrowdStrike o Palo Alto Networks.
Lo stesso modello Claude Opus 4.6 che alimenta Claude Code Security era stato precedentemente coinvolto in un exploit che ha causato perdite di 1,78 milioni di dollari presso il protocollo di lending DeFi Moonwell. Anthropic ha pubblicato una ricerca interna nel dicembre 2025 mostrando che una versione precedente, Claude Opus 4.5, poteva identificare e sfruttare indipendentemente vulnerabilità di smart contract per un valore fino a 4,6 milioni di dollari in un ambiente controllato.
Il confronto etico nelle "Costituzioni" aziendali
⬆ Torna suNella "Costituzione" che regola il comportamento di Claude, Anthropic riconosce che "un mondo trasformato dall'IA avanzata potrebbe mettere a disposizione di chi controlla i sistemi più potenti livelli di superiorità militare ed economica senza precedenti". L'azienda afferma di non avere "una soluzione completa a questo problema" e sottolinea che in alcuni casi "una transizione sicura e benefica verso l'IA avanzata potrebbe richiedere che alcuni attori sviluppino capacità pericolosamente potenti, anche in ambito di sicurezza e difesa".
Il contesto è quello di una competizione tecnologica tra Stati Uniti e Cina, dove l'intelligenza artificiale è considerata il fattore determinante per la supremazia del prossimo decennio. Il governo statunitense preme affinché le eccellenze della Silicon Valley contribuiscano alla resilienza dello Stato. Secondo quanto riportato dalle fonti, anche contro l'Iran il Pentagono ha utilizzato il modello Anthropic per valutazioni di intelligence, identificazione dei target e simulazione di scenari di battaglia.
La disponibilità di Claude Code Security
⬆ Torna suClaude Code Security è stato lanciato come anteprima di ricerca limitata per clienti Enterprise e Team. I manutentori di repository open-source sono incoraggiati a richiedere accesso gratuito e accelerato per garantire che i loro progetti beneficino dei nuovi meccanismi di protezione. Anthropic utilizza già Claude per scansionare il proprio codice interno e riferisce un'alta efficacia nella protezione dei propri sistemi.
L'azienda prevede che gran parte del codice mondiale sarà scansionato da IA nel futuro e vede Claude Code Security come un modo per rafforzare i difensori prima che gli attaccanti usino sistematicamente l'IA per sfruttare le vulnerabilità più rapidamente. OpenAI ha presentato il proprio strumento di sicurezza automatizzato, chiamato Aardvark, nell'ottobre 2025.
La rivalità Altman-Amodei e i dati finanziari
⬆ Torna suLa sfida tra OpenAI e Anthropic si estende anche sul piano personale e finanziario. I vertici delle due aziende hanno evitato il contatto fisico durante una manifestazione pubblica all'India AI Impact Summit di Nuova Delhi. Dario Amodei ha lavorato per anni in OpenAI come vicepresidente della ricerca, contribuendo allo sviluppo dei modelli GPT-2 e GPT-3, prima di lasciare nel 2021 con la sorella Daniela per fondare Anthropic.
OpenAI si avvicina al termine di una raccolta fondi che potrebbe superare i cento miliardi di dollari. Secondo Bloomberg, i principali investitori della prima tranche sarebbero Amazon (fino a 50 miliardi), SoftBank (circa 30 miliardi), Nvidia (intorno ai 20 miliardi) e Microsoft. La valutazione complessiva di OpenAI potrebbe superare gli 850 miliardi di dollari, nonostante le proiezioni indichino che l'azienda non sarà redditizia prima del 2029.
Google ha rilasciato Gemini 3.1 Pro, ottenendo il 77,1% sul benchmark ARC-AGI-2, più del doppio rispetto al 31,1% del predecessore e superiore al 68,8% di Opus 4.6 di Anthropic e al 52,9% di GPT-5.2 di OpenAI.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suL'ingresso di OpenAI nelle operazioni del Pentagono e il contemporaneo lancio di Claude Code Security da parte di Anthropic delineano una biforcazione strategica nel settore dell'IA: da un lato l'accesso diretto agli appalti militari, dall'altro la specializzazione in cybersecurity difensiva. La designazione di Anthropic come rischio per la sicurezza nazionale potrebbe rappresentare un precedente per altre aziende tecnologiche che ostacolano richieste governative.
- Scenario 1: OpenAI consolida la propria posizione come fornitore privilegiato della difesa statunitense, mentre Anthoric si concentra sul mercato civile e sulla sicurezza del codice, riducendo la propria esposizione agli appalti governativi.
- Scenario 2: Le misure di salvaguardia tecniche annunciate da OpenAI potrebbero rivelarsi insufficienti a impedire usi controversi, riaccendendo il dibattito sulla responsabilità degli sviluppatori nell'uso bellico dell'IA.
- Scenario 3: La diffusione di tool come Claude Code Security potrebbe comprimere i margini delle aziende cybersecurity tradizionali, costringendole a differenziare l'offerta rispetto all'automazione.
Cosa monitorare
⬆ Torna su- L'iter di certificazione di OpenAI per gli ambienti ad alta classificazione e i tempi effettivi di integrazione nei sistemi del Pentagono.
- Le iniziative legali di Anthropic contro la designazione come rischio per la supply chain e le eventuali controverse del governo.
- L'adozione di Claude Code Security nella comunità open-source e il volume di vulnerabilità corrette nei mesi successivi al lancio.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.repubblica.it/tecnologia/2026/03/04/news/openai-anthropic-pentagono-intelligenza-artificiale-militare-425199396/
- https://b2b-cyber-security.de/en/ki-funktion-sucht-fuer-sicherheitsteams-schwachstellen-im-code/
- https://www.primaonline.it/2026/03/02/466963/il-pentagono-sceglie-openai-per-lia-ma-contro-liran-ha-usato-i-sistemi-di-anthropic/
- https://www.rivista.ai/2026/03/01/openai-conquista-il-pentagono-dopo-il-caso-anthropic-sicurezza-potere-e-nuovi-equilibri-nellai-militare/
- https://www.avveniredicalabria.it/la-sfida-tra-openai-e-anthropic-divide-il-settore-dellintelligenza-artificiale-tra-corsa-ai-profitti-e-sicurezza-degli-algoritmi/
- https://www.roberto-serra.com/news/anthropic-claude-code-security-ia-cybersecurity-23-02-2026/
- https://www.cryptopolitan.com/anthropic-ai-found-bugs-wall-street-panick/
In breve
- openai
- anthropic
- cybersecurity
- ai