OpenAI conquista il Pentagono, Anthropic lancia Claude Code Security per la difesa informatica

OpenAI firma un accordo con il Dipartimento della Guerra statunitense sostituendo Anthropic, che aveva rifiutato condizioni senza limitazioni. Contemporaneamen…

Contenuto

OpenAI conquista il Pentagono, Anthropic lancia Claude Code Security per la difesa informatica

Scopri anche

OpenAI conquista il Pentagono, Anthropic lancia Claude Code Security per la difesa informatica

OpenAI e il Pentagono: l'accordo che ridefinisce i rapporti tra Big Tech e difesa militare

In questo articolo:

OpenAI ha stretto un accordo con il Dipartimento della Guerra degli Stati Uniti per fornire la propria tecnologia di intelligenza artificiale per operazioni belliche. L'azienda guidata da Sam Altman subentra ad Anthropic nelle forniture per le reti cloud ad alta segretezza del Pentagono, dopo che la società fondata da Dario Amodei aveva rifiutato di cedere la propria tecnologia senza garanzie sul suo utilizzo. La mossa segna un cambio di posizione rispetto alle origini di OpenAI, fondata nel 2015 come organizzazione senza scopo di lucro con l'obiettivo di creare un'intelligenza artificiale "sicura e a beneficio dell'umanità".

Il voltafaccia di OpenAI: dalla missione umanitaria agli accordi militari

⬆ Torna su

L'annuncio della collaborazione con il governo statunitense contiene una dichiarazione che testimonia il cambiamento di rotta dell'azienda. OpenAI ha affermato che la propria tecnologia "introdurrà nuovi rischi nel mondo" e che "le persone che difendono gli Stati Uniti" devono avere "gli strumenti migliori". Il documento fondativo dell'azienda, il "Charter", stabiliva l'obiettivo di creare un'intelligenza artificiale generale nell'interesse collettivo, condividendo i risultati degli studi per evitare che la tecnologia diventasse un monopolio pericoloso.

Elon Musk, tra i fondatori e uscito dall'azienda nel 2018, temeva che un'IA avanzata potesse sviluppare una volontà propria e rappresentare una minaccia per l'umanità. Sam Altman, nel 2016, aveva espresso su Twitter la sua "paura numero uno riguardo Trump: la guerra". Dieci anni dopo, OpenAI sostiene che la tecnologia debba essere al servizio degli Stati Uniti per proteggere il Paese, restringendo la missione originaria di "beneficiare l'umanità" agli interessi di una singola nazione.

La rottura tra Anthropic e il Pentagono

⬆ Torna su

Anthropic aveva intrapreso una strada simile attraverso partnership con attori come Palantir, rendendo disponibili i propri modelli per analisi di dati logistici e operazioni di intelligence. Un accordo biennale del valore di 200 milioni di dollari, iniziato nel 2024, si è concluso bruscamente pochi giorni prima dell'annuncio di OpenAI. La rottura è avvenuta dopo che Anthropic ha rifiutato condizioni contrattuali che lasciavano al Dipartimento della Difesa piena libertà di utilizzo del modello Claude.

L'amministrazione di Donald Trump ha etichettato Anthropic come rischio per la supply chain della sicurezza nazionale, una designazione finora riservata a società cinesi o russe come ZTE, Huawei o Kaspersky Lab. Anthropic ha denunciato quella che definisce un'"intimidazione" e ha assicurato che ricorrerà in tribunale contro il divieto. L'azienda ha specificato che le garanzie richieste riguardavano il divieto della sorveglianza di massa a livello nazionale e la responsabilità umana nell'uso della forza, compresi i sistemi d'arma autonomi.

Le misure di salvaguardia tecniche di OpenAI

⬆ Torna su

Sam Altman ha annunciato l'accordo parlando di "profondo rispetto per la sicurezza" e ha specificato che OpenAI metterà in atto "misure di salvaguardia tecnica" per garantire che i modelli funzionino come dovuto. L'azienda ha scelto di accettare l'uso per ogni finalità legale, inserendo nei sistemi meccanismi tecnici che impediscano determinati comportamenti, tra cui la sorveglianza domestica di massa e l'uso diretto in armi autonome letali. Una differenza architetturale rispetto all'approccio contrattuale richiesto dal Pentagono ad Anthropic.

L'integrazione delle tecnologie OpenAI nei sistemi classificati richiederà tempo. L'azienda non è ancora completamente abilitata per ambienti ad alta classificazione e dovrà passare attraverso i canali infrastrutturali del governo, spesso legati a fornitori cloud come Amazon, che ha rafforzato la partnership con OpenAI nello stesso periodo. Il Pentagono mantiene in campo anche altri attori come Google e xAI di Elon Musk, puntando a evitare dipendenze eccessive da un singolo fornitore.

Claude Code Security: il tool che ha trovato 500 vulnerabilità

⬆ Torna su

Nello stesso periodo dello scontro con il Pentagono, Anthropic ha lanciato Claude Code Security, una funzionalità che scansiona interi codebase alla ricerca di vulnerabilità. Il tool ha individuato oltre 500 vulnerabilità in progetti open-source, alcune delle quali presenti da decenni senza essere state rilevate da revisioni umane. Anthropic sta procedendo alla notifica responsabile dei manutentori dei progetti coinvolti.

Il sistema si basa sul modello Claude Opus 4.6 e funziona seguendo il flusso dei dati attraverso l'applicazione, identificando errori logici complessi o problemi di controllo degli accessi che gli strumenti tradizionali basati su pattern potrebbero mancare. Ogni rilevamento viene sottoposto a un processo di verifica multi-stadio in cui Claude riesamina i propri risultati per filtrare i falsi positivi. Per ogni rilevamento confermato, il sistema assegna un livello di gravità e un punteggio di affidabilità.

Le modifiche non vengono mai applicate automaticamente: richiedono sempre una decisione consapevole degli sviluppatori. Anthropic ha testato le capacità di Claude per oltre un anno, collaborando anche con il Pacific Northwest National Laboratory per simulare un attacco a un impianto di trattamento delle acque, completato in circa tre ore rispetto alle settimane normalmente richieste da un team di esperti.

La reazione dei mercati finanziari

⬆ Torna su

L'annuncio di Claude Code Security ha provocato una reazione negativa sui titoli del settore cybersecurity. Le azioni CrowdStrike sono scese del 6,8%, Okta del 9,2%, Cloudflare del 6,7%, SailPoint del 9,1%, Zscaler del 5,47% e Palo Alto Networks dell'1,5%. Il Global X Cybersecurity ETF ha chiuso la giornata con un calo quasi del 5%. Gli analisti di Barclays hanno definito la reazione "incongrua", sostenendo che uno strumento per la sicurezza del codice non compete direttamente con ciò che fanno aziende come CrowdStrike o Palo Alto Networks.

Lo stesso modello Claude Opus 4.6 che alimenta Claude Code Security era stato precedentemente coinvolto in un exploit che ha causato perdite di 1,78 milioni di dollari presso il protocollo di lending DeFi Moonwell. Anthropic ha pubblicato una ricerca interna nel dicembre 2025 mostrando che una versione precedente, Claude Opus 4.5, poteva identificare e sfruttare indipendentemente vulnerabilità di smart contract per un valore fino a 4,6 milioni di dollari in un ambiente controllato.

Il confronto etico nelle "Costituzioni" aziendali

⬆ Torna su

Nella "Costituzione" che regola il comportamento di Claude, Anthropic riconosce che "un mondo trasformato dall'IA avanzata potrebbe mettere a disposizione di chi controlla i sistemi più potenti livelli di superiorità militare ed economica senza precedenti". L'azienda afferma di non avere "una soluzione completa a questo problema" e sottolinea che in alcuni casi "una transizione sicura e benefica verso l'IA avanzata potrebbe richiedere che alcuni attori sviluppino capacità pericolosamente potenti, anche in ambito di sicurezza e difesa".

Il contesto è quello di una competizione tecnologica tra Stati Uniti e Cina, dove l'intelligenza artificiale è considerata il fattore determinante per la supremazia del prossimo decennio. Il governo statunitense preme affinché le eccellenze della Silicon Valley contribuiscano alla resilienza dello Stato. Secondo quanto riportato dalle fonti, anche contro l'Iran il Pentagono ha utilizzato il modello Anthropic per valutazioni di intelligence, identificazione dei target e simulazione di scenari di battaglia.

La disponibilità di Claude Code Security

⬆ Torna su

Claude Code Security è stato lanciato come anteprima di ricerca limitata per clienti Enterprise e Team. I manutentori di repository open-source sono incoraggiati a richiedere accesso gratuito e accelerato per garantire che i loro progetti beneficino dei nuovi meccanismi di protezione. Anthropic utilizza già Claude per scansionare il proprio codice interno e riferisce un'alta efficacia nella protezione dei propri sistemi.

L'azienda prevede che gran parte del codice mondiale sarà scansionato da IA nel futuro e vede Claude Code Security come un modo per rafforzare i difensori prima che gli attaccanti usino sistematicamente l'IA per sfruttare le vulnerabilità più rapidamente. OpenAI ha presentato il proprio strumento di sicurezza automatizzato, chiamato Aardvark, nell'ottobre 2025.

La rivalità Altman-Amodei e i dati finanziari

⬆ Torna su

La sfida tra OpenAI e Anthropic si estende anche sul piano personale e finanziario. I vertici delle due aziende hanno evitato il contatto fisico durante una manifestazione pubblica all'India AI Impact Summit di Nuova Delhi. Dario Amodei ha lavorato per anni in OpenAI come vicepresidente della ricerca, contribuendo allo sviluppo dei modelli GPT-2 e GPT-3, prima di lasciare nel 2021 con la sorella Daniela per fondare Anthropic.

OpenAI si avvicina al termine di una raccolta fondi che potrebbe superare i cento miliardi di dollari. Secondo Bloomberg, i principali investitori della prima tranche sarebbero Amazon (fino a 50 miliardi), SoftBank (circa 30 miliardi), Nvidia (intorno ai 20 miliardi) e Microsoft. La valutazione complessiva di OpenAI potrebbe superare gli 850 miliardi di dollari, nonostante le proiezioni indichino che l'azienda non sarà redditizia prima del 2029.

Google ha rilasciato Gemini 3.1 Pro, ottenendo il 77,1% sul benchmark ARC-AGI-2, più del doppio rispetto al 31,1% del predecessore e superiore al 68,8% di Opus 4.6 di Anthropic e al 52,9% di GPT-5.2 di OpenAI.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'ingresso di OpenAI nelle operazioni del Pentagono e il contemporaneo lancio di Claude Code Security da parte di Anthropic delineano una biforcazione strategica nel settore dell'IA: da un lato l'accesso diretto agli appalti militari, dall'altro la specializzazione in cybersecurity difensiva. La designazione di Anthropic come rischio per la sicurezza nazionale potrebbe rappresentare un precedente per altre aziende tecnologiche che ostacolano richieste governative.

  • Scenario 1: OpenAI consolida la propria posizione come fornitore privilegiato della difesa statunitense, mentre Anthoric si concentra sul mercato civile e sulla sicurezza del codice, riducendo la propria esposizione agli appalti governativi.
  • Scenario 2: Le misure di salvaguardia tecniche annunciate da OpenAI potrebbero rivelarsi insufficienti a impedire usi controversi, riaccendendo il dibattito sulla responsabilità degli sviluppatori nell'uso bellico dell'IA.
  • Scenario 3: La diffusione di tool come Claude Code Security potrebbe comprimere i margini delle aziende cybersecurity tradizionali, costringendole a differenziare l'offerta rispetto all'automazione.

Cosa monitorare

⬆ Torna su
  • L'iter di certificazione di OpenAI per gli ambienti ad alta classificazione e i tempi effettivi di integrazione nei sistemi del Pentagono.
  • Le iniziative legali di Anthropic contro la designazione come rischio per la supply chain e le eventuali controverse del governo.
  • L'adozione di Claude Code Security nella comunità open-source e il volume di vulnerabilità corrette nei mesi successivi al lancio.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • openai
  • anthropic
  • cybersecurity
  • ai

Link utili

Apri l'articolo su DeafNews