OpenAI, dimissioni e polemiche dopo l'accordo con il Pentagono
La responsabile della robotica Caitlin Kalinowski lascia OpenAI per l'accordo militare firmato senza adeguate garanzie. Anthropic esclusa dalla catena di forni…
Contenuto

Scopri anche
- ChatGPT Atlas e Google Chrome ultimi in classifica privacy: lo studio che cambia le carte
- ChatGPT e il panorama degli assistenti AI: modelli, alternative e strategie a confronto
- NVIDIA registra ricavi record per 39,3 miliardi nel Q4 FY2025: Blackwell traina la rivoluzione dell'AI agentic
- Anthropic: Claude trova 22 vulnerabilità in Firefox in due settimane
- LLM e memoria persistente: come Google e OpenAI stanno risolvendo il problema del contesto
- OpenAI conquista il Pentagono, Anthropic lancia Claude Code Security per la difesa informatica
- Anthropic e Mozilla: Claude trova 22 vulnerabilità in Firefox in due settimane
- I modelli linguistici di grandi dimensioni: architettura, funzionamento e limitazioni
- Anthropic e il Pentagono: lo scontro sul controllo dell'intelligenza artificiale militare
- Claude di Anthropic scopre 22 vulnerabilità in Firefox: la collaborazione con Mozilla
- GPT-5.3 Instant e la crisi di OpenAI: tra ritiri, proteste e sfide di mercato
- Elastic perde il 15% nonostante i risultati Q4 oltre le attese
- OpenAI sostituisce Anthropic nelle forniture al Pentagono: accordo da miliardi e scontro etico sull'IA militare
- OpenAI rilascia GPT-5.3 Instant: conversazioni più naturali e riduzione degli errori
- Nvidia segna record di fatturato: Jensen Huang annuncia il punto di svolta dell'AI agentica
- OpenAI rilascia GPT-5.3 Instant: conversazioni più dirette e riduzione degli errori per ChatGPT
- L'anno dell'AI agentiva: trasformazione sistemica, rischi geopolitici e la corsa alle infrastrutture
- Broadcom punta a 100 miliardi di ricavi AI entro il 2027 con chip personalizzati
- I Large Language Models: architettura, funzionamento e implicazioni
- OpenClaw: perché le grandi aziende tech bloccano l'agente AI autonomo
OpenAI tra dimissioni di vertice e accordo militare con il Pentagono
Caitlin Kalinowski, responsabile della divisione robotica di OpenAI, si è dimessa il 7 marzo 2026 in segno di protesta contro l'accordo siglato dall'azienda con il Dipartimento della Difesa americano. L'ingegnere, entrata in OpenAI nel novembre 2024 dopo aver guidato il team degli occhiali a realtà aumentata presso Meta, ha motivato la scelta con ragioni etiche e di governance. «L'intelligenza artificiale svolge un ruolo importante nella sicurezza nazionale», ha dichiarato Kalinowski su X, «tuttavia la sorveglianza dei cittadini americani senza controllo giudiziario e l'autonomia letale senza autorizzazione umana sono questioni che meritavano una riflessione più approfondita di quella che hanno ricevuto».
L'accordo tra OpenAI e il Pentagono è stato annunciato il 28 febbraio, dopo la rottura delle trattative tra il Dipartimento della Difesa e Anthropic. Quest'ultima aveva opposto resistenza alle richieste di rimuovere qualsiasi restrizione alle applicazioni militari della propria tecnologia, in particolare per quanto riguarda la sorveglianza di massa e le armi autonome. La risposta dell'amministrazione Trump è stata immediata: il Pentagono ha designato Anthropic come "supply-chain risk", una classificazione solitamente riservata ad aziende legate ad avversari stranieri, e il presidente ha ordinato a tutte le agenzie federali di interrompere l'utilizzo dei suoi sistemi.
Le modifiche al contratto dopo le critiche
⬆ Torna suIl contratto iniziale firmato da OpenAI acconsentiva all'utilizzo dei suoi servizi per qualsiasi scopo legale, senza limitazioni specifiche. Le critiche immediate hanno spinto l'azienda a una revisione rapida. Sam Altman ha ammesso pubblicamente che la firma, avvenuta di venerdì sera, è stata "affrettata" e che l'immagine risultata "non è delle migliori". In un post su X, il CEO ha annunciato modifiche per includere un linguaggio esplicito: i sistemi di intelligenza artificiale non potranno essere usati intenzionalmente per la sorveglianza domestica di cittadini e residenti statunitensi, in conformità con il Quarto Emendamento della Costituzione.
Le nuove disposizioni, negoziate direttamente da Altman con il sottosegretario alla Difesa Emil Michael, includono per la prima volta un riferimento esplicito alle informazioni acquistate da data broker come geolocalizzazione, cronologie di navigazione e dati finanziari personali, elementi non coperti dal contratto originario. Secondo quanto riportato da DDay.it, il divieto vale tuttavia solo per l'uso "intenzionale" della sorveglianza di massa, lasciando fuori gli scenari in cui la sorveglianza emerga come effetto collaterale di un sistema. Le informazioni tecnicamente non identificabili, come dati aggregati o profili pseudonimizzati ricostruibili con tecniche di re-identificazione, non rientrano esplicitamente nel perimetro di protezione.
Il conflitto con Anthropic e le conseguenze operative
⬆ Torna suAnthropic, fondata nel 2021 da ex ricercatori di OpenAI tra cui Dario Amodei, aveva firmato un contratto da 200 milioni di dollari con il Pentagono a metà 2025. I rapporti si sono incrinati quando il Dipartimento ha fatto pressioni per rimuovere qualsiasi restrizione alle applicazioni militari. Amodei aveva dichiarato in più occasioni di non voler consentire l'uso dei sistemi di AI della propria azienda né in azioni militari che potrebbero portare all'uccisione di qualcuno, né per attività di sorveglianza di massa.
Nonostante il divieto formale, le tecnologie di Anthropic sono state utilizzate nell'operazione Epic Fury condotta contro l'Iran, secondo le ricostruzioni del Wall Street Journal. Il sistema Claude avrebbe supportato valutazioni di intelligence, identificazione di obiettivi e simulazioni di scenari di battaglia. Palantir, attraverso la piattaforma Maven Smart Systems che integra Claude, si trova ora nella posizione di dover sostituire il modello di Anthropic e ricostruire parti del proprio software, un processo di cui non è nota la durata.
Secondo il Financial Times, Amodei sta trattando con il sottosegretario Emil Michael per cercare un accordo che eviti l'esclusione definitiva dalla catena di fornitura del Pentagono. Due dei maggiori investitori di Anthropic, Google e Amazon, sono anche fornitori del Dipartimento, il che complica ulteriormente il quadro.
La reazione del mercato e le dimissioni interne
⬆ Torna suL'annuncio dell'accordo ha provocato una risposta significativa da parte degli utenti. Secondo Sensor Tower, citata da TechCrunch, il tasso di disinstallazioni dell'app ChatGPT è schizzato al 295% sabato 28 febbraio, rispetto a una media del 9% giornaliero registrata durante il mese di febbraio. Nella stessa giornata, i download di Claude sono cresciuti dell'88% rispetto al giorno precedente, superando per la prima volta quelli del rivale e portando l'app di Anthropic al primo posto nell'App Store di Apple negli Stati Uniti.
Le dimissioni di Kalinowski non sono state le uniche. Max Schwarzer, vicepresidente della ricerca e responsabile del post-training, ha annunciato di lasciare OpenAI per entrare in Anthropic come ricercatore nel campo del reinforcement learning. Schwarzer aveva guidato il team che ha sviluppato l'intera famiglia GPT-5. Diversi dipendenti OpenAI hanno firmato una lettera aperta a sostegno delle posizioni di Anthropic, e il ricercatore Leo Gao ha criticato pubblicamente Altman accusandolo di aver operato un "maquillage contrattuale".
Kalinowski ha specificato che la sua decisione riguardava "i principi, non le persone" e ha espresso "profondo rispetto" per Altman e il team. In un post successivo su X ha chiarito: «Il mio problema è che l'annuncio è stato affrettato senza definire le linee guida. Si tratta innanzitutto di una questione di governance. Questioni troppo importanti per essere affrettate con accordi o annunci».
Il dibattito sulla governance dell'IA militare
⬆ Torna suLa vicenda ha acceso un dibattito su chi debba stabilire i limiti etici nell'uso militare dell'intelligenza artificiale. Durante una riunione con i dipendenti, Altman ha dichiarato che «le decisioni operative del Pentagono non spettano a OpenAI, ma al governo». Una frase che, come ha notato Avvenire di Calabria, solleva una domanda centrale: se le aziende tecnologiche rinunciano a porre limiti alle loro tecnologie, chi lo farà?
Il New York Times ha evidenziato che nonostante le rassicurazioni di OpenAI, non esistono garanzie effettive che i suoi sistemi non vengano usati per la sorveglianza di massa, un tema poco regolamentato negli Stati Uniti e quindi interpretabile in vari modi. Se OpenAI riscontrasse un uso illecito dei propri programmi da parte del Pentagono, potrebbe solo interrompere la collaborazione senza poter intervenire su quanto già fatto.
La promessa che i servizi OpenAI non saranno usati da agenzie di intelligence come la NSA rimane per ora un'affermazione verbale. Il contratto prevede che eventuali accordi con tali agenzie richiedano una modifica successiva, non un divieto esplicito. Anthropic, nel frattempo, ha partecipato a un bando del Pentagono da 100 milioni di dollari per sviluppare tecnologia per sciami di droni autonomi comandati a voce, con una proposta che prevedeva l'uso di Claude per tradurre ordini vocali in istruzioni digitali senza affidare all'IA le decisioni su obiettivi e armi. Il contratto è stato assegnato a un consorzio tra SpaceX e xAI di Elon Musk e a due aziende della difesa che collaborano con OpenAI.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLe dimissioni di figure di vertice e la reazione degli utenti segnalano una frattura interna ed esterna che potrebbe ridefinire gli equilibri del settore.
- Scenario 1: OpenAI potrebbe affrontare un'emorragia di talenti verso competitor percepiti come più allineati su principi etici, con impatto sulla capacità di sviluppare tecnologie come la famiglia GPT-5.
- Scenario 2: Anthronic potrebbe negoziare un rientro nella catena di fornitura del Pentagono, ma le condizioni rimangono incerte e dipendono dalla disponibilità a compromessi su sorveglianza e armi autonome.
- Scenario 3: La concorrenza potrebbe beneficiare della percezione pubblica: le disinstallazioni di ChatGPT e i download record di Claude suggeriscono una mobilità degli utenti sensibile alle questioni etiche.
Cosa monitorare
⬆ Torna su- Eventuali ulteriori dimissioni o migrazioni di personale tecnico tra le aziende coinvolte.
- L'evoluzione delle trattative tra Anthropic e il sottosegretario Emil Michael.
- La definizione operativa del limite tra sorveglianza "intenzionale" ed "effetto collaterale".
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://www.corriere.it/tecnologia/26_marzo_08/guerra-delle-ai-kalinowsky-lascia-openai-il-contratto-con-il-pentagono-firmato-troppo-in-fretta-e-senza-garanzie-49cab2d8-490f-4556-997a-8902e2849xlk.shtml
- https://www.ilpost.it/2026/03/08/pentagono-anthropic-openai/
- https://www.rivista.ai/2026/03/08/fuga-da-openai-la-guida-della-robotica-lascia-per-protesta-contro-armi-autonome-e-sorveglianza/
- https://www.italiachecambia.org/podcast/openai-anthropic-pentagono/
- https://www.avveniredicalabria.it/lintelligenza-artificiale-alla-prova-del-fuoco-delle-armi-openai-nella-bufera-per-laccordo-col-pentagono/
- https://www.roberto-serra.com/news/accordo-openai-pentagono-militare-4-3-2026/
- https://www.dday.it/redazione/56580/openai-e-pentagono-riscrivono-il-contratto-firmato-frettolosamente-ma-le-ambiguita-restano
In breve
- openai
- anthropic
- chatgpt
- agentic