OpenAI, dimissioni e polemiche dopo l'accordo con il Pentagono

La responsabile della robotica Caitlin Kalinowski lascia OpenAI per l'accordo militare firmato senza adeguate garanzie. Anthropic esclusa dalla catena di forni…

Contenuto

OpenAI, dimissioni e polemiche dopo l'accordo con il Pentagono

Scopri anche

OpenAI, dimissioni e polemiche dopo l'accordo con il Pentagono

OpenAI tra dimissioni di vertice e accordo militare con il Pentagono

In questo articolo:

Caitlin Kalinowski, responsabile della divisione robotica di OpenAI, si è dimessa il 7 marzo 2026 in segno di protesta contro l'accordo siglato dall'azienda con il Dipartimento della Difesa americano. L'ingegnere, entrata in OpenAI nel novembre 2024 dopo aver guidato il team degli occhiali a realtà aumentata presso Meta, ha motivato la scelta con ragioni etiche e di governance. «L'intelligenza artificiale svolge un ruolo importante nella sicurezza nazionale», ha dichiarato Kalinowski su X, «tuttavia la sorveglianza dei cittadini americani senza controllo giudiziario e l'autonomia letale senza autorizzazione umana sono questioni che meritavano una riflessione più approfondita di quella che hanno ricevuto».

L'accordo tra OpenAI e il Pentagono è stato annunciato il 28 febbraio, dopo la rottura delle trattative tra il Dipartimento della Difesa e Anthropic. Quest'ultima aveva opposto resistenza alle richieste di rimuovere qualsiasi restrizione alle applicazioni militari della propria tecnologia, in particolare per quanto riguarda la sorveglianza di massa e le armi autonome. La risposta dell'amministrazione Trump è stata immediata: il Pentagono ha designato Anthropic come "supply-chain risk", una classificazione solitamente riservata ad aziende legate ad avversari stranieri, e il presidente ha ordinato a tutte le agenzie federali di interrompere l'utilizzo dei suoi sistemi.

Le modifiche al contratto dopo le critiche

⬆ Torna su

Il contratto iniziale firmato da OpenAI acconsentiva all'utilizzo dei suoi servizi per qualsiasi scopo legale, senza limitazioni specifiche. Le critiche immediate hanno spinto l'azienda a una revisione rapida. Sam Altman ha ammesso pubblicamente che la firma, avvenuta di venerdì sera, è stata "affrettata" e che l'immagine risultata "non è delle migliori". In un post su X, il CEO ha annunciato modifiche per includere un linguaggio esplicito: i sistemi di intelligenza artificiale non potranno essere usati intenzionalmente per la sorveglianza domestica di cittadini e residenti statunitensi, in conformità con il Quarto Emendamento della Costituzione.

Le nuove disposizioni, negoziate direttamente da Altman con il sottosegretario alla Difesa Emil Michael, includono per la prima volta un riferimento esplicito alle informazioni acquistate da data broker come geolocalizzazione, cronologie di navigazione e dati finanziari personali, elementi non coperti dal contratto originario. Secondo quanto riportato da DDay.it, il divieto vale tuttavia solo per l'uso "intenzionale" della sorveglianza di massa, lasciando fuori gli scenari in cui la sorveglianza emerga come effetto collaterale di un sistema. Le informazioni tecnicamente non identificabili, come dati aggregati o profili pseudonimizzati ricostruibili con tecniche di re-identificazione, non rientrano esplicitamente nel perimetro di protezione.

Il conflitto con Anthropic e le conseguenze operative

⬆ Torna su

Anthropic, fondata nel 2021 da ex ricercatori di OpenAI tra cui Dario Amodei, aveva firmato un contratto da 200 milioni di dollari con il Pentagono a metà 2025. I rapporti si sono incrinati quando il Dipartimento ha fatto pressioni per rimuovere qualsiasi restrizione alle applicazioni militari. Amodei aveva dichiarato in più occasioni di non voler consentire l'uso dei sistemi di AI della propria azienda né in azioni militari che potrebbero portare all'uccisione di qualcuno, né per attività di sorveglianza di massa.

Nonostante il divieto formale, le tecnologie di Anthropic sono state utilizzate nell'operazione Epic Fury condotta contro l'Iran, secondo le ricostruzioni del Wall Street Journal. Il sistema Claude avrebbe supportato valutazioni di intelligence, identificazione di obiettivi e simulazioni di scenari di battaglia. Palantir, attraverso la piattaforma Maven Smart Systems che integra Claude, si trova ora nella posizione di dover sostituire il modello di Anthropic e ricostruire parti del proprio software, un processo di cui non è nota la durata.

Secondo il Financial Times, Amodei sta trattando con il sottosegretario Emil Michael per cercare un accordo che eviti l'esclusione definitiva dalla catena di fornitura del Pentagono. Due dei maggiori investitori di Anthropic, Google e Amazon, sono anche fornitori del Dipartimento, il che complica ulteriormente il quadro.

La reazione del mercato e le dimissioni interne

⬆ Torna su

L'annuncio dell'accordo ha provocato una risposta significativa da parte degli utenti. Secondo Sensor Tower, citata da TechCrunch, il tasso di disinstallazioni dell'app ChatGPT è schizzato al 295% sabato 28 febbraio, rispetto a una media del 9% giornaliero registrata durante il mese di febbraio. Nella stessa giornata, i download di Claude sono cresciuti dell'88% rispetto al giorno precedente, superando per la prima volta quelli del rivale e portando l'app di Anthropic al primo posto nell'App Store di Apple negli Stati Uniti.

Le dimissioni di Kalinowski non sono state le uniche. Max Schwarzer, vicepresidente della ricerca e responsabile del post-training, ha annunciato di lasciare OpenAI per entrare in Anthropic come ricercatore nel campo del reinforcement learning. Schwarzer aveva guidato il team che ha sviluppato l'intera famiglia GPT-5. Diversi dipendenti OpenAI hanno firmato una lettera aperta a sostegno delle posizioni di Anthropic, e il ricercatore Leo Gao ha criticato pubblicamente Altman accusandolo di aver operato un "maquillage contrattuale".

Kalinowski ha specificato che la sua decisione riguardava "i principi, non le persone" e ha espresso "profondo rispetto" per Altman e il team. In un post successivo su X ha chiarito: «Il mio problema è che l'annuncio è stato affrettato senza definire le linee guida. Si tratta innanzitutto di una questione di governance. Questioni troppo importanti per essere affrettate con accordi o annunci».

Il dibattito sulla governance dell'IA militare

⬆ Torna su

La vicenda ha acceso un dibattito su chi debba stabilire i limiti etici nell'uso militare dell'intelligenza artificiale. Durante una riunione con i dipendenti, Altman ha dichiarato che «le decisioni operative del Pentagono non spettano a OpenAI, ma al governo». Una frase che, come ha notato Avvenire di Calabria, solleva una domanda centrale: se le aziende tecnologiche rinunciano a porre limiti alle loro tecnologie, chi lo farà?

Il New York Times ha evidenziato che nonostante le rassicurazioni di OpenAI, non esistono garanzie effettive che i suoi sistemi non vengano usati per la sorveglianza di massa, un tema poco regolamentato negli Stati Uniti e quindi interpretabile in vari modi. Se OpenAI riscontrasse un uso illecito dei propri programmi da parte del Pentagono, potrebbe solo interrompere la collaborazione senza poter intervenire su quanto già fatto.

La promessa che i servizi OpenAI non saranno usati da agenzie di intelligence come la NSA rimane per ora un'affermazione verbale. Il contratto prevede che eventuali accordi con tali agenzie richiedano una modifica successiva, non un divieto esplicito. Anthropic, nel frattempo, ha partecipato a un bando del Pentagono da 100 milioni di dollari per sviluppare tecnologia per sciami di droni autonomi comandati a voce, con una proposta che prevedeva l'uso di Claude per tradurre ordini vocali in istruzioni digitali senza affidare all'IA le decisioni su obiettivi e armi. Il contratto è stato assegnato a un consorzio tra SpaceX e xAI di Elon Musk e a due aziende della difesa che collaborano con OpenAI.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

Le dimissioni di figure di vertice e la reazione degli utenti segnalano una frattura interna ed esterna che potrebbe ridefinire gli equilibri del settore.

  • Scenario 1: OpenAI potrebbe affrontare un'emorragia di talenti verso competitor percepiti come più allineati su principi etici, con impatto sulla capacità di sviluppare tecnologie come la famiglia GPT-5.
  • Scenario 2: Anthronic potrebbe negoziare un rientro nella catena di fornitura del Pentagono, ma le condizioni rimangono incerte e dipendono dalla disponibilità a compromessi su sorveglianza e armi autonome.
  • Scenario 3: La concorrenza potrebbe beneficiare della percezione pubblica: le disinstallazioni di ChatGPT e i download record di Claude suggeriscono una mobilità degli utenti sensibile alle questioni etiche.

Cosa monitorare

⬆ Torna su
  • Eventuali ulteriori dimissioni o migrazioni di personale tecnico tra le aziende coinvolte.
  • L'evoluzione delle trattative tra Anthropic e il sottosegretario Emil Michael.
  • La definizione operativa del limite tra sorveglianza "intenzionale" ed "effetto collaterale".

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • openai
  • anthropic
  • chatgpt
  • agentic

Link utili

Apri l'articolo su DeafNews