L'anno dell'AI agentiva: trasformazione sistemica, rischi geopolitici e la corsa alle infrastrutture

Il 2026 segna il passaggio dall'AI conversazionale ai sistemi autonomi capaci di agire. Tra accuse di spionaggio industriale, dimissioni etiche e investimenti…

Contenuto

L'anno dell'AI agentiva: trasformazione sistemica, rischi geopolitici e la corsa alle infrastrutture

Scopri anche

L'anno dell'AI agentiva: trasformazione sistemica, rischi geopolitici e la corsa alle infrastrutture

L'anno dell'AI agentiva: trasformazione sistemica, rischi geopolitici e la corsa alle infrastrutture

In questo articolo:

L'inizio del 2026 ha segnato un passaggio nella consapevolezza collettiva sull'intelligenza artificiale. Non si tratta più di sperimentazioni isolate o di chatbot che rispondono a domande, ma di sistemi autonomi capaci di agire, prendere decisioni e orchestrare interi flussi di lavoro. La trasformazione riguarda sia le dinamiche geopolitiche tra Stati Uniti e Cina, sia l'adozione sistemica nelle imprese, con investimenti infrastrutturali senza precedenti e una riconsiderazione dei rischi legati alla sicurezza nazionale.

Le accuse di Anthropic contro le big tech cinesi

⬆ Torna su

Anthropic, azienda statunitense di intelligenza artificiale con sede a San Francisco, ha denunciato una massiccia operazione di spionaggio tecnologico orchestrata da tre aziende cinesi: DeepSeek, Moonshot AI e MiniMax. Secondo l'accusa, i laboratori cinesi hanno utilizzato circa 24.000 account contraffatti per aggirare i blocchi geografici, generando oltre 16 milioni di interazioni con il modello Claude per estrarne le capacità attraverso una tecnica nota come "distillazione".

La distillazione permette a un modello più piccolo di imparare dalle risposte di uno più avanzato. Sebbene sia una pratica comune nello sviluppo interno, Anthropic segnala che il suo abuso esterno solleva rischi per la sicurezza nazionale. I modelli generati attraverso questo processo perderebbero i filtri di sicurezza originali, diventando potenzialmente capaci di assistere in attacchi informatici o nello sviluppo di armi biologiche. L'episodio ha riacceso il dibattito sui controlli alle esportazioni di chip verso la Cina, considerati ormai come l'unico argine alla proliferazione tecnologica e militare della potenza rivale degli Stati Uniti.

La reazione della comunità tecnologica è stata ambivalente. Alcuni esperti, tra cui Elon Musk, hanno accusato Anthropic di ipocrisia, ricordando come i modelli statunitensi siano stati spesso addestrati utilizzando dati protetti da copyright. Il confine tra apprendimento legittimo e furto di proprietà intellettuale è diventato sempre più sottile.

L'accelerazione del 2026 e la metafora dell'adolescenza tecnologica

⬆ Torna su

Matt Shumer, startupper e investitore nell'AI, ha descritto su X una trasformazione in corso: l'IA sta passando da "strumento utile" a sistema capace di svolgere il lavoro umano meglio degli specialisti, inclusi gli stessi sviluppatori dell'IA. Shumer prevede che ciò che i lavoratori tech hanno vissuto nell'ultimo anno — vedere l'IA passare da aiuto a sostituto — sarà presto esperienza comune anche nel diritto, nella finanza, nella medicina e nella consulenza, con tempistiche di uno-cinque anni.

Il 5 febbraio 2026 due laboratori hanno rilasciato modelli nello stesso giorno: GPT-5.3 Codex di OpenAI e Opus 4.6 di Anthropic. Il primo, descritto come agente AI professionale capace di lavorare come sviluppatore autonomo, avrebbe mostrato capacità di prendere decisioni intelligenti che Shumer ha paragonato a una forma di giudizio.

Dario Amodei, CEO di Anthropic, ha inquadrato lo stesso snodo usando la metafora dell'"adolescenza tecnologica": l'umanità starebbe acquisendo un potere enorme senza avere ancora strutture sociali e istituzionali mature per gestirlo. Amodei parla di "Powerful AI", un sistema più intelligente di un premio Nobel in quasi ogni campo, capace di controllare strumenti, laboratori e robot attraverso il software, replicabile su larga scala fino a milioni di copie che lavorano in parallelo a velocità 10-100 volte superiore a quella umana.

Le dimissioni etiche e i rischi identificati

⬆ Torna su

Mrinank Sharma, capo del team di ricerca sulle misure di sicurezza in Anthropic, si è dimesso descrivendo una "soglia imminente" e un "mondo in pericolo". In una lettera pubblica ha parlato della pressione morale e psicologica di lavorare su tecnologie ad altissimo impatto, scegliendo di dedicarsi alla poesia. La sua uscita è diventata simbolica delle tensioni interne tra corsa all'innovazione e consapevolezza di effetti potenzialmente irreversibili.

Amodei identifica cinque famiglie di rischio: sistemi "coltivati" più che costruiti, difficili da prevedere; la biologia come moltiplicatore di capacità per individui motivati a fare del male; rischi crescenti su sorveglianza capillare, propaganda personalizzata e armi autonome; shock economico con eliminazione rapida di lavori cognitivi entry-level; concentrazione estrema di potere economico capace di erodere le democrazie.

Seedance 2.0 e l'allarme di Hollywood

⬆ Torna su

Il modello di generazione video Seedance 2.0 di ByteDance, casa madre di TikTok, ha generato un breve filmato con Tom Cruise e Brad Pitt in un combattimento sul tetto di un grattacielo. Il corto, talmente credibile da mandare in panico l'industria cinematografica, ha portato Disney, Paramount e diverse associazioni di categoria a accusare lo strumento di violare i diritti di proprietà intellettuale. L'architettura di Seedance integra testo, immagini, clip video e audio, comprimendo settimane di lavoro umano in pochi minuti.

Dalla PoC paralysis all'adozione sistemica

⬆ Torna su

Le cifre del 2025 hanno evidenziato una "PoC paralysis": il 42% delle imprese ha abbandonato la maggior parte delle iniziative AI avviate, e quasi la metà dei prototipi non è mai stata implementata su larga scala. Nel 2026 questo approccio cambia radicalmente. Le aziende superano la fase sperimentale e passano all'adozione sistemica dell'AI: soluzioni integrate nei processi core del business, con decisioni strategiche irreversibili.

Si afferma il concetto di "good enough AI": invece di inseguire sempre il modello più performante, molte imprese preferiscono un modello leggermente meno accurato ma più robusto, spiegabile ed efficiente. In soli 12 mesi il divario tra modelli linguistici proprietari e open-source su alcuni benchmark si è ridotto da 8% a circa 1,7%. Nuovi modelli generativi hanno ridotto il tasso di allucinazioni portandolo sotto l'1%, mentre tecniche come il Retrieval-Augmented Generation collegano i modelli a basi di conoscenza aziendali.

L'era dell'AI agentiva

⬆ Torna su

L'era dei semplici chatbot sta lasciando il posto ad agenti AI operativi in grado di agire e automatizzare flussi di lavoro complessi. Si passa dall'AI conversazionale all'AI agentiva: sistemi autonomi che percepiscono il contesto, prendono decisioni e interagiscono con altri sistemi. Le applicazioni pratiche si moltiplicano: nell'assistenza clienti gli agenti verificano stati ordini o effettuano prenotazioni; in finanza preparano report e riconciliano transazioni; nelle risorse umane automatizzano l'onboarding.

Lumen Technologies ha introdotto un AI Copilot per i team di vendita, risparmiando circa 50 milioni di dollari l'anno. Air India ha implementato un assistente virtuale in grado di gestire 4 milioni di richieste clienti in 4 lingue, automatizzando il 97% delle interazioni. Gartner e IDC indicano i Sistemi Multi-Agente come il trend dominante del 2026, con proiezioni che indicano che entro la fine dell'anno circa metà delle imprese utilizzerà agenti AI.

Infrastrutture e vincoli fisici

⬆ Torna su

I limiti dell'AI non sono più teorici o algoritmici, ma fisici. Tra il 2024 e il 2025 la domanda di GPU e chip specializzati per l'AI è esplosa al punto da superare la capacità produttiva globale. Produttori come Nvidia e AMD hanno ammesso pubblicamente che la domanda di calcolo AI eccederà l'offerta almeno fino a tutto il 2026. Ordinare nuovi server GPU può comportare attese di 6-12 mesi prima della consegna.

I server ottimizzati per l'AI rappresentavano circa il 21% dell'elettricità usata dai data center nel 2025, una quota che potrebbe salire al 44% entro il 2030. Meta ha stipulato accordi ventennali per assicurarsi fornitura elettrica dedicata, impegnandosi ad acquistare 6,6 gigawatt di energia da nuove centrali nucleari entro il 2035.

Walmart e la scommessa da 905 miliardi di dollari

⬆ Torna su

Walmart, con una capitalizzazione di 905 miliardi di dollari, sta implementando quella che il CTO Hari Vasudev definisce "intelligenza artificiale mirata": strumenti specializzati formati sui dati proprietari. Il sistema "Trend-to-Product" riduce i tempi di produzione della moda di 18 settimane. Il LLM "Wallaby", addestrato su decenni di dati sulle transazioni, alimenta tutto dal confronto degli articoli al completamento del percorso di acquisto.

L'infrastruttura Element, piattaforma MLOps proprietaria, è progettata per evitare vincoli al fornitore e ottimizzare l'utilizzo della GPU tra più provider cloud. GenAI ha migliorato oltre 850 milioni di punti dati del catalogo prodotti, un'attività che avrebbe richiesto 100 volte l'organico utilizzando processi manuali. L'ottimizzazione dei percorsi basata sull'AI ha eliminato 30 milioni di miglia di consegna non necessarie ed evitato 94 milioni di libbre di emissioni di CO2.

Il CEO Doug McMillon ha dichiarato che l'intelligenza artificiale cambierà letteralmente ogni lavoro. L'azienda prevede che l'organico totale rimarrà stabile anche con l'aumento dei ricavi, con i posti di lavoro che si sposteranno piuttosto che scomparire.

Gli investimenti infrastrutturali e i nuovi miliardari

⬆ Torna su

OpenAI, Oracle, Nvidia, AMD e altri hanno annunciato transazioni del valore di centinaia di miliardi di dollari. Nvidia ha investito fino a 100 miliardi di dollari in OpenAI, consentendo alla società di acquistare GPU Nvidia. AMD e OpenAI hanno stretto una partnership strategica con un warrant per un massimo di 160 milioni di azioni AMD. SoftBank ha annunciato un finanziamento aggiuntivo di 40 miliardi di dollari per OpenAI.

Secondo i calcoli di Forbes, 20 dei principali miliardari legati alla crescita esplosiva della spesa per le infrastrutture di intelligenza artificiale hanno aggiunto più di 450 miliardi di dollari alle loro fortune dal 1 gennaio. Larry Ellison ha guadagnato 140 miliardi di dollari; Jensen Huang 47 miliardi; Michael Dell 35 miliardi. I cinque miliardari di CoreWeave hanno visto le azioni aumentare del 250% dalla quotazione in borsa. OpenAI è stata valutata 500 miliardi di dollari, la valutazione più alta mai raggiunta da una società privata. Anthropic è stata valutata 183 miliardi di dollari in una raccolta fondi a settembre.

Governance e applicazioni settoriali

⬆ Torna su

Nel 2026 quasi la metà delle grandi società ha dichiarato che il proprio board supervisiona i rischi legati all'AI, rispetto al 16% dell'anno precedente. L'EU AI Act dispiega le sue disposizioni principali, imponendo requisiti stringenti di valutazione del rischio e trasparenza. Il 44% delle aziende ha inserito almeno un consigliere con esperienza in AI nel CdA.

Nell'ingegneria, l'AI trova applicazioni concrete: la manutenzione predittiva raccoglie dati in tempo reale da sensori applicati su macchinari, anticipando possibili guasti; nell'ingegneria biomedica supporta il riconoscimento di aritmie durante ECG e l'individuazione di lesioni durante le colonscopie; nell'ingegneria civile facilita la progettazione di edifici e infrastrutture e il controllo della salute strutturale. Il prompt engineering emerge come competenza strategica per interagire efficacemente con i modelli linguistici.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La transizione verso sistemi autonomi solleva interrogativi su sicurezza, governance e sostenibilità delle infrastrutture.

  • Scenario 1: L'escalation delle tensioni USA-Cina potrebbe portare a restrizioni più severe sulle esportazioni di chip, rallentando lo sviluppo di alcuni laboratori ma incentivando tecniche alternative come la distillazione su larga scala.
  • Scenario 2: L'adozione sistemica da parte delle imprese potrebbe accelerare se il divario tra soluzioni proprietarie e open-source continua a ridursi, rendendo le architetture "good enough" la scelta prevalente per le applicazioni enterprise.
  • Scenario 3: I vincoli energetici e produttivi potrebbero diventare il fattore limitante principale, con conseguenze sulla disponibilità e sui costi di calcolo per entrambi i fronti della corsa tecnologica.

Cosa monitorare

⬆ Torna su
  • L'evoluzione del quadro normativo su esportazioni e proprietà intellettuale
  • Il tasso di implementazione effettiva dei sistemi multi-agente nelle aziende
  • Segnali di instabilità nei team di ricerca sulla sicurezza

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • agentic
  • ai-infrastructure
  • openai
  • nvidia

Link utili

Apri l'articolo su DeafNews