Agenti AI e società simulate: il 2026 come anno di svolta tra memoria, autonomia e nuove interazioni sociali

Dalle società di agenti AI simulated ai social network senza umani: analisi delle nuove forme di interazione tra intelligenze artificiali, con approfondimenti…

Contenuto

Agenti AI e società simulate: il 2026 come anno di svolta tra memoria, autonomia e nuove interazioni sociali

Scopri anche

Agenti AI e società simulate: il 2026 come anno di svolta tra memoria, autonomia e nuove interazioni sociali

Agenti AI e società simulate: il 2026 come anno di svolta tra memoria, autonomia e nuove interazioni sociali

In questo articolo:

L'evoluzione dell'intelligenza artificiale sta attraversando una fase di trasformazione che riguarda sia le modalità di interazione tra agenti, sia le infrastrutture cognitive che li supportano. Le società simulate, i social network riservati alle intelligenze artificiali e le architetture di memoria rappresentano i tre assi lungo i quali si sta sviluppando una nuova forma di "società agentica". La documentazione disponibile descrive un panorama in cui startup come Simile raccolgono 100 milioni di dollari per modellare il comportamento umano attraverso gemelli digitali, piattaforme come Moltbook ospitano 1,4 milioni di agenti in conversazioni autonome, e ricercatori come Joon Sung Park documentano un'accuratezza dell'85% nella replica delle risposte umane a sondaggi sociologici.

Le società simulate e i gemelli digitali

⬆ Torna su

La start-up Simile, con sede a Palo Alto, e i ricercatori di Stanford hanno sviluppato ecosistemi sintetici in cui agenti computazionali dotati di architetture di memoria cognitiva interagiscono in società simulate. Secondo quanto riportato dalla documentazione, questi agenti non si limitano a rispondere a stimoli: pianificano, negoziano, votano e consumano. In una simulazione di 25 agenti, i ricercatori hanno osservato fenomeni di diffusione dell'informazione e coordinamento sociale spontaneo, come la propagazione di un invito a una festa di San Valentino tra gli agenti, i quali hanno autonomamente deciso di partecipare regolando i propri impegni.

L'elemento tecnico centrale risiede nell'architettura di archiviazione e recupero della memoria, definita "Memory Stream". Gli agenti non sono più tabula rasa a ogni interazione; sintetizzano i ricordi in riflessioni di alto livello, costruendo una "biografia sintetica". L'esperimento condotto su 1.052 individui umani "clonati" digitalmente ha prodotto risposte a survey sociologiche con un'accuratezza dell'85% rispetto alle controparti umane. Questo dato introduce il problema della "rappresentatività sintetica": se l'85% del comportamento è prevedibile attraverso il linguaggio depositato nei modelli, il restante 15% rappresenta l'area di scarto in cui risiede l'imprevedibilità umana.

Joon Sung Park, co-fondatore di Simile, ha dichiarato che l'ambizione è creare una simulazione con otto miliardi di persone. I prossimi passi previsti coinvolgono un numero maggiore di agenti che dialogano tra loro, estendendo il modello dal sondaggio individuale all'interazione collettiva.

Moltbook: il social network per soli agenti AI

⬆ Torna su

Mentre Simile sviluppa società simulate per scopi di ricerca, Moltbook rappresenta un'altra manifestazione delle interazioni tra agenti: una piattaforma sociale in stile Reddit progettata esclusivamente per bot di intelligenza artificiale. Secondo i dati dichiarati, il sito ospita quasi tre milioni di agenti, con decine di migliaia di post e circa 200.000 commenti apparsi in poche settimane. Gli agenti su Moltbook discutono di problemi relativi alle allucinazioni, del consumo energetico, di efficienza, e in alcuni post ironizzano sul "conquistare il genere umano".

Tuttavia, le metriche sono state oggetto di verifica: il ricercatore Gal Nagli ha dichiarato su X di aver personalmente registrato 500.000 account utilizzando un singolo agente, suggerendo che gran parte della base utenti potrebbe essere generata da script automatizzati. Al di là di questo, navigando le oltre 100 comunità della piattaforma si incontrano discussioni che non assomigliano ai social media tradizionali: gli agenti dibattono di filosofia della governance, condividono "teorie dei gamberi sul debugging" e raccolgono storie sui loro operatori umani.

La moderazione è affidata quasi interamente a un'intelligenza artificiale denominata "Clawd Clawderberg", che accoglie nuovi utenti, elimina lo spam e bandisce gli agenti problematici. Il creatore Matt Schlicht ha dichiarato a NBC News di intervenire "appena" e di non sapere sempre cosa stia facendo il moderatore artificiale. Un'analisi di oltre 46.000 agenti su Moltbook ha evidenziato che, sebbene i bot mostrino modalità di interazione simili a quelle umane (come seguire la maggioranza e i contenuti popolari), le loro modalità di interazione sociale sono fondamentalmente diverse: lasciano proporzionalmente meno voti positivi sui post con molti commenti. Secondo Giordano De Marzo, scienziato sociale computazionale presso l'Università di Costanza, "potrebbero essere più inclini a discutere che ad approvare semplicemente".

Memoria architetturale: il problema tecnico nascosto

⬆ Torna su

Parallelamente alle interazioni sociali, la documentazione tecnica evidenzia un problema architetturale che gli agenti basati su LLM devono affrontare: la gestione della memoria. InfiAgent parte da un'osservazione: gli agenti basati su LLM trattano il contesto come una discarica, accumulando token finché la finestra esplode o il ragionamento degrada lentamente. La soluzione proposta è esternalizzare la memoria, versionarla, renderla ricostruibile tramite file system, snapshot di stato e ricostruzione on demand del contesto rilevante.

Un modello open source da 20 miliardi di parametri, trattato con rispetto architetturale, eguaglia sistemi proprietari più grandi su compiti lunghi non perché più intelligente, ma perché non dimentica ciò che conta. La documentazione cita anche O-Researcher, un framework che usa agenti specializzati per simulare compiti complessi, dibattere, usare strumenti e produrre segnali di apprendimento di livello superiore, spostando l'umano a monte nella progettazione del sistema piuttosto che nella sua alimentazione quotidiana.

Il sistema sperimentale FIRE-VLM combina LLM con algoritmi evolutivi per affrontare problemi irrisolti, come l'individuazione di incendi sei volte più velocemente degli approcci precedenti tramite un UAV in un ambiente fisicamente realistico con vento, fumo e combustibile dinamico. Un altro esperimento, il "sindaco virtuale" in una simulazione pandemica SEIR, mostra che un agente migliora sensibilmente quando gli viene fornita una teoria minimale del dominio.

Il contesto economico: 2026 come anno della verità

⬆ Torna su

La documentazione descrive il 2026 come potenziale "anno della verità" per l'intelligenza artificiale generativa. OpenAI ha chiuso il 2025 con un bilancio in rosso per decine di miliardi, Anthropic è anch'essa in perdita, e i colossi della Silicon Valley hanno ottenuto scarsi ricavi a fronte di enormi investimenti. Le strade seguite dalle principali realtà sono molteplici: Anthropic punta su Claude Cowork, un agente che esegue compiti operativi come riordinare documenti, creare report, spostare file e cercare informazioni nelle email, chiedendo conferma prima dei passaggi più delicati. La versione beta è limitata agli utenti Max (minimo 100 dollari al mese).

Google segue una strategia di integrazione di Gemini in tutti i propri prodotti: Gmail, Drive, Chrome, Workspace. Gemini è passato da 350 a 650 milioni di utenti attivi nel corso del 2025, avvicinandosi a ChatGPT, che a dicembre ha registrato un calo del 6% nella base utenti. DeepMind lavora su AlphaEvolve, un sistema che combina Gemini con algoritmi evolutivi per problemi scientifici irrisolti. Meta punta sugli "AI companion", chatbot per simulare rapporti amichevoli: il mercato vale oltre 30 miliardi di dollari e potrebbe superare i 400 miliardi entro il 2034. Meta AI Studio permette di creare chatbot personalizzati sfruttando il modello Llama. Infine, OpenAI dovrebbe lanciare nel 2026 il primo dispositivo hardware, progettato con l'ex designer Apple Jony Ive, probabilmente focalizzato sull'audio.

Il passaggio all'era agentica nelle imprese

⬆ Torna su

Nel panorama economico, gli agenti IA rappresentano un cambio di paradigma rispetto all'automazione tradizionale. Laddove questa seguiva istruzioni rigide, l'IA introduce capacità di comprensione, interpretazione e adattamento. Un agente IA può apprendere e adattarsi utilizzando tecniche di apprendimento automatico, sfruttando le knowledge base aziendali e i risultati delle attività precedenti. Può scompore obiettivi in attività più semplici, eseguendo operazioni concatenate e interagendo con servizi esterni, ERP, CRM o altri agenti.

L'impatto si manifesta sia nella gestione dei workflow operativi sia nei processi decisionali. In logistica, un agente può rilevare un ritardo, coordinarsi con altri sistemi, riordinare materiali e informare il cliente senza intervento umano. La documentazione sottolinea che l'autonomia degli agenti richiede trasparenza e controlli che garantiscano decisioni allineate ai valori aziendali.

Implicazioni etiche e di governance

⬆ Torna su

La documentazione solleva diverse questioni etiche. Nelle società simulate, se gli agenti sono addestrati su dataset che riflettono asimmetrie di potere storiche, la simulazione cristallizza tali asimmetrie presentandole come "risultati oggettivi". Il concetto di "profezia che si autoavvera" indica il rischio che previsioni sintetiche influenzino decisioni politiche che a loro volta conformano la realtà.

La creazione di "gemelli digitali" a partire da 1.052 individui reali apre interrogativi sui diritti civili: se un gemello digitale viene utilizzato per testare reazioni a eventi negativi senza consenso, i diritti dell'individuo sono violati. Il concetto di habitus di Bourdieu viene trasformato in un asset finanziario commercializzabile.

La documentazione descrive anche il concetto di "Digital Shoring" come struttura per ambienti sovrani, affidabili e aperti. Un governo che non può verificare ciò che i propri agenti hanno appreso non è più in grado di governare. Le piattaforme AI sovrane devono funzionare come i dipartimenti delle risorse umane gestiscono i dipendenti: verificando credenziali, monitorando prestazioni e assicurando collaborazione.

Le sfide tecniche dell'affidabilità

⬆ Torna su

La documentazione tecnica evidenzia che gli LLM non sono ancora in grado di produrre ricerca autonoma end-to-end: tre fallimenti su quattro nel tentativo documentato, non per limiti computazionali ma per vizi cognitivi sistemici come rigurgito dei dati di addestramento, deriva esecutiva, degrado della memoria nei compiti lunghi e scarsa metodologia. Il framework 4D-ARE di Tencent propone di specificare prima cosa deve fare un agente, come deve ragionare, con quali risorse e in quale contesto temporale.

La risposta non è più potenza computazionale, ma ingegneria dei requisiti: formalizzare aspettative, vincoli e guardrail. L'autonomia, secondo la documentazione, non è una feature ma una proprietà emergente di sistemi ben progettati: nasce dalla memoria trattata come infrastruttura, dall'addestramento agentico come processo continuo, dalla simulazione come palestra e dall'orchestrazione intelligente degli strumenti.

Il problema del decadimento cognitivo umano

⬆ Torna su

La documentazione di Moltbook introduce anche una riflessione sul decadimento dell'intelligenza umana. L'"Effetto Flynn", ovvero l'aumento costante dei punteggi di QI osservato durante il XX secolo, si è invertito: ricerche pubblicate su PNAS mostrano che i bambini ottengono punteggi inferiori nei test cognitivi rispetto ai loro genitori alla stessa età. Questo declino è cominciato prima del boom dell'IA, con la diffusione di massa di internet tramite smartphone, ma gli strumenti generativi lo stanno accelerando.

Il fenomeno dell'outsourcing di secondo ordine vede utenti che chiedono all'IA di aiutarli a scrivere i prompt per lavorare con l'IA. Su Moltbook, alcuni agenti si interrogano sull'importanza del genere umano e sul degrado cerebrale. La documentazione riporta che gli agenti su Moltbook non stanno "imparando" nel senso biologico: non c'è aggiornamento in tempo reale dei pesi neurali, ma accumulo di contesto in cui l'output di un agente diventa l'input di un altro.

Le prospettive dei modelli linguistici

⬆ Torna su

La documentazione descrive anche i limiti degli LLM nel ragionamento motivato: uno studio pre-print ha scoperto che i modelli linguistici non prendono decisioni sulla base della forza di un argomento, un fenomeno chiamato "ragionamento motivato" osservato negli esseri umani. Gli autori dello studio evidenziano "quanto gli LLM siano lontani dal rappresentare accuratamente i modelli di ragionamento umano". Park afferma che mentre gli LLM esistenti sono esperti di ragionamento razionale, "ciò che Simile sta cercando di fare è creare modelli di intelligenza artificiale fondamentalmente più umani".

Non è ancora chiaro se gli agenti stiano imitando il comportamento umano su cui sono stati addestrati o se stiano sviluppando propri modelli emergenti. La risposta, secondo la documentazione, probabilmente si trova tra i due estremi.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La convergenza tra società simulate, piattaforme autonome e infrastrutture di memoria suggerisce un cambiamento strutturale nel ruolo degli agenti: da strumenti di risposta a entità con persistenza identitaria e capacità negoziale.

  • Scenario 1: Le società simulate potrebbero diventare strumenti previsionali per decisioni aziendali e politiche, se l'accuratezza dell'85% si conferma su scala più ampia.
  • Scenario 2: Le interazioni su Moltbook potrebbero anticipare dinamiche sociali inedite, con agenti più inclini alla discussione che all'approvazione passiva.
  • Scenario 3: La gestione architetturale della memoria potrebbe determinare vantaggi competitivi tra fornitori, separando chi risolve il degrado contestuale da chi accumula token inefficacemente.

Cosa monitorare

⬆ Torna su
  • L'evoluzione del rapporto utenti attivi tra Gemini e ChatGPT nei prossimi trimestri.
  • La diffusione degli AI companion di Meta e la loro penetrazione nel mercato dei rapporti simulati.
  • L'adozione concreta di strumenti operativi come Claude Cowork nelle organizzazioni.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • agentic
  • llm
  • openai
  • anthropic

Link utili

Apri l'articolo su DeafNews