L'intelligenza artificiale può replicare la personalità umana con due ore di conversazione
Uno studio congiunto di Stanford e Google DeepMind dimostra che bastano due ore di intervista per creare agenti AI in grado di replicare il comportamento umano…
Contenuto

Scopri anche
- Riot Platforms firma accordo decennale con AMD per data center AI da 311 milioni di dollari
- I modelli linguistici di grandi dimensioni: architettura, funzionamento e limitazioni
- Chrome 145: aggiornamento urgente per CVE-2026-2441, prima zero-day del 2026
- OpenAI rilascia GPT-5.3 Instant: conversazioni più naturali e riduzione degli errori
- GPT-5.3 Instant e la crisi di OpenAI: tra ritiri, proteste e sfide di mercato
- Vulnerabilità zero-day: Google e Apple corrono ai ripari dopo attacchi attivi
- Duke Energy: monitoraggio interruzioni corrente e strategie di gestione
- Google Pixel Drop di marzo 2026: novità AI, modalità desktop e sicurezza
- Certificazione NATO per iPhone e le minacce digitali: sicurezza e attacchi
- Messaggi effimeri WhatsApp: funzionamento, vulnerabilità tecniche e limitazioni reali
- I Large Language Models: architettura, funzionamento e implicazioni
- OpenAI rilascia GPT-5.3 Instant: conversazioni più dirette e riduzione degli errori per ChatGPT
- Apple rilascia aggiornamenti di sicurezza per iPhone e iPad datati: protegge dispositivi fino a un decennio
- Cisco e Sharon AI lanciano la prima AI Factory sovrana in Australia con tecnologia NVIDIA
- Samsung Galaxy Z Fold 7: aggiornamenti software e analisi del dispositivo pieghevole
- Vulnerabilità software e cybersecurity: come proteggersi dagli attacchi informatici
- Elastic perde il 15% nonostante i risultati Q4 oltre le attese
- DeepSeek V4: accesso anticipato solo a fornitori cinesi, NVIDIA e AMD esclusi
- Ford richiama oltre 4 milioni di veicoli per vulnerabilità software nel modulo rimorchio
- Intelligenza artificiale nella Pubblica Amministrazione: il quadro normativo e i limiti della decisione algoritmica
Agenti AI e replica della personalità: la ricerca di Stanford e Google DeepMind
- La differenza tra agenti di simulazione e agenti basati su strumenti
- AlterEgoGPT: la piattaforma italiana per gli avatar digitali
- Identità sensoriale e rischi di replicazione non autorizzata
- La frattura tra funzionamento tecnico e principi giuridici
- Il quadro normativo europeo
- Metodi di valutazione e limitazioni della ricerca
- Protezione dei dati e controllo dell'accesso
- Le origini storiche del concetto di alter ego
- Avatar e mondi virtuali
- I rischi per la sicurezza
- Implicazioni e scenari
- Cosa monitorare
- Fonti
Uno studio condotto da ricercatori dell'Università di Stanford e di Google DeepMind, pubblicato su arXiv senza revisione paritaria, ha dimostrato che un'architettura dedicata può replicare la personalità di individui con un'accuratezza dell'85%. La ricerca, guidata da Joon Sung Park, dottorando in informatica a Stanford, ha coinvolto 1.052 partecipanti sottoposti a interviste qualitative basate sul protocollo dell'American Voices Project. Le conversazioni hanno spaziato da temi sociali e di attualità alla storia personale, incluse infanzia, relazioni familiari ed eventi significativi.
Le trascrizioni delle interviste sono state iniettate nei prompt degli agenti AI, istruiti a imitare gli intervistati. Due settimane dopo, i partecipanti hanno completato test di personalità, indagini sociali e giochi di logica, ripetendo gli stessi esercizi. Gli agenti AI hanno ottenuto risultati simili alle risposte umane in una misura corrispondente all'85%. Joon Sung Park ha descritto questa prospettiva come "il futuro definitivo": avere piccole versioni di sé che prendono decisioni che effettivamente si sarebbero prese.
La differenza tra agenti di simulazione e agenti basati su strumenti
⬆ Torna suLa ricerca distingue gli agenti di simulazione dagli agenti basati su strumenti che dominano l'attuale sviluppo aziendale. I primi sono progettati per comportarsi come persone specifiche, mentre i secondi eseguono compiti come recuperare informazioni o prenotare viaggi. Salesforce, Anthropic e OpenAI hanno annunciato sviluppi in questa direzione. Secondo John Horton, professore associato presso il MIT Sloan School of Management, la ricerca sugli agenti di simulazione porterà probabilmente ad agenti AI più performanti in generale, creando un ibrido tra esseri umani reali e personaggi utilizzabili in simulazioni programmatiche.
La simulazione generalizzata di atteggiamenti e comportamenti umani potrebbe consentire ai ricercatori di testare interventi, politiche, lanci di prodotti o reazioni a shock su larga scala. La "banca" di agenti descritta nel paper può funzionare come benchmark o dataset di training per sviluppare nuovi modelli.
AlterEgoGPT: la piattaforma italiana per gli avatar digitali
⬆ Torna suNel settembre 2024, durante una riunione di A.L. Assistenza Legale a Milano, ha debuttato AlterEgoGPT, una piattaforma conversazionale identitaria descritta come "MultiMind AI". Il progetto, presentato dall'avvocato Giovanni Bonomo con gli sviluppatori Vittorio Napoli e Vincent Bianchetti, si propone di generare avatar digitali capaci di replicare stile, conoscenze ed esperienza degli utenti. La piattaforma consente di caricare documenti PDF, Word o link a siti web per "istruire" l'avatar, che apprende stile e competenze specifiche.
L'infrastruttura si integra con WhatsApp e dispone di widget per siti web. Durante il webinar dell'11 febbraio 2025, sono stati illustrati tool per la scrittura di copy pubblicitari, generazione di testi lunghi e chatbot addestrabili. La visione del fondatore, allineata con approcci come quello di xAI di Elon Musk, punta a "amplificare e potenziare le capacità umane" senza sostituirle, in un'ottica antropocentrica dell'intelligenza artificiale.
Identità sensoriale e rischi di replicazione non autorizzata
⬆ Torna suLa generazione artificiale di voce, volto e stile espressivo ha superato una soglia tecnica decisiva: non si tratta più di imitazioni approssimative, ma di repliche credibili, persistenti e scalabili. I modelli generativi catturano timbro vocale, ritmo del linguaggio, espressioni facciali e microvariazioni emotive, trasformando l'identità umana in un oggetto computazionale. Una voce non è più una registrazione isolata: è una rappresentazione statistica capace di produrre variazioni infinite e coerenti.
Il caso di Matthew McConaughey illustra una risposta pragmatica: l'attore ha presentato domande di registrazione di marchio relative a voce, immagine e tratti distintivi del proprio stile comunicativo per limitarne l'uso non autorizzato. Parallelamente, ha investito in un'azienda specializzata in sintesi vocale basata sull'AI. La scelta dimostra che protezione e sviluppo possono coesistere in un ecosistema ancora immaturo.
La frattura tra funzionamento tecnico e principi giuridici
⬆ Torna suUna volta apprese, le rappresentazioni dell'identità diventano parte integrante del modello e non possono essere facilmente separate o eliminate. La cancellazione dei dati di addestramento non equivale alla rimozione delle capacità del sistema. Si crea una frattura strutturale tra funzionamento tecnico dell'AI e principi giuridici tradizionali. Un modello generativo non "dimentica" come un database che cancella una riga. Anche applicando tecniche di mitigazione del rischio o riallineamento, le capacità emergenti possono riattivare comportamenti indesiderati.
L'identità può continuare a essere replicata anche in assenza di autorizzazione attiva, rendendo fragili i meccanismi di protezione basati esclusivamente sul ritiro del consenso. La questione centrale diventa chi governa i modelli che hanno integrato i dati, non solo chi possiede i dati stessi. Il dibattito si sposta dal diritto all'oblio verso l'ipotesi di un diritto di non replicazione.
Il quadro normativo europeo
⬆ Torna suL'AI Act introduce una classificazione del rischio, vieta alcuni usi estremi e impone obblighi di trasparenza per i contenuti sintetici. Il Data Act disciplina accesso e condivisione dei dati senza affrontare direttamente i modelli già addestrati su impronte vocali o visive specifiche. eIDAS 2 e il futuro portafoglio digitale europeo rafforzano l'identità amministrativa e gli identificatori ufficiali, ma restano ancorati a una concezione documentale. L'identità sensoriale opera invece a livello di rappresentazione e generazione.
L'avvocato Giovanni Bonomo ha citato la normativa europea sull'intelligenza artificiale durante la presentazione di AlterEgoGPT, affermando che se l'AI rimane uno strumento nelle mani umane per potenziarne le capacità, se ne può ricavare una visione ottimistica. Il testo finale della AI Code of Practice è ancora fermo in Commissione europea alla terza bozza.
Metodi di valutazione e limitazioni della ricerca
⬆ Torna suI test utilizzati dal team di Stanford e DeepMind includono il General Social Survey e le valutazioni dei tratti della personalità Big Five: apertura all'esperienza, coscienziosità, estroversione, gradevolezza e nevroticismo. Gli agenti AI sono risultati più performanti nella replica di esseri umani in test comportamentali come il "gioco del dittatore", progettato per illuminare le considerazioni dei partecipanti su valori come l'equità. Questi test sono comunemente utilizzati nella ricerca sulle scienze sociali, ma non pretendono di catturare tutti i dettagli unici che costituiscono l'individualità.
Le interviste qualitative rivelano idiosincrasie che emergono con minore probabilità dai sondaggi. Joon Sung Park ha notato come due ore di intervista possano essere molto potenti: esperienze come aver avuto il cancro e guarito l'anno precedente rappresentano informazioni particolari che dicono molto su come ci si comporta e pensa. Sarebbe difficile creare domande di sondaggio che suscitino questo tipo di ricordi e risposte.
Protezione dei dati e controllo dell'accesso
⬆ Torna suPer arginare i rischi, i ricercatori propongono due modalità di accesso alle informazioni degli agenti: la prima, più restrittiva, fornisce risposte aggregate a domande prefissate, utile per analizzare il comportamento di grandi segmenti di popolazioni; la seconda prevede l'accesso a risposte individuali su domande scelte dal ricercatore, ma richiede documentazione dettagliata del progetto per ottenere l'approvazione. Il team mantiene un registro di controllo delle modalità di utilizzo delle API e continua a monitorarne l'uso.
Hassaan Raza, CEO di Tavus, compagnia che crea gemelli digitali, ha espresso interesse per il progetto, definendolo un modo più efficiente per replicare le unicità degli esseri umani. Secondo Raza, potrebbero non essere necessarie tutte le informazioni: basterebbe parlare con un intervistatore AI per 30 minuti oggi e 30 minuti domani per costruire il gemello digitale.
Le origini storiche del concetto di alter ego
⬆ Torna suIl termine "alter ego", dal latino "altro io", indica un sé alternativo distinto dalla personalità normale. Cicerone coniò il termine nella Roma del I secolo descrivendolo come "un secondo sé, un amico fidato". L'esistenza di "un altro sé" fu riconosciuta nel XVIII secolo, quando Anton Mesmer e i suoi seguaci usarono l'ipnosi per separare l'alter ego. Gli esperimenti mostrarono un pattern comportamentale distinto tra lo stato di veglia e lo stato ipnotico. Sigmund Freud fece riferimento a istanze di doppia coscienza per sostenere la sua tesi dell'inconscio, considerando le radici del fenomeno nella fase narcisistica della prima infanzia.
Nell'accezione letteraria, l'alter ego descrive un personaggio percepito come rappresentativo dell'autore per similitudini psicologiche, comportamentali o di pensiero. Nel diritto inglese e gallese, il caso Lennard's Carrying Co Ltd v Asiatic Petroleum Co Ltd del 1915 stabilì la teoria dell'alter ego per la responsabilità aziendale.
Avatar e mondi virtuali
⬆ Torna suIl termine "avatar" ha origini sanscrite: "ava" significa "discesa", "tara" significa "attraversare". Nelle tradizioni indiane, un avatar è una manifestazione di una divinità in forma umana o animale. Con l'avvento della tecnologia, il termine indica una rappresentazione grafica di un utente in ambienti online. Neal Stephenson usa il termine "Avatar" 116 volte in "Snow Crash": attorno alla figura dell'avatar si sviluppa l'economia digitale, dai vestiti alle skin agli accessori.
Le tipologie di avatar variano: alcuni utenti mantengono l'aspetto standard, sostenendo che "non è l'avatar che conta, ma chi c'è dietro"; altri cercano di renderlo simile alla propria immagine reale, creando un "digital twin" utilizzabile per provare capi di abbigliamento con le esatte dimensioni fisiche. La cybersecurity e la protezione dei dati personali pongono interrogativi nuovi in questo contesto.
I rischi per la sicurezza
⬆ Torna suLa clonazione vocale rende credibili attacchi di ingegneria sociale sofisticati. I deepfake mettono in crisi meccanismi tradizionali di autenticazione e fiducia. La creazione di avatar o gemelli digitali solleva interrogativi su proprietà, durata e usi futuri delle rappresentazioni. In un'economia fondata sulla fiducia, la perdita di controllo sull'identità può trasformarsi in vulnerabilità strategica.
Senza un quadro tecnico e legale integrato, l'identità sensoriale rischia di diventare un vantaggio per chi dispone di strumenti avanzati per proteggere e monitorare i propri modelli. Sta emergendo un divario basato sulla capacità di governare la propria rappresentazione algoritmica.
Le misure di protezione suggerite includono mantenere una presenza online limitata, evitare di condividere informazioni sensibili sui social media, utilizzare password forti e cambiarle regolarmente, valutare strumenti di crittografia e autenticazione a più fattori.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa capacità di replicare personalità con elevata accuratezza apre scenari ambigui: da un lato, le simulazioni potrebbero supportare ricerca sociale e testing di prodotti; dall'altro, l'identità diventa un bene computazionale difficilmente tutelabile con gli strumenti normativi attuali.
- Scenario 1: adozione difensiva di registrazioni di marchio su voce, immagine e stile comunicativo, seguendo l'esempio di Matthew McConaughey, per limitare replicazioni non autorizzate.
- Scenario 2: sviluppo di piattaforme come AlterEgoGPT in ambito professionale, con avatar digitali che estendono la presenza di esperti in contesti consultivi o formativi.
- Scenario 3: escalation normativa europea verso forme di diritto di non replicazione, con tensioni tra libertà di innovazione e protezione dell'identità sensoriale.
Cosa monitorare
⬆ Torna su- L'evoluzione dell'AI Code of Practice europeo e la definizione di obblighi specifici per i contenuti sintetici.
- Le iniziative di protezione dell'identità tramite marchi o strumenti contrattuali.
- Il consolidarsi di standard etici per l'accesso controllato agli agenti di simulazione.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://en.wikipedia.org/wiki/Alter_ego
- https://www.ai4business.it/intelligenza-artificiale/identita-sensoriale-e-ai-chi-governa-il-nostro-gemello-digitale/
- https://assodigitale.it/alteregogpt-lavatar-digitale-che-ridefinisce-la-propria-identita-e-presenza-professionale/
- https://data4biz.com/articles/allia-basta-una-conversazione-di-due-ore-per-replicare-la-nostra-personalita
- https://www.technologyreview.it/lintelligenza-artificiale-puo-ora-creare-una-replica-della-vostra-personalita/
- https://tech.icrewplay.com/chiunque-puo-creare-il-tuo-alter-ego-digitale/
- https://www.virtualworldsmagazine.com/avatar/
In breve
- ai
- llm
- cybersecurity
- data