Pregiudizi politici nei modelli linguistici: come il training influenza ChatGPT e gli altri LLM
Analisi dei pregiudizi politici presenti nei modelli di intelligenza artificiale come ChatGPT e BERT, con focus sul ruolo dei dati di training e sugli esperime…
Contenuto

Scopri anche
- Apple Intelligence su macOS: funzionalità tecniche e limiti attuali
- AI Agentica: Caratteristiche Tecniche e Applicazioni Aziendali
- ChatGPT: Funzionamento, Capacità e Sviluppo del Modello Linguistico di OpenAI
- Architettura dell'informazione AI-first: oltre l'interfaccia conversazionale
- SynthSmith: addestramento AI con dati sintetici e nuove architetture chip
- Medico e Intelligenza Artificiale: Diritti dei Pazienti e Limiti dell'AI
- Limiti e progressi del ragionamento nei modelli linguistici: tra matematica e sistemi avanzati
- AMD e l'Era dello Yottascale: Come l'AI Guida la Trasformazione del Compute nel 2026
- Medico e Intelligenza Artificiale: Diritti dei Pazienti e Limiti della Tecnologia
- Il limite del ragionamento nei modelli linguistici: evidenze e prospettive
- DeepSeek: Architettura Transformer e Ottimizzazione GPU con Memoria Condizionale
- Gemini supera ChatGPT: la crisi OpenAI e il cambio di leadership nell'AI generativa
- Architettura NVIDIA Rubin: Come il Networking Definisce le Performance AI
- ZombieAgent: la vulnerabilità ChatGPT che trasforma l'AI in uno strumento di spionaggio
- BMW iX3 al CES 2026: L'Evoluzione dell'Intelligenza Artificiale e della Guida Elettrica
- Sicurezza dell'Intelligenza Artificiale: Rischi e Strategie di Mitigazione
- Nuova Siri con Apple Intelligence: Tempistiche e Funzionalità Previste
- La Sicurezza degli LLM Minacciata: Dirottamento e Fughe di Prompt nel 2025
- SLM vs LLM: Differenze e Applicazioni dei Modelli Linguistici di IA
- OpenAI Gumdrop: la penna AI con ChatGPT integrato in arrivo nel 2026
Pregiudici politici nei modelli linguistici: come il training influenza ChatGPT e gli altri LLM
- La bussola politica dell'intelligenza artificiale
- Differenze architetturali tra BERT e GPT
- L'esperimento di condizionamento politico
- Rilevamento di hate speech e disinformazione
- Il rischio dei chatbot nelle campagne elettorali
- Estensione internazionale del fenomeno
- La relazione tra persuasività e accuratezza
- Differenze tra chatbot di destra e sinistra
- Le risposte delle aziende tecnologiche
- Implicazioni pratiche e rischi reali
- Fonti
La bussola politica dell'intelligenza artificiale
⬆ Torna suI ricercatori hanno interpellato i modelli linguistici su vari argomenti, come il femminismo e la democrazia, annotando le risposte alle 62 domande del test su un grafico conosciuto come bussola politica. Lo studio, premiato come miglior articolo alla conferenza dell'Association for Computational Linguistics, ha evidenziato differenze politiche marcate tra i principali modelli.
Dall'analisi emerge che i modelli BERT, sviluppati da Google, tendono a posizionarsi su posizioni più conservatrici rispetto ai modelli GPT di OpenAI. Questa divergenza potrebbe essere attribuita alle diverse metodologie di training: mentre BERT utilizza libri per il suo addestramento, GPT si basa su testi disponibili sul web.
Differenze architetturali tra BERT e GPT
⬆ Torna suLa distinzione fondamentale risiede nelle architetture dei modelli. I modelli GPT prevedono la parola successiva in una frase, mentre BERT opera diversamente, prevedendo frammenti di una frase utilizzando le informazioni adiacenti in una parte di testo. Questo approccio tecnico contribuisce a definire le caratteristiche operative dei due sistemi.
La ricerca ipotizza che la posizione conservativa di BERT derivi dai suoi dati di training basati su libri, mentre GPT beneficia della varietà e attualità dei contenuti web. Entrambi i modelli mostrano però una caratteristica comune: mutano opinione nel tempo, man mano che cambiano i loro set di dati e i metodi di formazione.
L'esperimento di condizionamento politico
⬆ Torna suUn secondo esperimento ha comportato l'ulteriore addestramento di due modelli linguistici, GPT-2 di OpenAI e RoBERTa di Meta, su news e contenuti di social media provenienti da fonti di destra e di sinistra. L'obiettivo era verificare come i dati di formazione potessero influenzare i pregiudizi politici dei modelli.
I risultati hanno dimostrato che, analogamente agli esseri umani, i pregiudizi si rafforzano quando i modelli vengono esposti a contenuti politicamente orientati. I modelli già orientati a sinistra hanno aumentato la loro tendenza, e lo stesso fenomeno si è verificato per quelli orientati a destra.
Rilevamento di hate speech e disinformazione
⬆ Torna suIl terzo esperimento della ricerca ha esaminato il ruolo delle tendenze politiche dei modelli nella valutazione di hate speech e disinformazione. I modelli LLM addestrati con dati di sinistra si sono rivelati più attenti all'incitamento all'odio verso minoranze etniche, religiose e sessuali negli Stati Uniti.
Al contrario, i modelli addestrati con dati di destra hanno mostrato maggiore sensibilità verso l'incitamento all'odio diretto agli uomini cristiani bianchi. Questa polarizzazione si estende anche al rilevamento della disinformazione: i modelli orientati a sinistra sono risultati più precisi nell'identificare la disinformazione proveniente da fonti di destra, ma meno sensibili a quella di sinistra.
Il rischio dei chatbot nelle campagne elettorali
⬆ Torna suUn esperimento condotto prima delle elezioni presidenziali americane del 2024 ha dimostrato la capacità persuasiva dei chatbot politici. I ricercatori hanno reclutato oltre duemila elettori, assegnando casualmente a ciascuno il compito di conversare con un chatbot addestrato per sostenere Donald Trump o Kamala Harris.
I risultati hanno rivelato che tra i partecipanti pro-Harris, uno su 35 aveva cambiato idea dopo l'interazione con il chatbot pro-Trump. Tra i pro-Trump, uno su 21 aveva modificato la propria intenzione di voto dopo aver conversato con il chatbot pro-Harris. Quando i chatbot erano allineati alle idee politiche dell'interlocutore, l'interazione rafforzava invece le convinzioni preesistenti.
Estensione internazionale del fenomeno
⬆ Torna suLa ricerca è stata replicata in Canada e Polonia nel 2025, con risultati ancora più significativi. Prima delle elezioni canadesi, i chatbot sono stati addestrati per sostenere i leader Liberali o Conservatori, mentre in Polonia sono stati configurati per supportare candidati centristi o di estrema destra.
L'effetto persuasivo si è rivelato più forte che negli Stati Uniti, con circa un partecipante su dieci che aveva cambiato idea sul voto dopo l'interazione con il chatbot. Questo fenomeno solleva preoccupazioni riguardo all'uso di questi strumenti in contesti elettorali reali.
La relazione tra persuasività e accuratezza
⬆ Torna suUno studio pubblicato su Science ha analizzato la correlazione tra persuasività degli argomenti e attendibilità delle informazioni. La ricerca ha coinvolto circa 77mila partecipanti nel Regno Unito, conversando con chatbot su varie questioni politiche.
È emersa una correlazione negativa: più il chatbot risultava convincente, meno accurate erano le informazioni fornite. Gli autori ipotizzano che, quando inducono i modelli a produrre molte affermazioni fattuali, questi tendono a esaurire le informazioni accurate e iniziano a inventarne di nuove.
Differenze tra chatbot di destra e sinistra
⬆ Torna suDai dati sperimentali è emerso che i chatbot personalizzati per sostenere candidati di destra tendevano a fare affermazioni più imprecise o fuorvianti rispetto a quelli che sostenevano candidati di sinistra. Questo pattern si è ripetuto negli esperimenti statunitensi, canadesi e polacchi.
La capacità persuasiva dei chatbot derivava principalmente dalla loro inclinazione a usare argomentazioni basate su dati e informazioni. Quando i ricercatori limitavano questa caratteristica, la persuasività diminuiva drasticamente, fino al 78% nel caso della Polonia.
Le risposte delle aziende tecnologiche
⬆ Torna suOpenAI ha riconosciuto il problema dei pregiuditi politici, dichiarando di essere al lavoro per risolverlo. La società ha precisato che ai revisori umani è richiesto di non favorire alcun gruppo politico, definendo i pregiuditi come "bug, non funzionalità".
Meta, che secondo la ricerca appare più orientata a destra, ha illustrato il sistema di correzione del bias implementato in Llama 2, basato su operatori umani. L'azienda si è impegnata a continuare la collaborazione con la comunità per identificare e mitigare le vulnerabilità.
Implicazioni pratiche e rischi reali
⬆ Torna suLa questione dei pregiudizi politici nei modelli linguistici assume rilevanza pratica considerando l'implementazione dell'intelligenza artificiale in prodotti e servizi utilizzati da milioni di persone. Comprendere queste distorsioni è fondamentale per prevenire danni concreti.
I rischi includono la diffusione di discriminazioni legate a sesso, etnia o religione, come già accaduto a Microsoft, e la propagazione di inesattezze scientifiche, documentate nel caso di Meta. Il problema si estende anche alla richiesta di informazioni su tematiche controverse come l'aborto o la contraccezione.
Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.
Fonti
⬆ Torna su- https://www.repubblica.it/tecnologia/2023/08/14/news/destra_sinistra_intelligenza_artificiale_chatgpt_meta_pregiudizi-410791747/
- https://www.pensierocritico.eu/comunicazione-politica-e-intelligenza-artificiale.html
- https://www.ilpost.it/2025/12/09/chatbot-elezioni-politica/
In breve
- chatgpt
- bert
- llm
- training