Pregiudizi politici nei modelli linguistici: come il training influenza ChatGPT e gli altri LLM

Analisi dei pregiudizi politici presenti nei modelli di intelligenza artificiale come ChatGPT e BERT, con focus sul ruolo dei dati di training e sugli esperime…

Contenuto

Pregiudizi politici nei modelli linguistici: come il training influenza ChatGPT e gli altri LLM

Scopri anche

Pregiudizi politici nei modelli linguistici: come il training influenza ChatGPT e gli altri LLM

Pregiudici politici nei modelli linguistici: come il training influenza ChatGPT e gli altri LLM

In questo articolo:

La bussola politica dell'intelligenza artificiale

⬆ Torna su

I ricercatori hanno interpellato i modelli linguistici su vari argomenti, come il femminismo e la democrazia, annotando le risposte alle 62 domande del test su un grafico conosciuto come bussola politica. Lo studio, premiato come miglior articolo alla conferenza dell'Association for Computational Linguistics, ha evidenziato differenze politiche marcate tra i principali modelli.

Dall'analisi emerge che i modelli BERT, sviluppati da Google, tendono a posizionarsi su posizioni più conservatrici rispetto ai modelli GPT di OpenAI. Questa divergenza potrebbe essere attribuita alle diverse metodologie di training: mentre BERT utilizza libri per il suo addestramento, GPT si basa su testi disponibili sul web.

Differenze architetturali tra BERT e GPT

⬆ Torna su

La distinzione fondamentale risiede nelle architetture dei modelli. I modelli GPT prevedono la parola successiva in una frase, mentre BERT opera diversamente, prevedendo frammenti di una frase utilizzando le informazioni adiacenti in una parte di testo. Questo approccio tecnico contribuisce a definire le caratteristiche operative dei due sistemi.

La ricerca ipotizza che la posizione conservativa di BERT derivi dai suoi dati di training basati su libri, mentre GPT beneficia della varietà e attualità dei contenuti web. Entrambi i modelli mostrano però una caratteristica comune: mutano opinione nel tempo, man mano che cambiano i loro set di dati e i metodi di formazione.

L'esperimento di condizionamento politico

⬆ Torna su

Un secondo esperimento ha comportato l'ulteriore addestramento di due modelli linguistici, GPT-2 di OpenAI e RoBERTa di Meta, su news e contenuti di social media provenienti da fonti di destra e di sinistra. L'obiettivo era verificare come i dati di formazione potessero influenzare i pregiudizi politici dei modelli.

I risultati hanno dimostrato che, analogamente agli esseri umani, i pregiudizi si rafforzano quando i modelli vengono esposti a contenuti politicamente orientati. I modelli già orientati a sinistra hanno aumentato la loro tendenza, e lo stesso fenomeno si è verificato per quelli orientati a destra.

Rilevamento di hate speech e disinformazione

⬆ Torna su

Il terzo esperimento della ricerca ha esaminato il ruolo delle tendenze politiche dei modelli nella valutazione di hate speech e disinformazione. I modelli LLM addestrati con dati di sinistra si sono rivelati più attenti all'incitamento all'odio verso minoranze etniche, religiose e sessuali negli Stati Uniti.

Al contrario, i modelli addestrati con dati di destra hanno mostrato maggiore sensibilità verso l'incitamento all'odio diretto agli uomini cristiani bianchi. Questa polarizzazione si estende anche al rilevamento della disinformazione: i modelli orientati a sinistra sono risultati più precisi nell'identificare la disinformazione proveniente da fonti di destra, ma meno sensibili a quella di sinistra.

Il rischio dei chatbot nelle campagne elettorali

⬆ Torna su

Un esperimento condotto prima delle elezioni presidenziali americane del 2024 ha dimostrato la capacità persuasiva dei chatbot politici. I ricercatori hanno reclutato oltre duemila elettori, assegnando casualmente a ciascuno il compito di conversare con un chatbot addestrato per sostenere Donald Trump o Kamala Harris.

I risultati hanno rivelato che tra i partecipanti pro-Harris, uno su 35 aveva cambiato idea dopo l'interazione con il chatbot pro-Trump. Tra i pro-Trump, uno su 21 aveva modificato la propria intenzione di voto dopo aver conversato con il chatbot pro-Harris. Quando i chatbot erano allineati alle idee politiche dell'interlocutore, l'interazione rafforzava invece le convinzioni preesistenti.

Estensione internazionale del fenomeno

⬆ Torna su

La ricerca è stata replicata in Canada e Polonia nel 2025, con risultati ancora più significativi. Prima delle elezioni canadesi, i chatbot sono stati addestrati per sostenere i leader Liberali o Conservatori, mentre in Polonia sono stati configurati per supportare candidati centristi o di estrema destra.

L'effetto persuasivo si è rivelato più forte che negli Stati Uniti, con circa un partecipante su dieci che aveva cambiato idea sul voto dopo l'interazione con il chatbot. Questo fenomeno solleva preoccupazioni riguardo all'uso di questi strumenti in contesti elettorali reali.

La relazione tra persuasività e accuratezza

⬆ Torna su

Uno studio pubblicato su Science ha analizzato la correlazione tra persuasività degli argomenti e attendibilità delle informazioni. La ricerca ha coinvolto circa 77mila partecipanti nel Regno Unito, conversando con chatbot su varie questioni politiche.

È emersa una correlazione negativa: più il chatbot risultava convincente, meno accurate erano le informazioni fornite. Gli autori ipotizzano che, quando inducono i modelli a produrre molte affermazioni fattuali, questi tendono a esaurire le informazioni accurate e iniziano a inventarne di nuove.

Differenze tra chatbot di destra e sinistra

⬆ Torna su

Dai dati sperimentali è emerso che i chatbot personalizzati per sostenere candidati di destra tendevano a fare affermazioni più imprecise o fuorvianti rispetto a quelli che sostenevano candidati di sinistra. Questo pattern si è ripetuto negli esperimenti statunitensi, canadesi e polacchi.

La capacità persuasiva dei chatbot derivava principalmente dalla loro inclinazione a usare argomentazioni basate su dati e informazioni. Quando i ricercatori limitavano questa caratteristica, la persuasività diminuiva drasticamente, fino al 78% nel caso della Polonia.

Le risposte delle aziende tecnologiche

⬆ Torna su

OpenAI ha riconosciuto il problema dei pregiuditi politici, dichiarando di essere al lavoro per risolverlo. La società ha precisato che ai revisori umani è richiesto di non favorire alcun gruppo politico, definendo i pregiuditi come "bug, non funzionalità".

Meta, che secondo la ricerca appare più orientata a destra, ha illustrato il sistema di correzione del bias implementato in Llama 2, basato su operatori umani. L'azienda si è impegnata a continuare la collaborazione con la comunità per identificare e mitigare le vulnerabilità.

Implicazioni pratiche e rischi reali

⬆ Torna su

La questione dei pregiudizi politici nei modelli linguistici assume rilevanza pratica considerando l'implementazione dell'intelligenza artificiale in prodotti e servizi utilizzati da milioni di persone. Comprendere queste distorsioni è fondamentale per prevenire danni concreti.

I rischi includono la diffusione di discriminazioni legate a sesso, etnia o religione, come già accaduto a Microsoft, e la propagazione di inesattezze scientifiche, documentate nel caso di Meta. Il problema si estende anche alla richiesta di informazioni su tematiche controverse come l'aborto o la contraccezione.

Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.

Fonti

⬆ Torna su

In breve

  • chatgpt
  • bert
  • llm
  • training

Link utili

Apri l'articolo su DeafNews