IA Generativa e Distorsioni nella Comunicazione Politica: Analisi dei Rischi per la Democrazia

Analisi degli effetti distorsivi dell'IA generativa sul linguaggio politico, con focus su deepfake, polarizzazione e impatto sui processi democratici.

Contenuto

IA Generativa e Distorsioni nella Comunicazione Politica: Analisi dei Rischi per la Democrazia

Scopri anche

IA Generativa e Distorsioni nella Comunicazione Politica: Analisi dei Rischi per la Democrazia

IA Generativa e Distorsioni nella Comunicazione Politica: Analisi dei Rischi per la Democrazia

In questo articolo:

L'utilizzo di tecniche di intelligenza artificiale generative di testo, immagini, video presenta potenzialmente e concretamente molteplici vantaggi pratici ma anche rischi ad ogni livello giuridico. Gli LLM che simulano opinioni politiche tendono a enfatizzare i segnali più estremi: irrigidiscono le posizioni, accentuano polarizzazione e linguaggio tossico, moltiplicano emoji e hashtag identitari. Questo fenomeno trasforma il confronto online in una caricatura semplificata e meno rappresentativa delle persone reali.

La Minaccia dei Deepfake alla Formazione del Pensiero Politico

⬆ Torna su

Dopo un breve excursus sulle caratteristiche, le potenzialità e i rischi delle IA generative, in particolare del deepfake, è stata individuata la potenziale minaccia alla formazione del pensiero politico indipendente. Il gruppo di ricerca HUMADEX ha progettato, testato e validato una scala che misura la fiducia nei contenuti generati dall'IA, il Perceived Deepfake Trustworthiness Questionnaire (PDTQ). Gli studi di validazione sono stati condotti estesamente in tre lingue: inglese, sloveno e italiano, confermando la rilevanza transnazionale del problema.

Pregiudizi Politici nei Modelli Linguistici

⬆ Torna su

Un recente approfondimento afferma che i modelli linguistici generati dall'Intelligenza Artificiale sarebbero portatori di svariati pregiudizi politici. Dopo aver sollecitato 14 modelli linguistici a esprimere la propria opinione favorevole o contraria rispetto a 62 dichiarazioni politicamente sensibili, sono emersi profondi pregiudizi. Questi riescono a selezionare posizioni tradizionali di matrice spiccatamente conservatrice riferibili alla consultazione dei più risalenti modelli tecnologici, contrapposti alle tesi maggiormente liberali veicolate tramite i nuovi programmi conversazionali.

La tendenza sembra progressivamente radicalizzarsi all'intensificarsi dell'attività di addestramento dei relativi processi algoritmici. Nel merito dei pregiudizi politici generati, sono stati anche identificati contenuti classificati come fake news, più sensibili all'incitamento all'odio rivolto alle minoranze etniche, religiose e sessuali, o contro gli uomini cristiani bianchi.

Amplificazione della Disinformazione e Rischi Democratici

⬆ Torna su

L'intelligenza artificiale è un pericolo per la democrazia? Forse non di per sé, ma lo diventa se combinata con la mancanza di alfabetizzazione digitale dell'utente medio. I modelli di IA generativa possono essere utilizzati per creare disinformazione altamente convincente e media manipolati, che poi possono diffondersi rapidamente online. I social media da essa alimentati possono accelerare la diffusione della disinformazione perché i bot basati su IA e la messaggistica mirata possono essere utilizzati per influenzare ulteriormente l'opinione pubblica.

Il rischio è di assistere alla crescita esponenziale di fake news facilmente veicolate online con modalità trasmissive più rapide e meno costose grazie al perfezionamento algoritmico della Generative AI che consente di creare testi convincenti simili a quelli umani. Non solo si altera il circuito politico-elettorale da cui dipende la designazione dei rappresentanti istituzionali, ma si provoca l'ulteriore effetto collaterale di imporre un linguaggio universale dominante basato sulla standardizzazione terminologica di discriminazioni lessicali.

Il Progetto Solaris e le Strategie di Mitigazione

⬆ Torna su

Il progetto di ricerca europeo Solaris ha l'obiettivo di definire metodi e strategie per gestire i rischi, le minacce ma anche le opportunità che le intelligenze artificiali generative portano alla democrazia, all'impegno politico e alla cittadinanza digitale. Il caso d'uso 1 si concentrerà sul cambiamento climatico e l'immigrazione, valutando l'impatto dei contenuti generati dall'IA sugli atteggiamenti espliciti e impliciti verso questi temi. Il caso d'uso 2 si concentrerà su decisori politici e uffici stampa per sviluppare metodologie utili a prevenire che i contenuti generati dall'IA impattino negativamente sui sistemi sociali.

Il caso d'uso 3, infine, si concentrerà sul potenziale dell'IA generativa di migliorare la cittadinanza digitale e l'impegno democratico, con attenzione sulla co-creazione di contenuti generati dall'IA con i cittadini per sensibilizzare su questioni chiave come il cambiamento climatico e l'uguaglianza di genere.

Mancanza di Trasparenza e Standard Etici

⬆ Torna su

Esiste un problema di mancato accesso ai dati processati a causa dell'assenza di adeguati standard di trasparenza per garantire la conoscenza delle modalità tecniche di funzionamento dei modelli linguistici dell'IA. Lungi dal realizzare un sistema asettico di neutralità informativa, i meccanismi conversazionali codificati nelle applicazioni di IA sembrerebbero orientati a fornire, in risposta ai quesiti ricevuti, contenuti diversificati e divisivi corrispondenti agli orientamenti politici degli opposti schieramenti ideologici.

Anche l'ONU si è di recente espressa sulle criticità applicative dell'Intelligenza Artificiale Generativa, evidenziando la prioritaria necessità di assicurare lo sviluppo etico, responsabile e sostenibile dell'IA mediante l'adozione condivisa di standard equi, trasparenti e inclusivi. Questo per evitare la pervasiva codificazione di pregiudizi nella progettazione tecnica dei sistemi algoritmici in grado di amplificare la circolazione divisiva e polarizzata della disinformazione online.

Conclusioni e Scenario Futuro

⬆ Torna su

In un contesto attuale di caotico disordine politico, lo sviluppo evolutivo dell'Intelligenza Artificiale generativa potrebbe rappresentare la variabile imprevedibile in grado di amplificare le tensioni sociali esistenti costantemente alimentate dal relativismo informativo che caratterizza l'era della post verità. La crescente proliferazione di documenti conferma che lo sviluppo tecnologico dell'Intelligenza Artificiale sta procedendo fuori controllo ad un elevato ritmo di oscuro perfezionamento tecnico che sfugge a qualsivoglia efficace forma di sorveglianza umano-centrica.

Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.

Fonti

⬆ Torna su

In breve

  • disinformazione
  • deepfake
  • pregiudizipolitici
  • polarizzazione

Link utili

Apri l'articolo su DeafNews