Wikipedia vieta i contenuti generati da LLM: nuove regole per proteggere l'affidabilità enciclopedica

La versione inglese di Wikipedia approva con 40 voti favorevoli e 2 contrari il divieto di utilizzare Large Language Models per scrivere o riscrivere articoli.…

Contenuto

Wikipedia vieta i contenuti generati da LLM: nuove regole per proteggere l'affidabilità enciclopedica

Scopri anche

Wikipedia vieta i contenuti generati da LLM: nuove regole per proteggere l'affidabilità enciclopedica

Wikipedia vieta i contenuti generati da LLM: nuove regole per proteggere l'affidabilità enciclopedica

In questo articolo:

La versione in lingua inglese di Wikipedia ha introdotto un divieto esplicito sull'uso dell'intelligenza artificiale generativa per la creazione o la riscrittura delle voci enciclopediche. La decisione, approvata con 40 voti favorevoli e soli 2 contrari tra gli editor volontari, segna un cambio di rotta per una delle piattaforme collaborative più influenti al mondo e arriva in risposta ai crescenti dubbi sull'affidabilità dei contenuti prodotti dai modelli linguistici.

Secondo la nuova policy, l'uso di sistemi basati su Large Language Models viola diverse politiche fondamentali dell'enciclopedia, tra cui verificabilità, neutralità e accuratezza delle fonti. La documentazione ufficiale cita esplicitamente strumenti come ChatGPT e Google Gemini tra quelli la cui produzione è ora bandita dalla piattaforma, che nella sua versione inglese conta oltre 7,1 milioni di articoli.

Il problema delle allucinazioni e delle fonti inventate

⬆ Torna su

Il cuore della questione riguarda il fenomeno delle "allucinazioni", ovvero la tendenza dei modelli di intelligenza artificiale a produrre informazioni apparentemente plausibili ma del tutto inventate. Secondo quanto emerge dalle analisi condotte dalla comunità editoriale di Wikipedia, gli articoli generati tramite AI contenevano con frequenza allarmante citazioni e riferimenti bibliografici inesistenti, dati statistici non verificabili e affermazioni non supportate da fonti affidabili.

Un'analisi condotta dai ricercatori di Princeton ha rilevato che circa il 5% dei nuovi articoli esaminati in un campione mensile mostrava segni di creazione tramite AI, alcuni dei quali scritti per promuovere aziende o interessi specifici. I modelli linguistici generano sequenze di parole statisticamente plausibili senza alcun ancoraggio a credenze, esperienze o conseguenze, un aspetto che in un progetto fondato sulla responsabilità editoriale condivisa risulta problematico.

Le eccezioni consentite: traduzioni e piccole modifiche

⬆ Torna su

Nonostante il divieto, Wikipedia non chiude completamente le porte all'intelligenza artificiale. Gli editor possono continuare a usare strumenti AI in due ambiti specifici: le traduzioni di articoli da altre edizioni linguistiche verso l'inglese e le piccole correzioni stilistiche o grammatiche. In entrambi i casi, è previsto un controllo umano rigoroso.

Per le traduzioni, l'editor deve conoscere perfettamente entrambe le lingue e verificare che il contenuto sia fedele all'originale e supportato da fonti attendibili. Per le correzioni, l'uso è consentito solo sui propri contenuti e con revisione umana obbligatoria. La piattaforma avverte esplicitamente che gli LLM possono andare oltre quanto richiesto e alterare il significato del testo in modo non supportato dalle fonti citate.

Emily M. Bender, professoressa di linguistica all'Università di Washington, ha affermato che è ragionevole usare un correttore ortografico sulle modifiche e anche un correttore grammaticale. La sfida, secondo la docente, si presenta quando i sistemi vanno oltre la semplice correzione grammaticale e iniziano a modificare o generare contenuti, poiché non sono in grado di utilizzare lo stesso tipo di responsabilità umana che occorre nei progetti di conoscenza collaborativa.

Un vuoto normativo ora colmato

⬆ Torna su

La vecchia formulazione delle linee guida stabiliva che gli LLM "non dovrebbero essere usati per generare nuovi articoli di Wikipedia da zero". Questa definizione lasciava un vuoto normativo significativo: la riscrittura di articoli esistenti o l'inserimento di paragrafi generati dall'AI in voci già consolidate non erano tecnicamente vietati. La nuova policy chiude definitivamente la questione.

Ogni modifica che incorpori testi creati con un LLM deve essere dichiarata, indicando il nome e, se possibile, la versione del modello utilizzato. Negare l'uso degli LLM quando si viene interrogati nel merito può portare a sanzioni, fino al blocco o al ban dell'account per comportamento definito "pattern of disruptive editing".

Le differenze tra le versioni linguistiche

⬆ Torna su

Wikipedia non è un sistema centralizzato: ogni versione linguistica opera con regole proprie. Questo significa che le politiche sull'AI possono variare sensibilmente tra le diverse comunità. Secondo quanto riportato, la Wikipedia in inglese consente un uso molto limitato dell'AI, mentre la Wikipedia in spagnolo ha adottato una linea ancora più rigida, vietando completamente l'uso dei modelli di linguaggio per scrivere, tradurre o modificare articoli.

Questa frammentazione apre la porta a scenari diversi, con alcune comunità più permissive e altre decisamente restrittive. La Wikimedia Foundation, l'organizzazione no-profit che sostiene l'infrastruttura di Wikipedia senza intervenire direttamente nei contenuti editoriali, riconosce che alcune forme limitate di utilizzo dell'intelligenza artificiale possono essere ammesse, a patto che rispettino i principi fondamentali del progetto: neutralità, verificabilità e trasparenza.

La difficoltà del rilevamento

⬆ Torna su

Resta una sfida aperta: identificare con certezza i testi generati da AI. Non esistono strumenti infallibili, e ciò significa che contenuti "sintetici" potrebbero comunque sfuggire ai controlli, soprattutto nelle pagine meno monitorate. Wikipedia stessa riconosce il rischio di falsi positivi o contenuti non individuati, soprattutto nelle edizioni meno attive o aggiornate con minore frequenza.

Recentemente, un bot autonomo chiamato TomWikiAssist ha generato e modificato decine di articoli, costringendo la comunità a intervenire per cancellare contenuti inaccurati o fuorvianti. Senza un sistema tecnico per rilevare automaticamente i testi generati da AI, l'applicazione della regola dipenderà dalla vigilanza dei moderatori.

Il contesto più ampio: calo delle visite e accordi commerciali

⬆ Torna su

La decisione di Wikipedia arriva in un momento di forte pressione per l'enciclopedia. Secondo dati della Wikimedia Foundation, le visite al sito da parte di utenti umani sono calate di circa l'8% anno su anno. Come lamentano gli editori per la ricerca su Google, il traffico non arriva più sui siti perché le risposte vengono prodotte direttamente dai motori di ricerca AI e dai chatbot di intelligenza artificiale.

Per questo motivo, la Wikimedia Foundation ha siglato accordi con alcune grandi aziende tecnologiche, tra cui Microsoft, Google, Amazon e Meta, per consentire l'utilizzo dei contenuti di Wikipedia attraverso il suo servizio commerciale Enterprise. Jimmy Wales, fondatore di Wikipedia, ha definito in passato l'AI un "pasticcio", mentre lo scorso anno ha dichiarato alla BBC che potrebbe essere d'aiuto per alcuni aspetti, ma non per la stesura degli articoli, almeno per il momento.

Una posizione culturale contro l'invasione dell'AI

⬆ Torna su

La decisione non è solo tecnica, ma anche culturale. Un amministratore della piattaforma, noto come Chaotic Enby, ha descritto il provvedimento come una forma di resistenza alla crescente invasione dell'AI nel web. Secondo questa visione, il divieto potrebbe rappresentare l'inizio di un movimento più ampio: comunità online che scelgono autonomamente se e come integrare l'intelligenza artificiale, anziché subirne l'adozione imposta dalle aziende tecnologiche.

La mossa di Wikipedia potrebbe influenzare altre piattaforme editoriali, spingendole a definire regole più chiare sull'uso dell'AI. La notizia è stata accolta con favore dalla comunità social, con commenti che vedono nell'intelligenza artificiale solo un nemico da tenere lontano dall'enciclopedia. Wikipedia ha scelto di rispondere alla domanda sull'affidabilità nell'era dell'intelligenza artificiale generativa affidandosi ancora agli esseri umani, con la loro capacità di verificare, dubitare e correggere.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La decisione di Wikipedia potrebbe innescare un effetto domino tra le piattaforme collaborative, spingendo altre comunità a definire confini più netti tra contributo umano e automatizzato. La frammentazione delle politiche tra le diverse edizioni linguistiche crea però un quadro disomogeneo, con rischi di migrazione dei contenuti verso versioni più permissive.

  • Scenario 1: altre piattaforme editoriali seguono l'esempio, definendo regole esplicite contro i contenuti generati automaticamente, rafforzando un modello di "certificazione umana" delle informazioni.
  • Scenario 2: le difficoltà tecniche nel rilevamento mantengono un flusso costante di contenuti indesiderati, specialmente nelle pagine meno monitorate, costringendo le comunità a investire in strumenti di verifica più avanzati.
  • Scenario 3: il calo delle visite accelera la revisione del modello di sostenibilità, con possibili tensioni tra indipendenza editoriale e accordi commerciali con le grandi aziende tecnologiche.

Cosa monitorare

⬆ Torna su
  • L'evoluzione delle policy nelle altre versioni linguistiche di Wikipedia, in particolare nelle edizioni europee principali.
  • Lo sviluppo di strumenti di rilevamento più affidabili e la loro eventuale integrazione nei processi di moderazione.
  • Le reazioni degli editori volontari e l'impatto sulla partecipazione comunitaria.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • ai
  • llm
  • chatgpt
  • gemini

Link utili

Apri l'articolo su DeafNews