LinkedIn rinnova l'algoritmo del feed con modelli LLM e infrastruttura GPU

LinkedIn ha integrato Large Language Models e GPU per un nuovo sistema di ranking del feed che privilegia la comprensione semantica e penalizza i contenuti a b…

Contenuto

LinkedIn rinnova l'algoritmo del feed con modelli LLM e infrastruttura GPU

Scopri anche

LinkedIn rinnova l'algoritmo del feed con modelli LLM e infrastruttura GPU

LinkedIn rinnova l'algoritmo del feed con modelli LLM e infrastruttura GPU

In questo articolo:

LinkedIn ha avviato una profonda trasformazione della propria architettura algoritmica, integrando modelli linguistici di grandi dimensioni (LLM) e infrastruttura GPU per analizzare i contenuti e proporre aggiornamenti più rilevanti ai suoi 1,3 miliardi di membri. La piattaforma, proprietà di Microsoft, ha ricostruito gran parte del sistema di raccomandazione del feed utilizzando transformer e LLM, sostituendo approcci basati sulla corrispondenza tra parole chiave con un modello che comprende il significato contestuale dei post.

Da keyword a comprensione semantica

⬆ Torna su

Il cambiamento riguarda il modo in cui il sistema interpreta i contenuti. In passato l'algoritmo si basava sulla corrispondenza tra parole chiave. Il nuovo feed tenta invece di comprendere il significato reale di un contenuto, collegandolo agli interessi professionali degli utenti. Un post che tratta di infrastrutture energetiche avanzate può essere associato automaticamente a settori come energy transition, power grid o ingegneria energetica anche se queste parole non compaiono esplicitamente nel testo.

La mappatura semantica consentita dagli LLM permette ora di riconoscere correlazioni intrinseche tra domini professionali complessi. L'algoritmo è in grado di associare contenuti sull'ottimizzazione delle reti elettriche a utenti interessati all'ingegneria elettrica, attingendo a una base di conoscenza pre-addestrata che riflette le dinamiche del mercato del lavoro.

Unified retrieval e ranking sequenziale

⬆ Torna su

L'overhaul tecnico si articola su due sistemi: il retrieval dei post rilevanti e il loro ranking nel feed. LinkedIn ha sostituito diversi sistemi di discovery separati con un unico modello di retrieval basato su LLM. Dopo il recupero dei contenuti, i post vengono classificati tramite un modello sequenziale basato su transformer.

Il ranking non considera più i post come eventi isolati. Il sistema analizza la sequenza delle attività degli utenti nel tempo, includendo like, commenti, tempo di permanenza e altri segnali. Se una persona interagisce con contenuti su machine learning, sistemi distribuiti e infrastrutture cloud, il feed può interpretare queste azioni come parte di una traiettoria professionale coerente.

L'infrastruttura GPU su cui opera il sistema è progettata per elaborare milioni di post mantenendo i feed aggiornati con latenza ridotta rispetto ai modelli precedenti, che spesso mostravano aggiornamenti obsoleti a causa della dipendenza dai segnali di interazione storici.

Percentili semantici per l'interpretazione dei numeri

⬆ Torna su

Durante lo sviluppo del nuovo sistema, gli ingegneri di LinkedIn hanno riscontrato un limite nella capacità dei modelli linguistici di interpretare i numeri grezzi. Quando un modello legge un valore come "12.345 visualizzazioni", tende a interpretarlo come sequenza di cifre separate anziché come grandezza numerica.

Per risolvere il problema, LinkedIn ha introdotto un sistema di percentili semantici. Invece di fornire il numero grezzo, il sistema converte i dati di popolarità in categorie relative che permettono al modello di comprendere meglio la posizione di un contenuto rispetto alla media. Questa modifica ha migliorato la correlazione tra popolarità dei contenuti e rilevanza semantica nel sistema di raccomandazione.

Penalizzazione dei contenuti a basso valore

⬆ Torna su

Parallelamente alle innovazioni tecniche, LinkedIn ha confermato l'introduzione di meccanismi per ridurre la visibilità dei contenuti a basso valore aggiunto. Il sistema penalizzerà le tattiche di sollecitazione forzata dell'engagement, come i post che richiedono commenti specifici (es. "Scrivi 'Sì' se sei d'accordo") o che utilizzano video non pertinenti al testo per manipolare i tempi di permanenza.

L'analisi algoritmica colpirà anche la cosiddetta "thought leadership riciclata", ovvero post che ripetono concetti senza apportare analisi originali o dati inediti. L'obiettivo dichiarato è trasformare il feed da una competizione di popolarità a un ecosistema di scambio informativo con densità professionale. I contenuti che spiegano concetti, rispondono a problemi concreti e offrono insight professionali chiari avranno maggiore peso, mentre le semplici ricondivisioni avranno un ruolo minore nella costruzione dell'autorevolezza.

Implicazioni per creator e professionisti

⬆ Torna su

Per chi crea contenuti su LinkedIn, il cambiamento implica una revisione delle strategie di pubblicazione. La riconoscibilità della competenza diventa centrale: post vaghi sulla leadership, riflessioni generiche o storytelling senza takeaway chiari possono generare engagement, ma risultano difficili da classificare per il sistema.

Il contenuto che funziona meglio nel nuovo ecosistema è quello che risulta chiaramente associabile a un dominio di competenza. La distribuzione non dipende solo dal post singolo ma dalla coerenza complessiva tra contenuti, profilo professionale e pubblico. Sebbene la portata organica possa apparire più volatile nella fase iniziale, la qualità dell'engagement dovrebbe aumentare grazie a un matching più preciso tra chi pubblica e chi visualizza.

La questione dell'uso dei dati per addestrare l'AI

⬆ Torna su

La trasformazione di LinkedIn si inserisce in un contesto più ampio di utilizzo dei dati degli utenti per lo sviluppo di sistemi di intelligenza artificiale generativa. Microsoft, proprietaria di LinkedIn, ha stabilito di utilizzare i dati degli utenti del social network per addestrare il proprio Large Language Model.

Per opporsi a questo utilizzo è necessario modificare le impostazioni dell'account entro termini specifici. La base giuridica su cui le piattaforme fanno leva è quella del cosiddetto legittimo interesse, che consente di non richiedere il consenso esplicito degli utenti, ferma la possibilità di opporsi.

Le piattaforme sostengono di avere il diritto di usare i dati raccolti in anni di attività per migliorare i servizi. Nel caso di LinkedIn, l'opposizione avviene attraverso una sezione delle impostazioni da cui è possibile escludere l'analisi dei contenuti per l'addestramento dell'AI. Una volta superato il termine indicato, il cambio di impostazioni si applica solo ai nuovi contenuti, non a quelli già pubblicati.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

La transizione verso la comprensione semantica ridefinisce il rapporto tra autori e algoritmo: la competenza riconoscibile conta più dell'engagement immediato.

  • Scenario 1: i contenuti tecnici e specialistici potrebbero ottenere distribuzione proporzionalmente maggiore, mentre i post generici perderanno visibilità progressiva.
  • Scenario 2: la penalizzazione dell'engagement bait potrebbe incentivare una migrazione verso formati più sostanziali, con ricadute potenziali sul tempo medio di permanenza.
  • Scenario 3: l'utilizzo dei dati utente per l'addestramento Microsoft potrebbe generare tensioni con la base utenti, specie nei mercati con normativa più stringente sulla privacy.

Cosa monitorare

⬆ Torna su
  • L'effettiva riduzione dei contenuti a basso valore aggiunto nei feed.
  • Le percentuali di opposizione all'uso dei dati tramite le impostazioni privacy.
  • Le variazioni di portata organica per i creator che producono contenuti tecnici.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • llm
  • microsoft
  • gpu
  • data

Link utili

Apri l'articolo su DeafNews