LinkedIn 360Brew: come l'LLM da 150 miliardi di parametri sta trasformando l'algoritmo del feed

Il nuovo foundation model 360Brew sostituisce il ranking basato su keyword con la comprensione semantica. Calo delle impression per il 97% dei creator, ma aume…

Contenuto

LinkedIn 360Brew: come l'LLM da 150 miliardi di parametri sta trasformando l'algoritmo del feed

Scopri anche

LinkedIn 360Brew: come l'LLM da 150 miliardi di parametri sta trasformando l'algoritmo del feed

LinkedIn 360Brew: come l'LLM da 150 miliardi di parametri sta trasformando l'algoritmo del feed

In questo articolo:

LinkedIn ha completato una trasformazione della propria infrastruttura algoritmica, sostituendo i tradizionali sistemi di raccomandazione basati su engagement pregresso e parole chiave con un Large Language Model proprietario denominato 360Brew. Il modello, composto da 150 miliardi di parametri, è progettato per unificare tutte le attività di ranking e personalizzazione della piattaforma: feed, job, contenuti, persone e messaggi.

La transizione segna un distacco dai sistemi che calcolavano la rilevanza primarilymente attraverso interazioni storiche (like, commenti, condivisioni) verso un approccio semantico che interpreta il contesto professionale dei contenuti e degli utenti. Secondo i dati raccolti dopo il rollout, il 97% dei creator ha registrato un dimezzamento della portata organica, mentre l'engagement medio per post è cresciuto del 12%.

L'architettura tecnica di 360Brew

⬆ Torna su

Il foundation model 360Brew rappresenta un'evoluzione rispetto ai "mini algoritmi separati" che gestivano in modo indipendente post, articoli, commenti e raccomandazioni lavorative. L'Engineering Blog di LinkedIn ha documentato nei post "JUDE: LLM-based representation learning for LinkedIn job recommendations" (maggio 2025) e "The Edge of Innovation" (agosto 2025) la direzione verso rappresentazioni LLM e infrastrutture capaci di sostenere personalizzazione su larga scala.

Il sistema trasforma i dati utente in un prompt testuale che istruisce il modello: "Questo è l'utente, questi sono i contenuti: valuta la rilevanza tra i due". L'LLM elabora il prompt e produce una previsione di rilevanza semantica sotto forma di punteggio di affinità, utilizzato poi per ordinare i contenuti nel feed.

Poiché il modello originale risulta troppo complesso per operare in tempo reale, LinkedIn applica un processo di distillazione che riduce progressivamente le dimensioni a versioni più piccole (8B, 3B, 1B parametri) per bilanciare prestazioni e latenza. L'infrastruttura GPU sottostante permette di processare queste rappresentazioni vettoriali con tempi di risposta ridotti.

Da keyword matching a comprensione semantica

⬆ Torna su

L'algoritmo precedente si basava sulla corrispondenza tra parole chiave: un post veniva distribuito se conteneva determinate keyword presenti nel profilo o nelle interazioni dell'utente. Il nuovo sistema tenta invece di comprendere il significato reale del contenuto, collegandolo agli interessi professionali senza richiedere che le parole specifiche compaiano esplicitamente nel testo.

Un contenuto che tratta di infrastrutture energetiche avanzate può essere associato automaticamente a settori come energy transition, power grid o ingegneria energetica anche in assenza di questi termini. Il feed interpreta le azioni dell'utente come parte di una traiettoria professionale coerente nel tempo: se una persona interagisce con contenuti su machine learning, sistemi distribuiti e infrastrutture cloud, il sistema identifica un percorso di sviluppo professionale continuativo.

Questa mappatura semantica si basa su una base di conoscenza pre-addestrata che riflette le dinamiche del mercato del lavoro. L'analisi dei dati indica che l'integrazione degli LLM permette di riconoscere correlazioni intrinseche tra domini professionali complessi, superando i limiti dei sistemi basati sullo storico delle interazioni.

Il problema dell'interpretazione numerica e i percentili semantici

⬆ Torna su

Durante lo sviluppo del nuovo sistema, gli ingegneri di LinkedIn hanno riscontrato una difficoltà specifica: i modelli linguistici non interpretano correttamente i numeri grezzi. Quando un modello legge un valore come "12.345 visualizzazioni", tende a processarlo come sequenza di cifre separate piuttosto che come grandezza numerica significativa.

Per risolvere questo limite tecnico, LinkedIn ha introdotto un sistema di percentili semantici. Invece di fornire il numero grezzo, il sistema converte i dati di popolarità in categorie relative che permettono al modello di comprendere meglio la posizione di un contenuto rispetto alla media. Questa conversione ha migliorato la correlazione tra popolarità dei contenuti e rilevanza semantica nel sistema di raccomandazione.

La penalizzazione dell'engagement artificiale

⬆ Torna su

LinkedIn ha confermato che 360Brew penalizza attivamente le tattiche di sollecitazione forzata dell'engagement. I post che richiedono commenti specifici (es. "Scrivi 'Sì' se sei d'accordo"), utilizzano video non pertinenti al testo per manipolare i tempi di permanenza, o praticano l'hashtag stuffing vengono declassati dal sistema.

L'algoritmo colpisce anche la "thought leadership riciclata", ovvero contenuti che ripetono concetti senza apportare analisi originali o dati inediti. L'obiettivo dichiarato è trasformare il feed da una "gara di popolarità" a un ecosistema di scambio informativo ad alta densità professionale.

I gruppi POD, nati per aumentare artificialmente le interazioni tramite notifiche reciproche tra iscritti, perdono efficacia perché 360Brew valuta la coerenza tra interazioni, tematiche dei contenuti e profilo dell'utente. Quando manca questa coerenza, il valore assegnato all'interazione diminuisce significativamente.

Il profilo semantico e la coerenza tematica

⬆ Torna su

360Brew costruisce un "profilo semantico" per ogni utente, analizzando headline, about, competenze dichiarate, esperienze professionali e storico delle conversazioni. I contenuti coerenti con questa mappa ricevono maggiore distribuzione, mentre i post scollegati dal posizionamento editoriale perdono visibilità.

I dati raccolti indicano che i creator focalizzati su 1-3 macro-temi ottengono in media il 73% di reach in più rispetto a quelli che pubblicano su argomenti scollegati tra loro. Un professionista noto per contenuti su FinTech e marketing B2B che pubblica la ricetta della carbonara vedrà il post penalizzato perché l'algoritmo non riesce a identificarne il pubblico corretto.

Segnali in tempo reale e freschezza dei contenuti

⬆ Torna su

Il feed si aggiorna non solo in base all'orario di pubblicazione, ma considerando l'attività in tempo reale dell'utente. Se una persona legge un post di un collega, LinkedIn propone altri contenuti dello stesso profilo anche meno recenti. Lo stesso accade con i topic: leggere un contenuto su un argomento genera suggerimenti su temi correlati o complementari.

L'algoritmo considera la sequenza delle attività nel tempo piuttosto che i post come eventi isolati. Le interazioni recenti (commenti, salvataggi, messaggi) hanno peso maggiore rispetto allo storico, funzionando come segnali "freschi" che aiutano il modello a identificare i contenuti rilevanti per l'utente in quel momento.

La golden hour e le nuove metriche

⬆ Torna su

Il meccanismo della "golden hour" si rafforza nel nuovo sistema: i post che generano interazioni nella prima ora di pubblicazione ottengono maggiore diffusione presso i collegamenti di secondo e terzo grado. Tuttavia, la definizione di "interazione" cambia, privilegiando conversazioni autentiche e tempo di permanenza rispetto al volume grezzo di like e commenti.

LinkedIn ha introdotto metriche legate alla costruzione di connessioni professionali: visite al profilo e follower ottenuti dopo la pubblicazione di un post diventano indicatori di successo. Il sistema valuta anche il "suggerimento profilo" tra quelli interessanti per la rete di secondo grado, un segnale che indica rilevanza professionale riconosciuta dalla piattaforma.

Contenuti nativi e formato consigliato

⬆ Torna su

Secondo i dati raccolti da Buffer, i caroselli performano quasi due volte meglio rispetto alla media, seguiti da infografiche e "cheat sheet" (riepiloghi di una pagina con consigli e insight). I video nativi sono apprezzati in particolare dalle fasce d'età più giovani.

LinkedIn spinge sui contenuti che non costringono l'utente a uscire dalla piattaforma, ma Rishi Jobanputra (Senior Director Product Management) ha chiarito che l'inserimento di un link non limita automaticamente la reach. Il requisito è che il link rimanga un elemento accessorio e non il fulcro del contenuto: il post deve "stare in piedi" anche senza il collegamento esterno.

Gli hashtag, valorizzati dal 2018 per categorizzare i post, non sono più necessari. L'algoritmo è ora in grado di comprendere l'argomento del contenuto senza i cancelletti, che rimangono neutrali: non dannosi, ma inutili per la distribuzione.

L'uso dei dati per l'addestramento dell'LLM

⬆ Torna su

Microsoft, proprietaria di LinkedIn, ha attivato l'utilizzo dei dati degli utenti per addestrare il proprio Large Language Model. Il consenso è impostato come opzione predefinita, con termine per l'opposizione fissato al 3 novembre. L'opposizione è possibile attraverso le impostazioni dell'account, ma si applica solo ai contenuti pubblicati successivamente alla modifica delle preferenze.

Secondo Giovanna Fragalà, esperta in Data Protection e AI presso l'European Data Protection Board, le piattaforme social si basano sul "legittimo interesse" per giustificare l'uso dei dati raccolti in dieci o vent'anni di attività. Il miglioramento dei servizi che deriva dall'addestramento non riguarda direttamente gli utenti che hanno contribuito ai contenuti.

Un problema riguarda gli account di utenti deceduti: milioni di profili attivi sul social network appartengono a persone non più in vita, solo parzialmente convertiti in account commemorativi. Non è chiaro chi possa opporsi all'uso di quei dati.

Implicazioni per creator e professionisti

⬆ Torna su

Per chi crea contenuti su LinkedIn, il cambiamento richiede una revisione delle strategie di pubblicazione. L'autorevolezza del contenuto prevale sulla meccanica della condivisione: il sistema valuta quanto il post sia utile all'evoluzione professionale di chi lo visualizza, non chi lo pubblica o quante interazioni totali riceve.

I contenuti che funzionano meglio nel nuovo ecosistema spiegano concetti, rispondono a problemi concreti e offrono insight professionali chiari. LinkedIn spinge contenuti educativi e approfondimenti originali, mentre le semplici ricondivisioni hanno peso minore nella costruzione dell'autorevolezza. La domanda che i creator devono porsi, secondo le fonti analizzate, non è più "come ottenere più visibilità" ma "questo contenuto mi rende riconoscibile come fonte su questo tema?"

La coerenza tra headline, about, competenze e contenuti pubblicati diventa un fattore di distribuzione. Il profilo deve parlare la stessa lingua dei post, funzionando come mappa semantica per l'algoritmo. Chi coordina una strategia di lead generation deve allinearne i topic con la content strategy: pubblicare con costanza sui temi di interesse dei lead intercettati aumenta la visibilità proprio tra quel pubblico.

Il passaggio da retrieval e ranking separati a sistema integrato

⬆ Torna su

I sistemi di raccomandazione tradizionali operano in due fasi: retrieval (selezione di un sottoinsieme potenzialmente rilevante tra miliardi di contenuti) e ranking (ordinamento dei risultati). LinkedIn integra ora questi passaggi in un unico modello causale basato su Transformer, capace di filtrare e ordinare contestualmente.

L'approccio multi-task permette allo stesso modello di apprendere relazioni trasversali tra comportamenti diversi: chi interagisce frequentemente con contenuti di leadership ha alta probabilità di leggere articoli su career growth o HR culture. Questa capacità di zero-shot learning deriva dall'uso di rappresentazioni semantiche (embedding) che permettono al modello di comprendere relazioni tra concetti anche senza esempi precedenti diretti.

Dati tecnici sul modello

⬆ Torna su

360Brew nasce come modello "Blue XL" nella fase di training, con 150 miliardi di parametri, successivamente distillato per la produzione. Il nome è documentato nel video YouTube "360Brew: LLM-based Personalized Ranking and Recommendation" in cui gli ingegneri Ahmed e Mazar del team AI di LinkedIn presentano il foundation model come motore unificato per la personalizzazione.

LinkedIn non ha pubblicato un "manifesto ufficiale" che descriva integralmente l'architettura (Transformer + distillazione + contesto lungo), ma le conferme arrivano da pubblicazioni tecniche su arXiv e talk ingegneristici. La direzione è tracciata verso LLM, rappresentazioni unificate e segnali ricorrenti, senza una guida ufficiale marketing-friendly che dettagli ogni scelta tecnica.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

Il passaggio al ranking semantico ridefinisce le dinamiche di visibilità sulla piattaforma, spostando il baricentro dalla quantità delle interazioni alla qualità e coerenza dei contenuti pubblicati.

  • Scenario 1: i creator specializzati su 1-3 macro-temi potrebbero consolidare il proprio posizionamento, beneficiando del riconoscimento automatico delle correlazioni tra domini professionali.
  • Scenario 2: chi ha costruito la propria visibilità su tattiche di engagement sollecitato (POD, hashtag stuffing, thought leadership riciclata) rischia un declino strutturale della reach.
  • Scenario 3: la distinzione tra contenuti nativi e post con link esterni potrebbe attenuarsi, a condizione che il valore informativo rimanga autonomo rispetto alla risorsa collegata.

Cosa monitorare

⬆ Torna su
  • Evvoluzione del divario di reach tra profili tematicamente coerenti e profili generalisti.
  • Effettiva efficacia delle nuove metriche (visite profilo, follower acquisiti) come indicatori predittivi di distribuzione.
  • Impatto della golden hour ridefinita sui tempi e sulla qualità delle interazioni iniziali.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • news
  • contenuti
  • linkedin
  • come

Link utili

Apri l'articolo su DeafNews