LinkedIn rinnova l'algoritmo del feed con modelli LLM e infrastruttura GPU
LinkedIn ha integrato Large Language Models e GPU per un nuovo sistema di ranking del feed che privilegia la comprensione semantica e penalizza i contenuti a b…
Contenuto

Scopri anche
- Nvidia presenta il Groq 3 LPU: chip dedicato all'inferenza AI con tecnologia SRAM
- Microsoft Office 2021: offerte su licenze perpetue e confronto con l'abbonamento Microsoft 365
- NVIDIA prevede ricavi da 1 trilione di dollari entro il 2027
- NYC valuta salario minimo a 30 dollari: l'accelerazione dell'automazione e dell'intelligenza artificiale
- GreenBoost: il driver open source che estende la VRAM delle GPU NVIDIA con RAM di sistema e NVMe
- Windows 11: aggiornamenti di febbraio e gennaio 2026 causano problemi critici su dispositivi Samsung e app di sistema
- La Cyber Kill Chain e le nuove frontiere della sicurezza cloud: strategie di difesa nell'era delle minacce accelerate
- Alibaba lancia Qwen3.5: la nuova generazione di modelli open-weight sfida i giganti americani
- Cybersecurity: allerta globale per vulnerabilità Microsoft SharePoint e attacco ransomware VMware ESXi
- NVIDIA GTC 2026: Keynote di Jensen Huang e sviluppi sull'infrastruttura AI
- ChatGPT Health, Claude for Healthcare e Copilot Health: il confronto tra le AI per il settore sanitario
- Qwen 3.5: Alibaba lancia modelli open-source che competono con GPT e Gemini
- ChatGPT e l'evoluzione dei modelli di linguaggio: funzionamento, limiti e competitizione
- Nvidia domina il mercato GPU per data center mentre AMD guadagna terreno con accordi strategici e nuove sfide geopolitiche
- Il rilancio del centro di Redding: Whistle Stop Park, Public Market e nuove inaugurazioni
- Agenti AI e società simulate: il 2026 come anno di svolta tra memoria, autonomia e nuove interazioni sociali
- Nvidia verso i 20 trilioni di dollari: la strategia di espansione nel mercato dell'intelligenza artificiale
- I Fondamenti del Game Design: Principi, Sfide e L'evoluzione dei Videogiochi
- Microsoft Edge 146: patch di sicurezza per vulnerabilità zero-day e nuove funzionalità
- L'ascesa delle CPU nei data center AI: il nuovo ruolo dell'infrastruttura di calcolo
LinkedIn rinnova l'algoritmo del feed con modelli LLM e infrastruttura GPU
- Da keyword a comprensione semantica
- Unified retrieval e ranking sequenziale
- Percentili semantici per l'interpretazione dei numeri
- Penalizzazione dei contenuti a basso valore
- Implicazioni per creator e professionisti
- La questione dell'uso dei dati per addestrare l'AI
- Implicazioni e scenari
- Cosa monitorare
- Fonti
LinkedIn ha avviato una profonda trasformazione della propria architettura algoritmica, integrando modelli linguistici di grandi dimensioni (LLM) e infrastruttura GPU per analizzare i contenuti e proporre aggiornamenti più rilevanti ai suoi 1,3 miliardi di membri. La piattaforma, proprietà di Microsoft, ha ricostruito gran parte del sistema di raccomandazione del feed utilizzando transformer e LLM, sostituendo approcci basati sulla corrispondenza tra parole chiave con un modello che comprende il significato contestuale dei post.
Da keyword a comprensione semantica
⬆ Torna suIl cambiamento riguarda il modo in cui il sistema interpreta i contenuti. In passato l'algoritmo si basava sulla corrispondenza tra parole chiave. Il nuovo feed tenta invece di comprendere il significato reale di un contenuto, collegandolo agli interessi professionali degli utenti. Un post che tratta di infrastrutture energetiche avanzate può essere associato automaticamente a settori come energy transition, power grid o ingegneria energetica anche se queste parole non compaiono esplicitamente nel testo.
La mappatura semantica consentita dagli LLM permette ora di riconoscere correlazioni intrinseche tra domini professionali complessi. L'algoritmo è in grado di associare contenuti sull'ottimizzazione delle reti elettriche a utenti interessati all'ingegneria elettrica, attingendo a una base di conoscenza pre-addestrata che riflette le dinamiche del mercato del lavoro.
Unified retrieval e ranking sequenziale
⬆ Torna suL'overhaul tecnico si articola su due sistemi: il retrieval dei post rilevanti e il loro ranking nel feed. LinkedIn ha sostituito diversi sistemi di discovery separati con un unico modello di retrieval basato su LLM. Dopo il recupero dei contenuti, i post vengono classificati tramite un modello sequenziale basato su transformer.
Il ranking non considera più i post come eventi isolati. Il sistema analizza la sequenza delle attività degli utenti nel tempo, includendo like, commenti, tempo di permanenza e altri segnali. Se una persona interagisce con contenuti su machine learning, sistemi distribuiti e infrastrutture cloud, il feed può interpretare queste azioni come parte di una traiettoria professionale coerente.
L'infrastruttura GPU su cui opera il sistema è progettata per elaborare milioni di post mantenendo i feed aggiornati con latenza ridotta rispetto ai modelli precedenti, che spesso mostravano aggiornamenti obsoleti a causa della dipendenza dai segnali di interazione storici.
Percentili semantici per l'interpretazione dei numeri
⬆ Torna suDurante lo sviluppo del nuovo sistema, gli ingegneri di LinkedIn hanno riscontrato un limite nella capacità dei modelli linguistici di interpretare i numeri grezzi. Quando un modello legge un valore come "12.345 visualizzazioni", tende a interpretarlo come sequenza di cifre separate anziché come grandezza numerica.
Per risolvere il problema, LinkedIn ha introdotto un sistema di percentili semantici. Invece di fornire il numero grezzo, il sistema converte i dati di popolarità in categorie relative che permettono al modello di comprendere meglio la posizione di un contenuto rispetto alla media. Questa modifica ha migliorato la correlazione tra popolarità dei contenuti e rilevanza semantica nel sistema di raccomandazione.
Penalizzazione dei contenuti a basso valore
⬆ Torna suParallelamente alle innovazioni tecniche, LinkedIn ha confermato l'introduzione di meccanismi per ridurre la visibilità dei contenuti a basso valore aggiunto. Il sistema penalizzerà le tattiche di sollecitazione forzata dell'engagement, come i post che richiedono commenti specifici (es. "Scrivi 'Sì' se sei d'accordo") o che utilizzano video non pertinenti al testo per manipolare i tempi di permanenza.
L'analisi algoritmica colpirà anche la cosiddetta "thought leadership riciclata", ovvero post che ripetono concetti senza apportare analisi originali o dati inediti. L'obiettivo dichiarato è trasformare il feed da una competizione di popolarità a un ecosistema di scambio informativo con densità professionale. I contenuti che spiegano concetti, rispondono a problemi concreti e offrono insight professionali chiari avranno maggiore peso, mentre le semplici ricondivisioni avranno un ruolo minore nella costruzione dell'autorevolezza.
Implicazioni per creator e professionisti
⬆ Torna suPer chi crea contenuti su LinkedIn, il cambiamento implica una revisione delle strategie di pubblicazione. La riconoscibilità della competenza diventa centrale: post vaghi sulla leadership, riflessioni generiche o storytelling senza takeaway chiari possono generare engagement, ma risultano difficili da classificare per il sistema.
Il contenuto che funziona meglio nel nuovo ecosistema è quello che risulta chiaramente associabile a un dominio di competenza. La distribuzione non dipende solo dal post singolo ma dalla coerenza complessiva tra contenuti, profilo professionale e pubblico. Sebbene la portata organica possa apparire più volatile nella fase iniziale, la qualità dell'engagement dovrebbe aumentare grazie a un matching più preciso tra chi pubblica e chi visualizza.
La questione dell'uso dei dati per addestrare l'AI
⬆ Torna suLa trasformazione di LinkedIn si inserisce in un contesto più ampio di utilizzo dei dati degli utenti per lo sviluppo di sistemi di intelligenza artificiale generativa. Microsoft, proprietaria di LinkedIn, ha stabilito di utilizzare i dati degli utenti del social network per addestrare il proprio Large Language Model.
Per opporsi a questo utilizzo è necessario modificare le impostazioni dell'account entro termini specifici. La base giuridica su cui le piattaforme fanno leva è quella del cosiddetto legittimo interesse, che consente di non richiedere il consenso esplicito degli utenti, ferma la possibilità di opporsi.
Le piattaforme sostengono di avere il diritto di usare i dati raccolti in anni di attività per migliorare i servizi. Nel caso di LinkedIn, l'opposizione avviene attraverso una sezione delle impostazioni da cui è possibile escludere l'analisi dei contenuti per l'addestramento dell'AI. Una volta superato il termine indicato, il cambio di impostazioni si applica solo ai nuovi contenuti, non a quelli già pubblicati.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suLa transizione verso la comprensione semantica ridefinisce il rapporto tra autori e algoritmo: la competenza riconoscibile conta più dell'engagement immediato.
- Scenario 1: i contenuti tecnici e specialistici potrebbero ottenere distribuzione proporzionalmente maggiore, mentre i post generici perderanno visibilità progressiva.
- Scenario 2: la penalizzazione dell'engagement bait potrebbe incentivare una migrazione verso formati più sostanziali, con ricadute potenziali sul tempo medio di permanenza.
- Scenario 3: l'utilizzo dei dati utente per l'addestramento Microsoft potrebbe generare tensioni con la base utenti, specie nei mercati con normativa più stringente sulla privacy.
Cosa monitorare
⬆ Torna su- L'effettiva riduzione dei contenuti a basso valore aggiunto nei feed.
- Le percentuali di opposizione all'uso dei dati tramite le impostazioni privacy.
- Le variazioni di portata organica per i creator che producono contenuti tecnici.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://searchengineland.com/linkedin-updates-feed-algorithm-llm-ranking-retrieval-471708
- https://www.heymancontent.com/post/linkedin-2026-creator
- https://www.absolutezero.it/aggiornamento-algoritmo-feed-linkedin/
- https://www.globaldatinginsights.com/featured/linkedin-enhances-feed-algorithm-for-more-relevancy/
- https://tagembed.com/it/blog/embed-linkedin-feeds-on-website/
- https://www.ratio.it/linkedin-i-nostri-dati-usati-per-addestrare-lai/
- https://www.wired.it/article/come-opporre-uso-dati-ai-linkedin-opt-out/
In breve
- llm
- microsoft
- gpu
- data