Apple integra l'intelligenza artificiale nell'App Store: tagging automatico e modelli on-device per trasformare la scoperta delle app

Apple introduce sistemi di tagging AI nell'App Store con iOS 26 e rende disponibili modelli LLM on-device da 3 miliardi di parametri per gli sviluppatori attra…

Contenuto

Apple integra l'intelligenza artificiale nell'App Store: tagging automatico e modelli on-device per trasformare la scoperta delle app

Scopri anche

Apple integra l'intelligenza artificiale nell'App Store: tagging automatico e modelli on-device per trasformare la scoperta delle app

Apple integra l'intelligenza artificiale nell'App Store: tagging automatico e modelli on-device per trasformare la scoperta delle app

In questo articolo:

Apple sta implementando un sistema di tagging automatico basato sull'intelligenza artificiale nell'App Store, annunciato durante la Worldwide Developer Conference (WWDC) 25 e disponibile nella beta per sviluppatori di iOS 26 rilasciata il 16 giugno. La tecnologia analizza metadati, screenshot e descrizioni delle applicazioni per generare automaticamente tag che ne migliorano la categorizzazione e la discoverability, riducendo la dipendenza dalle tradizionali parole chiave inserite manualmente dagli sviluppatori.

Lo studio di Apple sulla pertinenza nei risultati di ricerca

⬆ Torna su

Un gruppo di ricercatori di Apple ha condotto uno studio intitolato "Scaling Search Relevance: Augmenting App Store Ranking with LLM-Generated Judgments" per misurare l'impatto delle etichette di pertinenza generate dall'intelligenza artificiale sul posizionamento delle app nei risultati di ricerca dell'App Store e sui download. L'obiettivo era stabilire se e quanto gli LLM potessero contribuire a migliorare i risultati di ricerca generando etichette di pertinenza utilizzate per addestrare il sistema di classificazione.

I ricercatori hanno identificato una scarsità di etichette di pertinenza testuale rispetto all'abbondanza di etichette di pertinenza comportamentale e hanno sviluppato un modello specializzato e ottimizzato per generare milioni di etichette di pertinenza testuale. Secondo i test condotti, questa soluzione ha portato a un aumento statisticamente significativo dello 0,24% nel tasso di conversione, suggerendo che l'intelligenza artificiale potrebbe rappresentare la strada da seguire per migliorare l'esperienza dell'App Store.

Lo studio si concentra su due tipi di pertinenza: la pertinenza comportamentale, che riflette il modo in cui gli utenti interagiscono con i risultati, e la pertinenza testuale, che misura quanto bene i metadati di un'app corrispondono alla query di ricerca dell'utente.

Il sistema di tagging AI nell'App Store

⬆ Torna su

Il nuovo sistema di tagging utilizza algoritmi sofisticati per estrarre informazioni rilevanti dai contenuti forniti dagli sviluppatori, analizzando elementi che fino ad oggi rimanevano nascosti o poco sfruttati, come i contenuti visivi e testuali degli screenshot o le informazioni sepolte nelle descrizioni delle app. A differenza di quanto ipotizzato inizialmente da alcuni analisti, che suggerivano l'uso di tecniche OCR per estrarre testo dalle caption degli screenshot, Apple ha chiarito che il processo si basa su algoritmi di intelligenza artificiale che identificano automaticamente caratteristiche rilevanti delle app.

Un'app di fitness potrebbe ad esempio ricevere tag come "allenamento a casa" o "monitoraggio calorie" in base ai contenuti visivi e testuali analizzati. Un'app di meditazione potrebbe essere trovata più facilmente grazie a tag come "mindfulness" o "gestione dello stress", anche se tali termini non compaiono esplicitamente nella descrizione. Questo sistema riduce la dipendenza dalle tradizionali parole chiave, offrendo un'esperienza di ricerca più naturale.

Apple ha sottolineato che i tag generati dall'AI saranno soggetti a una revisione umana prima di essere pubblicati, garantendo accuratezza e pertinenza. Gli sviluppatori avranno inoltre la possibilità di controllare e approvare i tag assegnati alle loro applicazioni. Attualmente i tag non influenzano l'algoritmo di ricerca dell'App Store pubblico, ma il loro ruolo potrebbe diventare determinante con il rilascio globale di iOS 26.

Il Foundation Models framework e i modelli on-device

⬆ Torna su

Con il lancio di iOS 26, Apple ha reso disponibili i modelli di IA generativa per gli sviluppatori attraverso il Foundation Models framework. Il modello LLM on-device è calibrato a circa 3 miliardi di parametri, una dimensione scelta per trovare l'equilibrio ideale tra capacità e requisiti di memoria e potenza, rendendolo specializzato per i task di utilizzo quotidiano. Secondo i white paper Apple, il modello raggiunge una velocità di generazione di 30 token al secondo su iPhone 15 Pro, con una latenza al primo token di soli 0,6 millisecondi.

Le tecniche di ottimizzazione includono una quantizzazione a 2-bit (QAT - Quantization-Aware Training), una compressione che riduce i requisiti di memoria e massimizza il throughput del Neural Engine. Questa scelta di quantizzazione spinta può teoricamente ridurre la qualità del modello, ma Apple ha dato priorità assoluta alla rapidità. In benchmark basati su prompt reali, il modello on-device supera modelli open-source più grandi come Mistral-7B o Llama-3-8B nei task di sistema predefiniti.

Un aspetto significativo per gli sviluppatori è il supporto runtime per gli adattatori LoRA (Low-Rank Adaptation), che consente di specializzare il modello di base di Apple per ambiti specifici con un set di dati ridotto, senza dover riaddestrare l'intero modello. Un'applicazione di viaggi potrebbe usare il modello base aggiungendo informazioni provenienti dalle guide turistiche come dati di "extra training".

Le prime app che utilizzano l'IA locale

⬆ Torna su

Decine di applicazioni per iPhone e Mac sono state aggiornate con iOS 26 per utilizzare l'IA on-device. Finma, un'app per la gestione delle finanze personali, utilizza il modello on-device per compiti semplici e ripetitivi come l'estrazione di transazioni da SMS, il suggerimento di categorie, la mappatura CSV e i riassunti brevi. Quando l'utente chiede "Quanto ho speso in ristoranti questo mese?", il modello locale filtra le transazioni per categoria e periodo, passando al modello cloud di Google Gemini solo il risultato aggregato, senza inviare dati sensibili.

MoneyCoach utilizza i modelli IA sul dispositivo per trasformare l'app da un semplice registro a un consulente finanziario proattivo, fornendo messaggi personalizzati sulle spese dell'utente invece di mostrare solo dati grezzi. Daylish, un'agenda interattiva giornaliera, utilizza il modello di Apple per analizzare il titolo dell'evento e suggerire un'emoji pertinente. Tasks scompone un blocco di testo parlato complesso in singole attività senza richiedere una connessione internet. Day One utilizza il modello locale come editor e facilitatore di auto-riflessione per i diari personali.

Signeasy, che gestisce firme digitali di documenti, utilizza il modello locale di Apple per analizzare i contratti, estrarre le clausole chiave e fornire un riassunto conciso prima della firma. Lumy, app di tracciamento del sole, fornisce consigli contestuali come "Il tramonto sarà particolarmente spettacolare stasera, preparati la macchina fotografica". Croton, app di ricette, analizza testi di ricette non formattati da internet e li suddivide in passaggi numerati.

Secondo alcuni sviluppatori, i limiti attuali includono il supporto di soli 4096 token da parte dei modelli Apple on-device, un limite rigido per compiti più complessi. Il modello on-device non è ancora precisissimo e per questo motivo alcune app continuano a utilizzare LLM esterni per funzioni che richiedono maggiore accuratezza.

Apple Intelligence: le funzionalità disponibili

⬆ Torna su

Apple Intelligence offre funzionalità come gli Strumenti di scrittura, che consentono di riscrivere, rivedere e riassumere testi praticamente ovunque, incluse le app Mail, Messaggi, Note, Pages e quelle di terze parti. Con Riscrivi, l'utente può scegliere tra varie versioni del testo e perfezionarne il tono tra professionale, conciso o amichevole. La funzione Rivedi controlla la grammatica, la scelta lessicale e la struttura della frase, suggerendo modifiche con relative spiegazioni.

Nell'app Foto, la ricerca con linguaggio naturale permette di trovare praticamente qualsiasi cosa scrivendo una semplice descrizione come "Maya che balla con un vestito rosso". La funzione funziona anche nei video: basta descrivere una cosa successa in un momento specifico del video per andare direttamente a quel punto. Lo strumento Ripulisci rimuove elementi indesiderati dalle foto mantenendo l'autenticità dello scatto.

L'intelligenza visiva sfrutta Apple Intelligence per aiutare chi ha un iPhone a saperne di più sull'ambiente circostante. Può riassumere e copiare testo, tradurlo in un'altra lingua, rilevare numeri di telefono o indirizzi email permettendo di aggiungerli ai contatti. Si accede tenendo premuto il Controllo fotocamera su iPhone 16 e iPhone 16 Pro, oppure personalizzando il Centro di Controllo o il tasto Azione su iPhone 15 Pro e iPhone 16e.

Siri è diventata più naturale e versatile, con un nuovo look che prevede l'illuminazione del bordo del display quando è in uso su iPhone, iPad o CarPlay. L'utente può scrivere a Siri in qualsiasi momento su iPhone, iPad e Mac, e passare in modo fluido da scrittura a comandi vocali. ChatGPT è integrato in Siri e negli Strumenti di scrittura, permettendo di attingere alle sue informazioni senza dover passare da un'app all'altra.

Confronto con Google Play Store

⬆ Torna su

Anche Google ha introdotto funzionalità AI nel Play Store con Ask Play, che consente agli utenti di porre domande relative alle applicazioni cliccando sul pulsante "Ask Play about this app". L'utente può chiedere informazioni su eventuali costi da sostenere per scaricare o utilizzare l'applicazione, avviando una conversazione con l'AI anche con domande di follow-up. La fase di test è iniziata con un numero ristretto di utenti.

Apple ha invece sviluppato una funzionalità che produce un riepilogo di tutte le recensioni ricevute da un'applicazione nell'App Store, consentendo all'utente di ottenere un riassunto dei punti di forza e di debolezza senza leggere ogni recensione. I riassunti vengono aggiornati almeno una volta a settimana per fornire informazioni sempre attuali. La funzionalità verrà introdotta con iOS 18.4, inizialmente disponibile solo negli Stati Uniti e in inglese, con ampliamento del numero di lingue supportate entro la fine dell'anno.

Implicazioni per l'App Store Optimization

⬆ Torna su

L'introduzione dell'AI nell'App Store modifica significativamente l'approccio all'App Store Optimization (ASO). Tradizionalmente, l'ASO si concentra su elementi come parole chiave, titolo, descrizione, grafica, categoria, valutazioni e recensioni. Il 75% degli utenti cerca un'app specifica utilizzando il motore di ricerca interno dello Store, rendendo le parole chiave un pilastro fondamentale del posizionamento.

Con il nuovo sistema di tagging AI, gli sviluppatori non dovranno più affidarsi esclusivamente a nome, sottotitolo e lista di parole chiave per ottimizzare la visibilità delle loro app. I tag generati dall'AI potrebbero affinare i risultati di ricerca rendendo più semplice per gli utenti trovare app pertinenti alle loro esigenze. Questo sistema potrebbe ridurre la dipendenza dalle strategie di ottimizzazione aggressive, favorendo un ambiente dove le app possono emergere in base alla qualità e pertinenza.

Apple ha promesso di fornire strumenti e linee guida per aiutare i developer a navigare questa nuova realtà, garantendo che il processo rimanga trasparente e controllabile. La qualità dell'app rimane un fattore determinante, influenzando il numero di download, le valutazioni e i commenti, tre criteri presi in considerazione dagli algoritmi di entrambi gli store.

Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.

Implicazioni e scenari

⬆ Torna su

L'introduzione del tagging automatico e dell'elaborazione on-device potrebbe ridefinire il rapporto tra sviluppatori e discoverability nell'ecosistema Apple, con conseguenze che vanno oltre la semplice ottimizzazione della ricerca.

  • Scenario 1: Se i tag generati automaticamente dimostreranno efficacia nel migliorare la pertinenza, gli sviluppatori potrebbero ridurre l'investimento in keyword manuali, spostando le risorse verso contenuti visivi e descrittivi più ricchi.
  • Scenario 2: I limiti attuali dei 4096 token e della precisione potrebbero mantenere rilevante l'approccio ibrido tra elaborazione locale e cloud, come già adottato da alcune app del campione.
  • Scenario 3: La disponibilità di sistemi ottimizzati per task specifici tramite adattatori LoRA potrebbe favorire la nascita di categorie di applicazioni prima non praticabili su dispositivo mobile.

Cosa monitorare

⬆ Torna su
  • Il tasso di conversione nelle ricerche dell'App Store dopo il rilascio globale di iOS 26.
  • L'evoluzione dei limiti tecnici nei sistemi on-device nelle versioni successive del sistema operativo.
  • La differenza di performance tra app che adottano esclusivamente l'elaborazione locale e quelle con approccio misto.

Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.

Fonti

⬆ Torna su

In breve

  • ai
  • apple
  • llm
  • developer

Link utili

Apri l'articolo su DeafNews