Ollama: il framework open source per eseguire LLM in locale senza dipendenze cloud
Ollama consente di gestire Large Language Models su hardware locale con API RESTful, supportando modelli come Llama, Mistral, Gemma e DeepSeek. Installazione s…
Contenuto

Scopri anche
- Google Traduttore in modalità avanzata: il comportamento chatbot legato alla prompt injection
- Meta e Nvidia stringono partnership pluriennale per infrastruttura AI su larga scala
- Orchestral AI: il framework Python che punta alla semplicità nell'orchestrazione di agenti
- OpenClaw: l'assistente AI open source tra potenzialità e rischi di sicurezza
- iOS 26.4 Beta: La Trasformazione di Siri con Google Gemini in Arrivo
- L'inference AI: architetture, ottimizzazioni e sfide tecniche
- Patch Tuesday febbraio 2026: sei zero-day già sfruttate, Google corregge falla critica in Chrome
- Steam aggiorna le regole di disclosure AI: focus sul contenuto fruito dai giocatori
- Large Language Models: architettura, funzionamento e applicazioni nell'era dell'AI generativa
- Gemini 3 Deep Think e Agentic Vision: le nuove capacità di ragionamento di Google
- Xbox Developer Direct 2026: data ufficiale e tre giochi confermati
- IA Generativa e Distorsioni nella Comunicazione Politica: Analisi dei Rischi per la Democrazia
- Confronto prestazionale tra GPU AMD e NVIDIA nell'inferenza AI: benchmark e analisi tecnica
- Vulnerabilità Zero-Day: La Minaccia Invisibile nei Sistemi Informatici
- Intelligenza artificiale e memoria: la corsa ai dati che sta trasformando i mercati tecnologici
- ChatGPT: Funzionamento, Capacità e Sviluppo del Modello Linguistico di OpenAI
- NVIDIA Blackwell Ultra GB300 NVL72: prestazioni e efficienza per l'inferenza AI
- AI Agentica: Caratteristiche Tecniche e Applicazioni Aziendali
- No Sleep for Kaname Date sbarca su PlayStation e Xbox nel febbraio 2026
- Risoluzione degli errori di aggiornamento di Windows: guida tecnica completa
Ollama: il framework open source per eseguire LLM in locale senza dipendenze cloud
Ollama è un framework open source progettato per la gestione e l'esecuzione di Large Language Models direttamente sull'hardware locale. Lo strumento funziona come un server che fornisce un'API RESTful per interagire con i modelli, gestendo l'intero ciclo di vita: dal download all'esecuzione, fino alla personalizzazione tramite Modelfile. Supporta modelli come Llama 3, Mistral, Gemma, Phi-3, Code Llama e DeepSeek, scaricabili da una libreria curata o direttamente da Hugging Face.
Architettura e funzionamento tecnico
⬆ Torna suL'installazione base richiede macOS 12 Monterey o versione successiva (consigliato Sonoma o Sequoia), Linux o Windows. Su Linux, l'installazione avviene tramite il comando curl -fsSL https://ollama.com/install.sh | sh, mentre su macOS e Windows sono disponibili installer dedicati. Per impostazione predefinita, su Linux e Windows, Ollama utilizza automaticamente le GPU Nvidia o Radeon disponibili, delegando al processore solo in assenza di schede dedicate.
Il requisito minimo di memoria RAM è di 8 GB per modelli da 3 miliardi di parametri (3B), 16 GB per modelli 7B e 32 GB per modelli 13B. Apple Silicon (M1-M4) è consigliato per l'efficienza superiore rispetto ai Mac Intel. Il framework opera localmente sulla porta 11434, esponendo endpoint HTTP per l'integrazione con applicazioni esterne.
I comandi principali includono ollama run per scaricare e avviare un modello, ollama pull per il solo download, ollama list per visualizzare i modelli disponibili, ollama show per i dettagli, ollama rm per rimuovere un modello e ollama serve per avviare il server. L'interazione da terminale avviene in una sessione chat, terminabile con Ctrl+D o digitando /bye.
Integrazione con Python e API REST
⬆ Torna suOllama espone un'API HTTP locale che consente l'integrazione con qualsiasi linguaggio in grado di effettuare richieste HTTP. Il team di Ollama distribuisce un pacchetto Python ufficiale installabile con pip install ollama. Un esempio di utilizzo con il modello Mistral prevede la definizione di messaggi con ruoli "system" e "user", seguita dalla chiamata al metodo ollama.chat() che restituisce la risposta generata.
L'endpoint http://localhost:11434/api/generate accetta richieste POST in formato JSON con i campi "model" e "prompt". L'endpoint /api/chat supporta conversazioni strutturate con cronologia dei messaggi. Il parametro "stream" controlla se la risposta viene restituita progressivamente o in un'unica soluzione. L'API è compatibile con lo standard OpenAI per le chat, consentendo di sostituire i modelli cloud con istanze locali senza modifiche sostanziali al codice esistente.
L'integrazione con framework come LangChain e LlamaIndex permette di costruire applicazioni complesse: sistemi Retrieval-Augmented Generation (RAG), agenti AI e pipeline di elaborazione dati. La libreria langchain_community.llms.Ollama fornisce un'astrazione per invocare i modelli locali all'interno di catene di elaborazione.
Modelli supportati e Hugging Face
⬆ Torna suLa collaborazione tra Ollama e Hugging Face rende eseguibili oltre 40.000 modelli in formato GGUF senza competenze di programmazione. Il comando ollama run hf.co/username/repository scarica e avvia un modello direttamente dalla piattaforma. Il formato GGUF rappresenta i pesi dei modelli in forma quantizzata, riducendo i requisiti di memoria e consentendo l'esecuzione su hardware consumer.
DeepSeek R1 rappresenta un caso rilevante: il modello da 14 miliardi di parametri richiede circa 8 GB di download e può girare su Mac con Apple Silicon. DeepSeek mostra esplicitamente il processo di ragionamento tramite tag <think>, rendendo osservabile l'elaborazione intermedia. La versione 7B funziona anche su MacBook Air M2 con 8 GB di RAM, sebbene con tempi di risposta più lunghi per query complesse.
I Modelfile consentono di personalizzare il comportamento dei modelli esistenti. Un file di configurazione può impostare parametri come temperatura, top_k e top_p, definire un prompt di sistema e aggiungere esempi di conversazione. Il comando ollama create genera un nuovo modello basato sul Modelfile, mentre ollama run ne avvia l'esecuzione. Questa funzionalità permette di specializzare un modello per compiti specifici senza fine-tuning completo.
Vantaggi dell'esecuzione locale
⬆ Torna suL'architettura locale garantisce che tutte le richieste e le risposte rimangano sul sistema dell'utente. Dati sensibili, documenti strategici e informazioni riservate non lasciano mai la macchina, eliminando i log e i meccanismi di analisi dei provider cloud. L'assenza di dipendenza dalla connessione internet consente l'utilizzo in viaggio, in reti isolate o in ambienti ad alta sicurezza.
Il modello di costo è diverso dal cloud: investimento iniziale nell'hardware e nessuna spesa ricorrente per token o tempo di elaborazione. I modelli sono sempre disponibili, senza interruzioni dovute a cambiamenti nei prezzi, restrizioni di accesso o dismissione di funzionalità da parte del provider. L'utente controlla versione, varianti e tempistiche degli aggiornamenti.
La latenza risulta inferiore rispetto ai servizi cloud: i modelli locali rispondono in tempo reale, senza i ritardi introdotti dal percorso di rete, dai limiti API o dal carico sui server. Questo aspetto è particolarmente rilevante per attività ripetitive, presentazioni dal vivo o analisi dati interattive. È possibile eseguire più modelli in parallelo, passare da uno all'altro e caricare modelli specializzati per progetto.
Ollama Cloud e deployment serverless
⬆ Torna suOllama Cloud estende il framework al contesto serverless, mantenendo la stessa API e gli stessi comandi dell'installazione locale. L'endpoint cambia, ma l'SDK rimane identico. Il modello di fatturazione è a consumo: si paga per i token o per il tempo di elaborazione effettivo, senza costi fissi per istanze inattive. Questo risolve il problema delle istanze EC2 g5.xlarge che addebitano costi anche quando il chatbot non riceve traffico.
La libreria dei modelli è gestita e aggiornata dal servizio: non è necessario scaricare manualmente i pesi delle nuove versioni, che possono raggiungere decine di GB. Il deployment diventa indipendente dalla configurazione di cluster GPU, Dockerfile complessi e gestione delle quote NVIDIA. Ollama Cloud è attualmente in fase beta con lista d'attesa.
Casi d'uso e integrazioni
⬆ Torna suL'API locale consente di collegare applicazioni esistenti: script bash, automazioni Zapier, workflow n8n, sistemi ERP. FileMaker può inviare prompt direttamente al modello tramite poche righe di script o plugin MBS, implementando analisi testuali, classificazioni, traduzioni e sintesi senza latenza cloud. Llama 3.2 Vision elabora immagini specificando il percorso locale o la codifica base64.
Interfacce grafiche come LM Studio forniscono un frontend con chat UI, downloader integrato e server API locale. Open WebUI, installabile via Docker, replica l'esperienza ChatGPT con cronologia delle conversazioni, caricamento file e interfaccia moderna. Zed, editor di codice, supporta direttamente i modelli Ollama per l'assistenza alla programmazione.
Limitazioni e considerazioni operative
⬆ Torna suL'esecuzione locale richiede hardware adeguato: modelli di grandi dimensioni necessitano di RAM sufficiente e storage per i file GGUF. I Mac Intel sono supportati ma meno efficienti degli Apple Silicon. Processi paralleli possono bloccare la porta 11434, richiedendo verifica e riavvio. Alcuni browser, come Safari, bloccano le chiamate HTTP da contesti HTTPS, rendendo necessario un reverse proxy locale con HTTPS.
Errori Metal possono verificarsi con modelli o funzionalità molto recenti, risolvibili con aggiornamento o cambio di variante. La risposta può rallentare con query complesse su hardware limitato. I comandi diagnostici come ollama ps mostrano lo stato dei modelli attivi, i processori utilizzati e la memoria occupata. Il riavvio del servizio risolve frequentemente i problemi di avvio.
Questo articolo è una sintesi basata esclusivamente sulle fonti elencate.
Implicazioni e scenari
⬆ Torna suL'accesso locale alle risorse di elaborazione linguistica potrebbe ridefinire i paradigmi di sviluppo software, con impatti rilevanti sulla gestione dei dati sensibili e sui costi operativi delle aziende.
- Scenario 1: L'adozione enterprise potrebbe accelerare grazie alla compatibilità API con lo standard OpenAI, permettendo migrazioni graduali dal cloud all'infrastruttura locale senza riscrivere il codice esistente.
- Scenario 2: Ollama Cloud, attualmente in beta, potrebbe consolidarsi come alternativa ibrida per chi necessita di scalabilità senza rinunciare alla familiarità del framework.
- Scenario 3: L'evoluzione dell'hardware consumer, in particolare Apple Silicon, potrebbe estendere l'accessibilità a soluzioni sempre più avanzate senza investimenti dedicati.
Cosa monitorare
⬆ Torna su- Il passaggio di Ollama Cloud da beta a disponibilità generale e il modello di pricing definitivo.
- L'espansione della libreria Hugging Face e i nuovi formati di quantizzazione per hardware consumer.
- L'integrazione con pipeline enterprise esistenti e l'evoluzione degli strumenti di diagnostica.
Nota editoriale: questa sezione propone una lettura analitica dei temi trattati, senza introdurre dati fattuali non presenti nelle fonti.
Fonti
⬆ Torna su- https://davidepirelli.it/ollama-cloud-finalmente-linference-senza-far-decollare-le-ventole-del-macbook/
- https://www.markus-schall.de/en/2025/08/local-ki-on-the-mac-like-this-installo-create-a-language-model-with-ollama/
- https://amerlin.keantex.com/ollama-rivoluzionare-lia-locale/
- https://www.diariodiunanalista.it/posts/llm-in-locale-usare-ollama-in-python/
- https://mautoblog.com/posts/installare-deepseek-in-locale-con-ollama-guida-2025/
- https://www.ilsoftware.it/focus/ollama-intelligenza-artificiale-in-locale-sui-propri-sistemi/
- https://www.agendadigitale.eu/cultura-digitale/ollama-libera-lai-ora-chiunque-puo-usare-i-modelli-sul-pc/
In breve
- llm
- ai
- python
- opensource