OpenClaw: l'assistente AI open source tra potenzialità e rischi di sicurezza

Analisi di OpenClaw, agente AI open source che opera in locale con accesso al sistema, memoria persistente e skill estendibili. Documentazione su funzionalità,…

Contenuto

OpenClaw: l'assistente AI open source tra potenzialità e rischi di sicurezza

Scopri anche

OpenClaw: l'assistente AI open source tra potenzialità e rischi di sicurezza

OpenClaw: l'assistente AI open source tra potenzialità e rischi di sicurezza

In questo articolo:

OpenClaw è un agente di intelligenza artificiale open source che opera in locale sulla macchina dell'utente, come un computer, un server domestico o una VPS. Il progetto, creato dallo sviluppatore austriaco Peter Steinberger - noto per aver fondato PSPDFKit - non integra un modello proprietario ma è progettato per funzionare con LLM esterni come Claude, ChatGPT, Gemini o modelli locali, demandando l'elaborazione linguistica al provider scelto. La caratteristica distintiva di OpenClaw è la capacità di agire concretamente sul sistema, andando oltre il semplice suggerimento conversazionale.

Evoluzione del progetto: da Clawdbot a OpenClaw

⬆ Torna su

Il progetto ha avuto un'evoluzione nominale significativa in un breve arco di tempo. Nato a novembre 2025 come "Clawd" (poi Clawdbot), il nome era un gioco di parole su "Claude" con "claw" (artiglio). A gennaio 2026, dopo una richiesta del team legale di Anthropic riguardo alla similarità con il trademark del proprio modello Claude, il progetto è stato ribattezzato "Moltbot", nome derivante da "molting" (muta), il processo con cui le aragoste cambiano il guscio per crescere. Il 30 gennaio 2026 il progetto ha assunto il nome definitivo "OpenClaw", che sottolinea la natura open-source e l'indipendenza da qualsiasi modello AI specifico. Durante questa transizione, il progetto ha superato le 100.000 stelle su GitHub e attirato 2 milioni di visitatori in una sola settimana.

Funzionalità operative e memoria persistente

⬆ Torna su

Una volta configurato, l'agente OpenClaw può eseguire azioni concrete come leggere e inviare e-mail, gestire calendari, navigare sul web, interagire con servizi online, organizzare file, eseguire comandi da terminale e avviare automazioni persistenti. L'agente si integra con le app di messaggistica che l'utente utilizza quotidianamente, come WhatsApp, Telegram, Discord, Slack, Signal e iMessage, operando in modo proattivo e inviando messaggi autonomamente. Un elemento chiave è la memoria a lungo termine: OpenClaw conserva contesto e istruzioni in file locali, mantenendo continuità tra le sessioni, il che gli consente di seguire progetti nel tempo e proporre azioni coerenti con le abitudini dell'utente.

Sistema di skill estendibili

⬆ Torna su

OpenClaw può essere esteso tramite le cosiddette skill, pacchetti che aggiungono nuove capacità o integrazioni. Queste skill, caricate direttamente sul sistema che ospita l'agente, possono includere script, chiamate di rete, istruzioni operative e altre funzioni avanzate. La documentazione indica che OpenClaw può persino creare autonomamente nuove skill quando gli viene richiesto di svolgere compiti per cui non possiede già le capacità. Le skill possono essere condivise sulla piattaforma ClawHub, dove la community carica le proprie creazioni. I ricercatori di sicurezza hanno identificato 341 skill malevole tra le circa 3.000 disponibili nella directory.

Profilo di sicurezza e vulnerabilità identificate

⬆ Torna su

Dal punto di vista della sicurezza, OpenClaw presenta una combinazione particolarmente delicata. L'agente può avere accesso a dati sensibili, è esposto a input esterni non affidabili e può comunicare verso l'esterno mantenendo una memoria persistente. Società di cybersecurity come Palo Alto Networks, Cisco e Censys hanno evidenziato come questo modello amplifichi il rischio di attacchi basati su prompt injection e skill malevole. Un ricercatore di sicurezza ha identificato quella che chiama la "tripletta letale" del design degli agenti AI: accesso agli strumenti, memoria persistente e esposizione a input non affidabili - caratteristiche che OpenClaw possiede. È stata identificata una vulnerabilità concreta classificata come CVE-2026-25253, che consentiva l'esecuzione di codice remoto tramite un semplice link malevolo. I ricercatori hanno individuato 21.639 istanze di OpenClaw esposte pubblicamente su internet, principalmente negli Stati Uniti, Cina e Singapore, che perdevano chiavi API, cronologie di chat e credenziali di account.

Considerazioni sui costi operativi

⬆ Torna su

OpenClaw stesso è gratuito e open-source, ma per funzionare ha bisogno di un modello AI sottostante (Claude, GPT-4, ecc.) e ogni chiamata API costa denaro. A differenza di un abbonamento fisso a ChatGPT Plus o Claude Pro, con OpenClaw si paga per ogni singola interazione. Alcuni utenti hanno riportato costi di 50-100 dollari al mese per un utilizzo intenso. La documentazione suggerisce che per un uso economicamente sostenibile si possono utilizzare modelli locali gratuiti (con prestazioni inferiori) o configurare proxy verso abbonamenti esistenti.

Raccomandazioni per l'implementazione sicura

⬆ Torna su

La documentazione e gli esperti di sicurezza consigliano diverse strategie per mitigare i rischi. L'isolamento dell'ambiente è fondamentale: molti utenti esperti fanno girare OpenClaw su una macchina dedicata (un Mac Mini, un Raspberry Pi, un VPS) separata dai dispositivi con dati sensibili. È possibile configurare permessi granulari, limitando l'accesso al filesystem solo allo stretto necessario. Il sistema supporta una modalità sandbox dove l'AI opera in un ambiente isolato con accesso limitato. Viene raccomandato il monitoraggio costante dei log per identificare comportamenti anomali e l'uso di autenticazione a due fattori per tutti i servizi integrati. Lo stesso Steinberger avverte nella documentazione che "eseguire un agente AI così vicino al sistema operativo comporta implicazioni serie. Una singola istruzione ambigua o un task mal definito può avere conseguenze durature".

Questo articolo è stato redatto esclusivamente sulla base delle fonti elencate, senza aggiunte speculative o informazioni esterne.

Fonti

⬆ Torna su

In breve

  • sicurezza
  • agenteai
  • opensource
  • rischi

Link utili

Apri l'articolo su DeafNews