Logo

Come Eseguire Qwen 3.5 0.8B in Locale con OpenClaw e Ollama su CPU

Guida pratica per integrare Qwen 3.5 0.8B con OpenClaw e Ollama. Un modello da 800 milioni di parametri che gira su CPU, senza GPU, con Telegram.
CN

Matteo Giardino

Mar 27, 2026

ai
openclaw
ollama
llm
ai tools
qwen
local ai
Come Eseguire Qwen 3.5 0.8B in Locale con OpenClaw e Ollama su CPU

Ho installato e configurato Qwen 3.5 0.8B con OpenClaw e Ollama su Ubuntu, tutto su CPU. Nessuna GPU coinvolta. Il modello pesa circa 1 GB e risponde via Telegram in pochi secondi.

Se stai cercando un modello piccolo, veloce e completamente locale, questa guida ti mostra come integrare Qwen 3.5 0.8B con OpenClaw. Il setup funziona su qualsiasi macchina recente con CPU decente, ideale per test, sviluppo o deployment su VPS economici.

Qwen 3.5 0.8B con OpenClaw e Ollama - architettura locale
Qwen 3.5 0.8B con OpenClaw e Ollama - architettura locale

Perché Qwen 3.5 0.8B

800 milioni di parametri. Non è un gigante come GPT-4 o Claude, ma per molti use case va più che bene:

  • Risposte rapide su domande semplici
  • Assistente Telegram per comandi base
  • Prototipazione e test di agenti AI
  • Deploy su macchine senza GPU (VPS, Raspberry Pi 5, vecchi laptop)

Il modello è della famiglia Qwen di Alibaba, rilasciato a inizio 2026. Supporta contesto fino a 32k token (circa 24.000 parole), ragionamento multilingue decente (italiano incluso), e inferenza veloce su CPU grazie alla dimensione ridotta.

Caso d'uso reale: l'ho installato sul mio Mac Mini M4 per gestire un bot Telegram di testing che risponde a domande base sulla documentazione di OpenClaw. Non serve per ragionamento complesso, ma per query semplici è veloce e costa zero.

Vuoi integrare AI nel tuo business?

Contattami per una consulenza su come implementare strumenti AI nella tua azienda.

Prerequisiti

Prima di iniziare, assicurati di avere:

  • Ollama installato e aggiornato - controlla la versione con ollama --version
  • Ubuntu o macOS - la guida è testata su Ubuntu 24.04, ma funziona su qualsiasi distro recente e su Mac
  • Almeno 2 GB di RAM libera - il modello occupa circa 1 GB, OpenClaw e Ollama ne aggiungono altri 500 MB
  • Node.js 18+ - richiesto da OpenClaw

Se non hai Ollama, installalo da ollama.com. Su Ubuntu:

curl -fsSL https://ollama.com/install.sh | sh

Verifica l'installazione:

ollama --version
Verifica versione Ollama da terminale
Verifica versione Ollama da terminale

Scaricare e Testare Qwen 3.5 0.8B

Usa Ollama per scaricare il modello. Il tag esatto è qwen3.5:0.8b:

ollama pull qwen3.5:0.8b

Ollama scarica il modello, verifica il checksum, e lo rende disponibile per inferenza locale. Ci vogliono 1-2 minuti su una connessione decente.

Download del modello Qwen 3.5 0.8B con Ollama
Download del modello Qwen 3.5 0.8B con Ollama

Testa subito il modello in modalità interattiva:

ollama run qwen3.5:0.8b

Scrivi una domanda base per verificare che funzioni:

>>> Chi ha scritto "I promessi sposi"?

Se ricevi una risposta sensata (Alessandro Manzoni), il modello è attivo. Esci con /bye o Ctrl+D.

Verifica che il modello sia nella lista locale:

ollama list

Dovresti vedere qwen3.5:0.8b nell'output. Annota il nome esatto - lo userai nella configurazione di OpenClaw.

Lista modelli Ollama installati localmente
Lista modelli Ollama installati localmente

Scopri i miei progetti

Dai un occhio ai progetti su cui sto lavorando e alle tecnologie che utilizzo.

Installare o Aggiornare OpenClaw

Se hai già OpenClaw installato, aggiornalo alla versione più recente:

npm install -g openclaw@latest

Se è la prima installazione, vai su github.com/openclaw/openclaw e segui le istruzioni ufficiali. L'installer prepara l'ambiente, installa le dipendenze e configura il gateway.

Installazione di OpenClaw da repository ufficiale
Installazione di OpenClaw da repository ufficiale

L'installazione può richiedere qualche minuto per scaricare aggiornamenti e plugin. Una volta completata, verifica lo stato:

openclaw status

Se vedi "Gateway: running", sei pronto. Se il gateway non è attivo, avvialo manualmente:

openclaw gateway start

Configurare OpenClaw per Ollama

Apri il file di configurazione di OpenClaw:

nano ~/.config/openclaw/config.yaml

Aggiungi o modifica la sezione providers per puntare a Ollama locale e specifica il modello:

gateway:
  host: 127.0.0.1
  port: 3000

providers:
  ollama:
    type: ollama
    base_url: http://localhost:11434
    model: qwen3.5:0.8b

agents:
  default:
    provider: ollama
    system_prompt: Sei un assistente utile.

channels:
  telegram:
    bot_token: IL_TUO_TOKEN_TELEGRAM

Punti chiave:

  • base_url: http://localhost:11434 - endpoint locale di Ollama (porta di default)
  • model: qwen3.5:0.8b - deve corrispondere ESATTAMENTE al nome in ollama list
  • provider: ollama - dice a OpenClaw di usare il provider Ollama locale

Salva il file (Ctrl+O, Enter, Ctrl+X su nano).

File di configurazione OpenClaw con provider Ollama
File di configurazione OpenClaw con provider Ollama

Riavvia il gateway per applicare le modifiche:

openclaw gateway restart
Riavvio del gateway OpenClaw dopo configurazione
Riavvio del gateway OpenClaw dopo configurazione

Vuoi automatizzare il tuo workflow con AI?

Parliamo di come costruire agenti AI personalizzati per la tua azienda.

Configurare Telegram

Apri Telegram e cerca @BotFather. Avvia una chat e crea un nuovo bot:

/newbot

Segui le istruzioni:

  1. Scegli un nome per il bot (es. "Qwen Assistant")
  2. Scegli uno username univoco che termina con bot (es. qwen_assistant_bot)

BotFather ti darà un token API. Copialo - è lungo, inizia con numeri e contiene il carattere :.

Importante: ruota il token dopo i test se lo esponi in repository pubblici o screenshot.

Creazione bot Telegram con BotFather
Creazione bot Telegram con BotFather

Ora aggiungi il token al file di configurazione di OpenClaw (lo abbiamo già preparato sopra nella sezione channels.telegram.bot_token). Se preferisci usare il wizard interattivo:

openclaw configure

Seleziona:

  • Gateway type: local
  • Channel: telegram
  • Incolla il token quando richiesto

Salva e riavvia il gateway:

openclaw gateway restart

Testare il Modello Locale

Avvia l'interfaccia terminale di OpenClaw:

openclaw tui

Oppure usa la dashboard web se preferisci:

openclaw dashboard

La dashboard si apre su http://localhost:3000. Se vedi "Unauthorized", genera un token di accesso con openclaw token create e usalo per autenticarti.

Per accoppiare Telegram, vai su Telegram e cerca il bot che hai creato (lo trovi cercando lo username che hai scelto, es. @qwen_assistant_bot). Clicca /start.

Se tutto è configurato correttamente, il bot risponderà immediatamente usando il modello Qwen 3.5 0.8B locale via Ollama.

Test pratico: invia un messaggio semplice come:

Ciao! Come funzioni?

Dovresti ricevere una risposta in pochi secondi. La risposta arriva sia nell'interfaccia terminale/dashboard di OpenClaw che direttamente su Telegram.

Test del bot Telegram con modello Qwen 3.5 locale
Test del bot Telegram con modello Qwen 3.5 locale

Verifica latenza: su un Mac Mini M4 con CPU M4, la latenza media è di 2-3 secondi per risposta (dipende dalla complessità della query). Su un VPS con CPU Intel Xeon, conta 5-8 secondi.

Hai domande su OpenClaw?

Scrivimi per consulenze tecniche su setup, deployment e ottimizzazione di agenti AI.

Limitazioni e Quando NON Usare Qwen 3.5 0.8B

Questo modello NON è adatto per:

  • Ragionamento complesso (matematica, logica avanzata)
  • Code generation avanzata (meglio Qwen Coder 7B o Claude Sonnet)
  • Summarization di documenti lunghi (il contesto è limitato a 32k token)
  • Output creativi o narrativi elaborati

Usalo per:

  • Chatbot semplici (FAQ, supporto base)
  • Assistenti Telegram per comandi rapidi
  • Prototipazione di agenti AI (testa workflow prima di passare a modelli grandi)
  • Deploy su hardware limitato (VPS economici, Raspberry Pi)

Se hai bisogno di ragionamento più avanzato, considera Qwen 2.5 7B (sempre su Ollama) o passa a modelli cloud come Claude 3.5 Sonnet via OpenRouter.

Alternative e Modelli Simili

Altri modelli piccoli da provare con Ollama + OpenClaw:

  • Phi-4 3.8B (Microsoft) - ottimo per code generation su CPU
  • Gemma 2 2B (Google) - bilanciato tra dimensione e qualità
  • Llama 3.2 3B (Meta) - buon compromesso per uso generale

Per confrontare modelli locali:

ollama list
ollama run <model-name>

Cambia il model nel config di OpenClaw e riavvia il gateway. Tutto il resto rimane identico.

Risorse e Approfondimenti

Risorse e documentazione per Qwen e OpenClaw
Risorse e documentazione per Qwen e OpenClaw

Conclusioni

Ho installato Qwen 3.5 0.8B su CPU con OpenClaw e Ollama. Il setup è veloce (15 minuti totali), il modello risponde in pochi secondi, e l'integrazione con Telegram funziona senza configurazioni esotiche.

Quando usarlo: prototipi rapidi, bot semplici, test di agenti AI, deployment su hardware limitato.

Quando evitarlo: ragionamento complesso, code generation avanzata, output creativi elaborati.

Se vuoi un modello locale, piccolo e funzionante senza GPU, Qwen 3.5 0.8B è un ottimo punto di partenza. Parti da qui, testa il tuo workflow, e poi scala a modelli più grandi se serve.

CN
Matteo Giardino
Devv 30 logo

Devv 30
novità 🎉

diventa un programmatore in soli 30 giorni, accetti la sfida?