Dopo aver spiegato cos'è OpenClaw, è ora di sporcarsi le mani. In questo articolo ti mostro come installare e configurare OpenClaw con Ollama per avere un assistente AI che gira completamente sul tuo hardware, senza inviare dati a terzi.
Perché locale?
Prima di partire con la parte tecnica, una premessa: perché dovresti voler eseguire un modello AI in locale quando hai ChatGPT, Claude e compagnia bella a portata di click?
Privacy. I tuoi dati restano sul tuo computer. Nessuna API call esterna, nessun log salvato da chi-sa-chi, nessuna ToS che cambia ogni mese.
Costi. Dopo l'investimento iniziale in hardware (se non ce l'hai già), non paghi più nulla. Niente abbonamenti mensili, niente costi a token.
Controllo. Vuoi usare un modello specifico? Modificarlo? Fine-tunarlo? Con un setup locale puoi farlo.
Ovviamente i modelli locali non sono ancora al livello dei big commerciali per complessità e ragionamento avanzato, ma per automazioni quotidiane, assistenza personale e task specifici funzionano benissimo.
Cosa ti serve
Per questo tutorial assumo che tu abbia:
- Un computer con almeno 8GB di RAM (16GB meglio)
- Una GPU discreta se vuoi eseguire modelli grandi (non obbligatoria, ma aiuta)
- Linux, macOS o Windows
- Node.js installato (v18+)
- Un account Telegram (useremo Telegram come interfaccia)
Non serve essere sysadmin esperti, ma un minimo di confidenza con il terminale sì.
Vuoi integrare AI nel tuo business?
Ti aiuto a implementare soluzioni AI pratiche e su misura per la tua azienda.
Step 1: Installa Ollama
Ollama è un tool che semplifica l'esecuzione di modelli LLM in locale. Funziona come Docker per i modelli AI - scarichi un modello e lo esegui con un comando.
Su Linux:
curl -fsSL https://ollama.ai/install.sh | shSu macOS:
Scarica il .dmg dal sito ufficiale o usa Homebrew:
brew install ollamaSu Windows:
Scarica l'installer dal sito Ollama.
Verifica l'installazione:
ollama --versionOra scarica un modello. Per iniziare, ti consiglio GLM-4-9B (buon compromesso tra performance e dimensioni) oppure Llama 3.3 70B se hai una GPU potente:
ollama pull glm4:9bIl download può richiedere tempo a seconda della tua connessione. I modelli sono file da diversi GB.
Per verificare che funzioni:
ollama run glm4:9bDovresti vedere un prompt interattivo. Scrivi qualcosa, ottieni una risposta, esci con /bye.
Step 2: Installa OpenClaw
OpenClaw si installa globalmente via npm:
npm install -g openclawL'installazione richiede qualche minuto perché il tool è corposo.
Una volta completata, lancia il wizard di onboarding:
openclaw onboardTi verrà chiesto:
- Setup mode: scegli "Quick Start"
- Provider: salta i cloud provider, scegli "Local Providers" e poi "Ollama"
- Messaging app: scegli Telegram (o quello che preferisci)
- Bot token: qui ti serve un bot Telegram
Step 3: Crea un bot Telegram
Apri Telegram e cerca @BotFather. È il bot ufficiale per creare bot.
Avvia la conversazione e usa il comando:
/newbot
Segui le istruzioni:
- Nome del bot (es. "Il Mio Assistente AI")
- Username del bot (deve finire con
_bot, es.mio_assistente_bot)
BotFather ti darà un token tipo:
1234567890:ABCdefGHIjklMNOpqrSTUvwxYZ
Copialo. Questo è il token che incollerai quando OpenClaw te lo chiede durante l'onboarding.
Scopri i miei progetti
Dai un occhio ai progetti su cui sto lavorando e alle tecnologie che utilizzo.
Step 4: Configura OpenClaw
Dopo aver inserito il token, l'onboarding ti chiederà se vuoi installare skills e hooks. Per ora salta entrambi - li aggiungerai in seguito quando avrai capito come funziona il sistema.
Alla fine, l'onboarding installerà un servizio in background (su Linux tramite systemd) chiamato gateway. Questo è il cuore di OpenClaw: gestisce le conversazioni, le routing e le chiamate al modello.
Verifica che il servizio sia attivo:
openclaw gateway statusSe non è attivo, avvialo:
openclaw gateway startStep 5: Connetti Ollama
Per default, OpenClaw potrebbe essere configurato su un provider cloud. Devi modificare il file di configurazione per puntare a Ollama.
Apri il file di configurazione:
nano ~/.config/openclaw/config.yamlCerca la sezione providers e assicurati che ci sia qualcosa del genere:
providers:
ollama:
endpoint: http://localhost:11434
model: glm4:9bSalva e chiudi. Riavvia il gateway:
openclaw gateway restartControlla lo status di nuovo:
openclaw statusDovresti vedere che il modello attivo è ollama/glm4:9b (o quello che hai scelto) e che Telegram è collegato.
Step 6: Pairing con Telegram
Ora vai su Telegram, apri il bot che hai creato e scrivi:
hello
Il bot ti risponderà con un codice di pairing (una stringa tipo ABC123).
Torna al terminale e approva il pairing:
openclaw pairing approve telegram ABC123(Sostituisci ABC123 con il codice che hai ricevuto.)
Ora torna su Telegram e scrivi di nuovo qualcosa al bot. Dovrebbe rispondere usando il tuo modello locale!
Hai bisogno di una consulenza AI?
Parliamo di come implementare agenti AI nel tuo workflow o nella tua azienda.
Gotcha e consigli pratici
Ho configurato OpenClaw più volte e ci sono alcuni dettagli che ti faranno risparmiare tempo:
1. Il gateway crasha.
OpenClaw è un progetto giovane e il gateway può andare in crash. Se noti che il bot non risponde, riavvia il gateway:
openclaw gateway restartPer evitare di farlo manualmente ogni volta, puoi creare un cronjob che riavvia il gateway ogni 30 minuti (è un workaround, ma funziona):
crontab -eAggiungi:
*/30 * * * * /usr/local/bin/openclaw gateway restart
2. Il modello è lento.
Se il modello impiega troppo tempo a rispondere, prova un modello più piccolo (es. phi-3:mini) oppure investi in una GPU decente. La differenza tra CPU e GPU per l'inferenza è enorme.
3. Ollama non parte.
Se Ollama non si avvia, controlla che non ci siano conflitti di porta (di default usa la 11434):
lsof -i :114344. Sicurezza.
OpenClaw ha accesso al tuo sistema (può eseguire comandi, leggere file, inviare messaggi). Non dargli accesso a dati sensibili senza prima capire cosa può fare. Il sistema di pairing aiuta, ma non è una sandbox completa.
Prossimi passi
Ora che hai OpenClaw configurato e funzionante, puoi:
- Aggiungere skills: OpenClaw supporta moduli esterni per estendere le funzionalità (controllo calendario, email, automazioni)
- Collegare altri canali: oltre a Telegram, puoi usare Discord, Slack, Signal, WhatsApp
- Provare altri modelli: Ollama supporta decine di modelli - sperimenta con Qwen, Llama, Mistral, GPT-OSS
- Creare agenti personalizzati: OpenClaw permette di definire agent con ruoli e workspace separati
Conclusione
Hai appena configurato un assistente AI che gira completamente sul tuo hardware. Nessun abbonamento mensile, nessun dato inviato a terzi, controllo totale.
È perfetto? No. I modelli locali non battono ancora GPT-4 o Claude Opus per compiti complessi. Ma per automazioni quotidiane, assistenza personale e task specifici, funziona benissimo. E la privacy e il controllo che ottieni in cambio valgono lo sforzo iniziale.
Se ti è piaciuta questa guida o hai domande, scrivimi. Nel prossimo articolo vedremo come creare agenti specializzati e collegarli a strumenti esterni.
