Una delle attività che richiede più tempo nel lavoro di tutti i giorni è la ricerca online. Che tu debba analizzare i competitor, cercare informazioni su un nuovo framework o compilare una rassegna stampa, il processo è sempre lo stesso: cercare su Google, aprire decine di tab, leggere, estrarre e sintetizzare.
Con OpenClaw, puoi delegare completamente questo flusso di lavoro a un agente AI autonomo. In questo articolo ti mostro come sfruttare i tool integrati web_search e web_fetch per creare un vero e proprio "assistente ricercatore".
I Tool Nativi: web_search e web_fetch
A differenza di altri framework che richiedono complessi setup con Puppeteer o API esterne costose, OpenClaw integra nativamente due strumenti progettati per lavorare in sinergia:
- web_search: Utilizza l'API di Brave Search per effettuare query mirate, fornendo risultati strutturati con titoli, URL e brevi snippet. Puoi filtrare per data (
freshness), lingua e regione. - web_fetch: Prende l'URL trovato nella fase di ricerca e ne estrae il contenuto leggibile. Converte automaticamente il codice HTML della pagina in formato Markdown o testo puro, eliminando pubblicità, menu e rumore di fondo.
Combinando questi due tool, l'agente può navigare il web in modo intelligente e leggero, senza il peso di un browser reale (salvo casi in cui serva superare login o interfacce complesse, per cui esiste il tool browser).
Vuoi automatizzare la raccolta dati nel tuo business?
Contattami per una consulenza su come implementare agenti di ricerca autonomi per la tua azienda.
Il Workflow del Ricercatore Autonomo
Per mettere al lavoro il tuo agente ricercatore, basta fornirgli un prompt strutturato. Quando chiedo al mio agente di fare una ricerca, lui segue implicitamente questo workflow:
- Ricerca iniziale: Esegue
web_searchcon la mia query, magari impostandofreshness="week"se voglio solo notizie recenti. - Selezione delle fonti: Analizza gli snippet dei risultati (solitamente prende i primi 3 o 5 URL rilevanti).
- Estrazione dei contenuti: Lancia una serie di chiamate
web_fetchparallele o sequenziali sugli URL selezionati. - Sintesi: Analizza il testo estratto e genera un report formattato, incrociando i dati e citando le fonti.
Un Esempio Pratico
Ecco un comando tipico che potresti dare al tuo agente in chat:
"Cerca le ultime notizie sulla release di Llama 4 di Meta dell'ultima settimana. Leggi almeno tre articoli rilevanti e creamene un riassunto a punti, indicando le fonti originali."
Dietro le quinte, l'agente eseguirà prima:
{
"query": "Meta Llama 4 release news",
"freshness": "week"
}E subito dopo, per ogni link interessante trovato:
{
"url": "https://techcrunch.com/...",
"extractMode": "markdown"
}Il risultato è un report perfetto, creato in una manciata di secondi, con informazioni precise e contestualizzate.
Limiti e Best Practices
Dopo aver costruito diversi workflow di ricerca con OpenClaw, ho imparato alcune regole fondamentali per non far deragliare l'agente:
- Occhio alla lunghezza: I contenuti estratti da
web_fetchpossono essere enormi. Assicurati che l'agente usi il parametromaxCharsse sta leggendo molte pagine insieme, altrimenti intaserà la sua stessa finestra di contesto. - Non tutto è estraibile: Siti con pesanti protezioni anti-bot (come Cloudflare) o applicazioni a pagina singola (SPA) molto complesse potrebbero restituire risultati vuoti con il fetch rapido. In quei rari casi, dì all'agente di ricorrere all'automazione browser completa.
- Citazione delle fonti: Obbliga sempre l'agente a inserire i link originali nel report finale. Le allucinazioni sono rare quando l'agente ha il testo della pagina sottomano, ma poter verificare la fonte originaria è cruciale.
Conclusione
Creare un agente ricercatore con OpenClaw non richiede scrivere decine di righe di codice Python o gestire dipendenze complesse. I tool web_search e web_fetch rendono il reperimento delle informazioni un'azione nativa e fluida.
Come utilizzeresti un assistente del genere nel tuo lavoro quotidiano?
