Torna al Blog🇬🇧 Read in English

Knowledge Graph per l'AI Coding: Come Funzionano e Perche il Nostro e Diverso

Cos'e un knowledge graph, perche la sola ricerca vettoriale non basta, e i meccanismi specifici che rendono il nostro KG hook-driven e cross-project diverso da Mem0, Letta e Augment Code.

Ogni assistente AI di coding dimentica. Chiudi la sessione, riaprila domani, il contesto svanisce. La RAG classica aiuta: metti i file del progetto in un database vettoriale, il modello recupera chunk simili. Ma funziona solo se domanda e risposta condividono il vocabolario superficiale. Decisioni, tradeoff, logica architetturale rimangono al di fuori del codice.

Un knowledge graph risolve un problema piu duro. Mantiene la memoria istituzionale in una struttura che sopravvive alle sessioni. Il divario tra tool è come quella memoria sta sincronizzata, come è scoperata e come i risultati vengono classificati.

Cos'e Davvero un Knowledge Graph

Un knowledge graph e un archivio strutturato di fatti. Ogni fatto e un nodo - un concetto, un tool, un progetto, una decisione - e i nodi sono collegati da archi tipizzati che descrivono la relazione: uses, implements, extends, depends on. A differenza di un archivio piatto di documenti, il grafo sa che "FastAPI" e "Pydantic" non sono solo due parole che a volte compaiono insieme, ma che una usa l'altra.

Le implementazioni moderne aggiungono embedding semantici sopra il grafo: il contenuto di ogni nodo diventa un vettore, cosi puoi cercare per intento, non solo per parola chiave. La combinazione e cio che conta. Un database vettoriale puro restituisce chunk che si somigliano; un grafo permette di seguire link tipizzati da un nodo rilevante per scoprire le decisioni e i concetti padre dietro di esso.

L'idea precede l'AI. Il Knowledge Graph di Google (2012), Palantir, Neo4j, Weaviate, la sintassi wiki di Obsidian condividono questa eredità. Il nuovo dal 2024: gli agent AI di coding hanno bisogno di questa memoria a runtime. Mem0 estrae entità dalle chat; Letta modella la memoria come pagine OS a livelli. Entrambi sono sistemi di produzione, entrambi funzionano diversamente dal nostro.

Cosa Rende Diverso il Nostro

L'Orchestrator VibeCoded esegue un knowledge graph come infrastruttura di primo livello tramite cinque meccanismi concreti, nessuno dei quali appare combinato altrove. Backend Weaviate, self-hosted. Embedding di testo via qwen3-embedding:0.6b (1024-dim), embedding di codice via CodeSage-Large-v2 (2048-dim), entrambi locali. I dati non lasciano mai la tua macchina.

1. Auto-sync via hook, non chiamate esplicite di memoria. Un hook PostToolUse guarda Edit(knowledge/**.md), scatta al salvataggio, ri-alloca embedding e inserisce in Weaviate in meno di due secondi senza intervento umano. Mem0 e Letta richiedono chiamate esplicite a memory.add() nel codice dell'agent; Augment esegue indicizzazione cloud piu lenta. Noi otteniamo freschezza edit-to-searchable a ogni save, automaticamente.

2. Collection condivisa cross-project. KG_COLLECTION per progetto piu una collection condivisa: i pattern documentati nel progetto A diventano ricercabili da B. Cursor, Windsurf e Augment limitano la memoria a singoli workspace. Noi ottimizziamo per gli sviluppatori che lavorano su piu codebase in una settimana, dove una decisione JWT da un progetto dovrebbe emergere in un altro.

3. Markdown semplice + wikilink tipizzati, nessuno store proprietario. I nodi sono file .md in knowledge/, uno per concetto/tool/progetto/pattern. Le relazioni sono wikilink: [[uses::FastAPI]], [[implements::Blackboard Pattern]], [[extends::Base Agent]]. Gli sviluppatori li leggono, modificano, differenziano, cercano direttamente. Mem0 e Letta mantengono la memoria in backend proprietari: utile ma opaco.

4. Dettaglio dei risultati token-aware (Pro). hybrid_search(detail="titles" | "descriptions" | "full") restituisce tre livelli calibrati: solo titoli (browse), riassunti da sei righe (triage), contenuto completo (implementa). Il trucco: ogni nodo KG memorizza un riassunto pre-costruito accanto al testo completo. Un hook PostToolUse esegue kg-summary-generator.sh (Haiku, debounced per hash) a ogni scrittura. I riassunti esistono al momento della query; nulla viene generato nel retrieval.

Il reranker RL-scored (Pro) sceglie il dettaglio per risultato in base al punteggio di confidenza: i top-3 ad alto punteggio ricevono il testo completo, quelli a medio punteggio i riassunti, quelli a basso i soli titoli. I reranker statici riversano chunk completi indipendentemente. Spreco di token evitato per design.

5. semantic_graph_search per traversata di link tipizzati. La ricerca vettoriale pura trova testo simile. semantic_graph_search parte da un concetto seed, cammina gli archi tipizzati fino a profondita N, restituisce il sottografo connesso: emerge il "perche" invece che solo testo topicamente simile.

Un agent knowledge-curator rivede i nuovi nodi, deduplica, suggerisce link mancanti, segnala contenuti obsoleti. Lo stesso tool MCP store_knowledge_node è in lettura-scrittura per umani e agent. Il KG impara mentre gli agent imparano.

Se questo e il tipo di memoria che vuoi nel tuo editor, l'Orchestrator base e gratis sotto AGPL-3.0 e include il KG completo, il code graph, gli hook e entrambi i tool di ricerca - vedi la pagina Orchestrator.

Due Scenari Concreti

Scenario 1. Uno sviluppatore avvia un nuovo servizio FastAPI e chiede all'AI come gestire l'auth. La prima risposta include un link a un nodo-decisione di un progetto Next.js di sei settimane prima - quello che spiegava perche erano stati scelti JWT a vita breve con refresh token invece delle sessioni per quel particolare threat model. Il ragionamento si porta dietro anche se lo stack e diverso. Quel cross-project surfacing arriva dal meccanismo (2).

Scenario 2. Qualcuno chiede "cosa abbiamo deciso sul rate limiting?". Grep non trova nulla perche nessun file contiene quella frase esatta. hybrid_search restituisce tre nodi - un'implementazione Redis a token bucket, un pattern middleware e un postmortem di un incident - e su Pro il reranker restituisce il postmortem in full ma gli altri come riassunto da sei righe, perche il postmortem e cio che la domanda vuole davvero. Meccanismo (4) all'opera.

Dove Si Colloca Nel Panorama

ToolApproccioLocale?Cross-project?Auto-sync?Livelli di dettaglio?Open Source?Prezzo
VibeCoded OrchestratorKG + code graph, link tipizzati, hook-drivenSiSi (collection condivisa)Si (PostToolUse, <2s)Si (Pro, RL-scored)AGPL-3.0Gratis
VibeCoded Orchestrator ProAggiunge reranker RL-scored sopra lo stesso KGSiSiSiSiSource-available19 EUR/mese, 149 EUR/anno, 199 EUR lifetime
CursorIndice embedding per progetto, finestra da 200KNoNoImplicitoNoNo$20/mese+
GitHub CopilotOrientato al completamento, nessun grafo persistenteNoNon/aNoNo$10/mese+
Augment CodeContext Engine (indicizzazione cloud graph-aware)NoLimitatoCadenza cloudNoNoA pagamento
Windsurf (Codeium)Codemaps (grafo della struttura del codice)NoNoImplicitoNoNo$15/mese+
Mem0Vettoriale + estrazione grafo opzionale da chatOpzione self-hostSiadd() esplicitiNoApache 2.0 (core)Grafo sul piano Pro $249/mese
Letta (ex-MemGPT)Memoria tiered in stile OS, gestita dall'agentSiSiEsplicitaTiered (concetto diverso)Apache 2.0Gratis (self-host)
Obsidian + plugin KGNote personali, non specifico per il codingSiSiManualeNoGratisGratis / $8 sync

Noi ottimizziamo per i workflow di sviluppo a lungo termine: conoscenza condivisa cross-project che ti segue tra codebase, freschezza hook-driven (nessuna chiamata memory.add() esplicita), storage markdown ispezionabile. Gli altri tool risolvono problemi adiacenti. Augment mira a grandi monorepo; Letta pagina memoria per-agent; Mem0 estrae dalla cronologia chat; la finestra 200K di Cursor maschera limiti single-project. Ognuno risolve una forma diversa di lavoro. Se lavori su piu progetti e vuoi che l'AI impari con te su tutti, l'Orchestrator si adatta.

I failure mode reali esistono: nodi obsoleti, rumore da over-linking, costo di curation. Auto-sync, agent curator, livelli di dettaglio RL-scored tengono basso quel costo.

Provalo

L'Orchestrator base - KG completo, code graph, 16 hook, 4 MCP, agent e skill - e gratuito sotto AGPL-3.0. Se vuoi il reranker RL-scored che evita lo spreco di token sui loop agentici lunghi, Orchestrator Pro e a 19 EUR/mese, 149 EUR/anno o 199 EUR lifetime (limitato ai primi 100 clienti).


Fonti