Prima di MCP
I modelli linguistici producono testo. Non possono leggere file, interrogare database o scaricare pagine senza un ponte. Prima del 2024, ogni vendor inventava il suo: function calling di OpenAI, schema di plugin per IDE, integrazioni vendor-specifiche.
Cos'è MCP (e cosa non è)
Model Context Protocol (MCP) è una specifica aperta annunciata da Anthropic a novembre 2024. La release attuale è datata 25 novembre 2025, governata tramite Spec Enhancement Proposal e Working Group su GitHub. La roadmap 2026 copre lo scaling del transport remoto, il nuovo primitivo Tasks per operazioni lunghe e auth/audit enterprise.
MCP è il protocollo che i nostri prodotti parlano. Un MCP server espone tre primitive:
- Tools: funzioni invocabili con schema JSON
- Resources: dati leggibili
- Prompts: template riutilizzabili
Un client (Claude Code, Cursor, ecc.) avvia il server, legge gli schemi e decide quando chiamare. Wire format: JSON-RPC 2.0. Transport: stdio (subprocess locale) o HTTP (remoto). MCP è più pesante del function calling—esegui un processo separato—ma provider-indipendente e model-agnostico.
I quattro server
Il VibeCoded Orchestrator include quattro server MCP:
-
weaviate-kg: ricerca semantica su knowledge e code graph locali. Tool:hybrid_search,semantic_graph_search,store_knowledge_node,search_code_graph,query_code_structure. Embedding: qwen3-embedding:0.6b (testo, 1024-d) e CodeSage-Large-v2 (codice, 2048-d). -
ollama: inferenza LLM locale, gratuita. Tool:chat,read_document,read_image. Usa per riassunti, riscritture, vision invece di token API di Claude. -
search: ricerca web, codice e paper accademici. Tool:web_search(SearXNG),search_code(GitHub),search_papers(OpenAlex, arXiv),fetch_page. Nessuna API key richiesta. -
code_embedding: servizio FastAPI per embedding CodeSage-Large-v2. Backend per il code graph.
Come gli agenti li usano davvero
Un trace concreto. Chiedi: "Come abbiamo gestito il rate limiting nei progetti passati?"
- Claude legge lo schema di
weaviate-kg, scegliehybrid_search. - Invia
{"query": "rate limiting patterns", "limit": 5}via stdio come chiamata JSON-RPC. - Il server embedda la query, esegue ricerca ibrida keyword + vettoriale sul KG, restituisce 5 nodi con estratti.
- Claude sintetizza una risposta fondata su quei nodi reali — non allucinata.
Gli agenti usano chat per riscritture locali, web_search per documentazione, search_code per esempi GitHub, query_code_structure per refactoring. Gli agenti chiamano tool MCP invece di grep. Questo è il punto.
Aggiungere il livello di team
Questi quattro coprono il workflow del singolo sviluppatore. Per il coordinamento di team—decisioni condivise, messaggi cross-macchina, rationale delle decisioni—abbiamo un prodotto separato, la Coordination MCP, appoggiata su Supabase. Self-host gratuito, managed TBD. Stesso protocollo. Vedi /products/coordination-mcp.
Un Telegram Module MCP pianificato esporrà chat Telegram come tool surface per pilotare l'orchestrator dal telefono.
Dove ci collochiamo nell'ecosistema MCP
A inizio 2026 MCP è lo standard cross-vendor dominante per l'accesso AI agli strumenti. OpenAI ha adottato MCP a marzo 2025 ed esteso il supporto alle ChatGPT apps a settembre 2025. Registry pubblici indicizzano migliaia di server community.
| Client | Supporto MCP | Open source |
|---|---|---|
| Claude Desktop / Claude Code | Nativo | Sì protocollo, no client |
| VibeCoded Orchestrator | Nativo, 4 server + Coord MCP opzionale | Sì |
| Cursor / Windsurf | Sì | No |
| Cline / Zed / Continue.dev | Sì | Sì |
| VS Code + Copilot | Sì | Parziale |
| OpenAI ChatGPT / Apps | Sì (dal 2025) | No |
| LangChain / LangGraph | Via adapter | Sì |
Ogni MCP server per Claude Code funziona con l'Orchestrator. Spediamo i default; puoi aggiungere server community. Il function calling sopravvive per use case single-vendor, bassa latenza. Per tutto model-indipendente, MCP vince.
I quattro MCP server qui sopra sono inclusi gratuitamente nel VibeCoded Orchestrator — locali, aperti, sotto il tuo controllo. Il livello di team-sync è la Coordination MCP.
Sources: