MCP+A2A
MCP+A2A模块构建了涵盖10+个前沿协议和框架的智能体互联生态,专注于模型控制协议(MCP)和智能体到智能体(A2A)通信的技术创新。该模块系统性地整理了Anthropic MCP模型控制协议、OpenAI Swarm多智能体框架、Microsoft AutoGen对话智能体、LangGraph状态机编排等核心技术,以及CrewAI协作智能体、MetaGPT多智能体软件公司、ChatDev虚拟软件公司等创新应用框架。
技术特色涵盖了智能体通信协议、任务分解与协作、状态管理与持久化、工具调用与集成等核心能力,详细解析了消息传递机制、协作策略设计、冲突解决算法、性能监控等关键技术环节。
模块深入介绍了多智能体系统架构设计、智能体角色定义、工作流编排、任务调度等工程实践,以及与外部工具(API、数据库、文件系统)的无缝集成方案。内容包括智能体协作模式(层次化、平等化、混合式)、通信模式(同步、异步、事件驱动)、决策机制(投票、共识、仲裁)等多样化协作策略,以及软件开发、数据分析、内容创作、客户服务等典型应用场景的最佳实践,帮助开发者构建高效协作的多智能体系统,实现复杂任务的智能化分解和自动化执行。
- 3.MCP+A2A.md
- A2A
- fastapi-mcp
- openmemory
- gitmcp
- MCP Servers大全
- github/github-mcp-server: GitHub's official MCP Server implementation
- CherryHQ/cherry-studio: 🍒 Cherry Studio is a desktop client that supports for multiple LLM providers.
- MCP 广场 · 魔搭社区
- 蓝耘元生代AIDC OS-mcp
- mcp-chrome
- Gorilla:LLM 的 API 商店
- Gapier:Agent 工具
- chatgpt-on-wechat: 基于大模型搭建的聊天机器人,同时支持 微信公众号、企业微信应用、飞书、钉钉 等接入,可选择GPT3.5/GPT-4o/GPT4.0/ Claude/文心一言/讯飞星火/通义千问/ Gemini/GLM-4/Claude/Kimi/LinkAI,能处理文本、语音和图片,访问操作系统和互联网,支持基于自有知识库进行定制企业智能客服。
-----------------------------------------------------------
A2A
简介
A2A 是由 Google 发起的开源项目,是一种开放协议,旨在实现不透明的智能体应用程序之间的通信和互操作性。该协议允许不同公司基于不同框架、运行在不同服务器上的生成式 AI 智能体作为智能体(而非工具)进行有效通信与协作,以构建更强大、创新的 AI 生态系统。核心功能
- 发现能力:智能体可发现彼此的能力。
- 协商交互:协商交互方式,如文本、表单、媒体等。
- 安全协作:在长期任务上进行安全协作。
- 隐私保护:操作时无需暴露内部状态、内存或工具。
技术原理
- 标准化通信:采用基于 HTTP(S) 的 JSON - RPC 2.0 进行通信。
- 智能体发现:通过“智能体卡片”详细说明能力和连接信息。
- 灵活交互:支持同步请求/响应、流式传输(SSE)和异步推送通知。
- 数据交换:可处理文本、文件和结构化 JSON 数据。
应用场景
- 复杂多功能应用:使专业智能体协作完成单个智能体无法处理的任务。
- 跨生态系统协作:打破不同生态系统中智能体之间的壁垒,实现连接。
- 企业级应用:适用于对安全性、认证和可观测性有要求的企业场景。
- google/A2A
------------------------------------------------------------
fastapi-mcp
简介
FastAPI - MCP可将FastAPI端点作为模型上下文协议(MCP)工具暴露出来,具备认证功能。它是FastAPI的原生扩展,无需大量配置,能保留请求和响应模型的架构与端点文档,支持灵活部署。核心功能
- 内置认证,利用现有FastAPI依赖。
- 原生支持FastAPI,非简单的OpenAPI到MCP转换器。
- 零/最小配置,指向FastAPI应用即可工作。
- 保留请求和响应模型的架构及端点文档。
- 灵活部署,可挂载到同一应用或单独部署。
- 使用FastAPI的ASGI接口进行高效通信。
技术原理
FastAPI - MCP是FastAPI的原生扩展,借助FastAPI现有的依赖实现认证功能。它直接使用FastAPI的ASGI接口进行通信,无需MCP向API发起HTTP调用。可将MCP服务器挂载到FastAPI应用中,或单独部署。应用场景
- 为现有的FastAPI服务添加MCP功能,使FastAPI端点作为MCP工具暴露。
- 适用于需要对MCP端点进行认证和授权的场景,可利用FastAPI的依赖实现。
- 可在同一应用中部署MCP服务器,也可单独部署,满足不同的部署需求。
- tadata-org/fastapimcp: A zero-configuration tool for automatically exposing FastAPI endpoints as Model Context Protocol (MCP) tools.
------------------------------------------------------------
openmemory
简介
Mem0 是为 AI 应用提供的记忆层,能增强 AI 助手和代理的智能记忆,实现个性化 AI 交互。它可记住用户偏好、适应个体需求并持续改进,适用于多种场景,如客户支持聊天机器人、AI 助手和自主系统等。核心功能
- 多级记忆:保留用户、会话和 AI 代理的记忆。
- 自适应个性化:基于交互持续改进。
- 开发友好 API:便于集成到各种应用。
- 跨平台一致性:在不同设备上行为一致。
- 托管服务:提供无忧的托管解决方案。
- 具备添加、更新、搜索、获取、查看历史等操作记忆的功能。
技术原理
采用混合数据库方法管理和检索 AI 代理与助手的长期记忆。将记忆关联唯一标识符,添加消息时,系统提取相关事实和偏好,存储到向量数据库、键值数据库和图数据库;搜索记忆时,跨数据存储搜索,通过评分层评估重要性,将检索到的记忆按需添加到 LLM 提示中。应用场景
- AI 助手和代理:实现无缝对话。
- 个性化学习:提供定制内容推荐和进度跟踪。
- 客户支持:提供基于用户偏好的上下文感知帮助。
- 医疗保健:管理患者历史和治疗计划。
- 虚拟伴侣:通过对话记忆加深用户关系。
- 生产力:基于用户习惯和任务历史简化工作流程。
- 游戏:创建反映玩家选择和进度的自适应环境。
- mem0ai/mem0:AI 代理的内存;AI 代理内存中的 SOTA;宣布 OpenMemory MCP - 本地和安全内存管理。 --- mem0ai/mem0: Memory for AI Agents; SOTA in AI Agent Memory; Announcing OpenMemory MCP - local and secure memory management.
- mem0/openmemory at main · mem0ai/mem0
- Introducing OpenMemory MCP
Excel MCP Server
简介
Excel MCP Server 是一个基于 Model Context Protocol(MCP)的服务器工具,允许在无需安装 Microsoft Excel 的情况下,通过 AI 代理或其他系统实现 Excel 文件的创建、读取、修改等操作。支持多种数据操作与格式设置功能,并提供 stdio、可流式 HTTP 及 SSE(已弃用)三种传输方式,适用于本地或远程场景。核心功能
- Excel 基础操作:创建、读取、更新工作簿及工作表,管理工作表(复制、重命名、删除)。
- 数据与格式管理:读写数据、应用公式、设置字体样式/颜色/边框/对齐/条件格式,支持数据验证。
- 可视化与分析:生成折线图、柱状图、饼图等图表,创建动态数据透视表及 Excel 表格。
- 传输支持:提供 stdio(本地)、可流式 HTTP(推荐远程)及 SSE(已弃用)三种传输协议,支持环境变量配置文件路径(EXCELFILESPATH)和端口(FASTMCP_PORT)。
技术原理
Excel MCP Server 基于 Model Context Protocol(MCP)实现,通过服务器端处理客户端的 Excel 操作请求。底层采用 Python 语言开发(支持 Python 3.10),通过协议适配不同传输方式:stdio 直接通过标准输入输出交互;可流式 HTTP 支持远程连接,通过环境变量指定文件存储路径和服务端口;SSE(Server-Sent Events)已弃用。服务器通过封装 Excel 文件操作逻辑(如数据读写、格式设置、图表生成等),提供标准化接口供客户端调用。应用场景
- AI 代理集成:为 AI 系统提供无 Excel 环境下的 Excel 文件操作能力,支持自动化数据处理与报告生成。
- 远程 Excel 管理:通过可流式 HTTP 协议实现远程服务器上的 Excel 文件操作,适用于多用户协作或云端服务场景。
- 自动化业务流程:集成至企业系统中,自动化完成数据录入、报表生成、图表可视化等任务。
- 轻量级开发测试:开发者无需安装 Excel,即可在本地或测试环境中快速验证 Excel 操作逻辑。
- 项目官网:https://excelmcpserver.com/
- GitHub仓库:https://github.com/haris-musa/excel-mcp-server
GitMCP
GitMCP 是一个免费、开源的远程模型上下文协议(MCP)服务器,旨在将任何 GitHub 项目(包括仓库和 GitHub Pages)转换为文档中心,并为 AI 工具提供即时、准确的项目上下文。它通过消除 AI 模型的“代码幻觉”问题,使得 AI 能够访问最新的文档和代码,即使这些信息未包含在其训练数据中。通过简单地将 GitHub 仓库 URL 中的 github.com 替换为 gitmcp.io,即可为该仓库生成一个可供 AI 助手使用的 MCP 服务器。

核心功能
- 上下文提供: 为 AI 工具提供 GitHub 仓库的实时、准确的文档和代码上下文。
- 消除幻觉: 解决 AI 模型在处理新项目或训练数据之外的信息时可能出现的“代码幻觉”问题。
- 文档获取:
fetch_documentation:检索项目的主要文档。 - 文档搜索:
search_documentation:根据特定查询在文档中进行搜索。 - 代码搜索:
search_code:在实际仓库代码中进行搜索。 - URL 内容获取:
fetchurlcontent:检索引用链接的内容。
技术原理
GitMCP 的核心是实现了模型上下文协议(Model Context Protocol, MCP)。MCP 是一种标准,允许 AI 工具从外部源请求额外的上下文信息。其工作流程如下:- 用户在 AI 工具中将 GitMCP 配置为一个 MCP 服务器。
- 用户向 AI 提出关于代码或文档的问题。
- AI 工具(在用户批准后)向 GitMCP 发送请求。
- GitMCP 从相应的 GitHub 仓库获取相关信息。
- AI 接收到准确、最新的信息,并提供基于事实的回复。
fetch 和 search 等工具接口,使得 AI 能够按需动态获取并理解 GitHub 仓库的内容。
应用场景
- AI 辅助编程: 允许 AI 编程助手(如 Cursor)深度理解任何 GitHub 仓库的内部结构和文档,从而提供更准确的代码建议、bug 修复和问题解答。
- 知识库查询: AI 模型可以利用 GitMCP 访问和检索非其训练集中的项目文档,为用户提供关于开源项目、库或框架的最新信息。
- 开发效率提升: 开发者可以配置 AI 工具与 GitMCP 集成,快速获取项目上下文,减少手动查阅大量文档和代码的时间。
- 教育与学习: AI 导师可以通过 GitMCP 访问特定 GitHub 项目的详细信息,帮助学生理解和学习新的技术栈。
- 项目官网:https://gitmcp.io/
- GitHub仓库:https://github.com/idosal/git-mcp
------------------------------------------------------------