什么是 MCP-Use?
MCP-Use 是一款开源客户端库,旨在简化大型语言模型(LLM)与模型上下文协议(Model Context Protocol, MCP)服务器之间的集成。MCP 作为一种开放标准,为 LLM 提供了统一的工具和数据接口。
通过自定义代理,MCP-Use 能够让任何支持工具调用(Tool Calling)的 LLM(如 OpenAI、Anthropic、Groq、LLaMA 等)快速连接至 MCP 服务器。这意味着开发者可以轻松为 AI 代理构建网页浏览、文件操作等实用能力,将其转化为具备实际执行力的智能体。
核心功能特性
- 极简上手: 仅需 6 行代码即可快速创建首个具备 MCP 能力的代理。
- 模型兼容性强: 基于 LangChain 框架,支持所有兼容的工具调用模型。
- 灵活部署: 支持通过 HTTP 端口直接连接运行中的 MCP 服务器,适配异构 Web 部署环境。
- 智能调度: 内置动态服务选择机制,可根据当前任务从服务器池中自动挑选最合适的 MCP 服务器。
- 多源协作: 单个代理实例可同时挂载多个 MCP 服务器,支持如「网页浏览 + 3D 建模」等复杂工作流。
- 安全可控: 提供细粒度的工具访问控制,可禁用文件系统或网络访问等高危操作。
快速安装与配置
按照以下步骤部署 MCP-Use 环境:
- 安装核心库
可以使用 pip 直接安装:pip install mcp-use或者通过源码安装:
git clone https://github.com/pietrozullo/mcp-use.git cd mcp-use pip install -e . - 配置 LangChain 提供程序
MCP-Use 依赖 LangChain 与 LLM 交互。请根据您选择的模型安装对应的包。例如:# OpenAI 方案 pip install langchain-openai # Anthropic 方案 pip install langchain-anthropic更多提供商请参考 LangChain 官方文档 。
- 设置 API 密钥
在项目根目录的.env文件中配置对应的 API Key:OPENAI_API_KEY=your_key_here ANTHROPIC_API_KEY=your_key_here
注意事项
模型选择: 并非所有 LLM 都能直接使用。必须选择 支持函数调用(Function Calling)或工具使用(Tool Use) 的模型版本,否则 MCP-Use 无法正常驱动外部工具。
项目资源
GitHub 仓库:https://github.com/pietrozullo/mcp-use
正文完
