
Model Context Protocol 学习笔记(一)基础环境配置与快速上手体验

MCP 模式
MCP 现在一共有两种模式:
- Stdio:主要用在本地服务上,操作你本地的软件或者本地的文件,比如 Blender 这种就只能用 Stdio 因为他没有在线服务
- SSE :主要用在远程服务上,这个服务本身就有在线的 API,比如访问你的谷歌邮件,谷歌日历等。
配置环境
uv
Python
包管理生态中存在多种工具,如 pip
、pip-tools
、poetry
、conda
等,各自具备一定功能。
uv
是 Astral
公司推出的一款基于 Rust
编写的 Python
包管理工具,旨在成为 “Python 的 Cargo”。
node.js
正常去node.js官网安装即可。
MCP Config
api申请
无论是cursor、Windsurf这种AI IDE,还是chatwise这种聊天bot,都通过json配置MCP。各家厂商的MCP server api可以在类似于以下两个收录网站中获取:
我申请了amap(高德地图)的MCP API,官网地址:https://lbs.amap.com
将获得的api填入以下的MCP-server-config模板中,再配置到到对应的agent中即可使用。
1 | { |
遇到的一些坑
我这边主要使用的是Windsurf,这里会碰到一个问题,如果没有事先安装npm的包@amap/amap-maps-mcp-server
,就会报错“failed to initialize: context deadline exceeded”
。需要使用以下命令安装:
1 | npm init -y && npm install @amap/amap-maps-mcp-server @modelcontextprotocol/sdk |
如果以上命令无法安装,需要检查npm的registry,笔者是因为淘宝源ssl证书过期了装不上,直接执行以下两条命令+重开个terminal session刷新config,就能装上了
1 | npm config set registry https://registry.npmjs.org/ |
如下图,最后姑且算是成功了。
由于windsurf是自带llm(Cascade)的,所以后面又尝试了一下ChatWise,配合ollama启动本地的llm(deepseek-8b),效果一般吧,深度推理模式下token生成速度太慢。
后记
本文是该系列第一篇,笔者在阅读参考小节的第一篇文章进行实践的同时记录了一些坑点。后续会进行修改,也有可能后来看看写得依托直接删掉了((
参考
- Title: Model Context Protocol 学习笔记(一)基础环境配置与快速上手体验
- Author: Aoi Komiya
- Created at: 2025-04-11 23:06:00
- Updated at: 2025-04-11 23:15:01
- Link: https://blog.komiya.monster/2025/04/11/MCP-try/
- License: This work is licensed under CC BY-NC-SA 4.0.