明明已登录 clawhub.ai 网站,但是 clawhub login 的时候仍然提示:
CLI login
Missing state.
Run the CLI again to start a fresh login.
解决办法:
把 PowerShell 中的那个网址复制出来,在浏览器上打开即可。网址格式类似:
https://clawhub.ai/cli/auth?redirect_uri=http%3A%2F%2F127.0.0.1%3A64172%2Fcallback&label_b64=******&state=******我来为你整理 Windows 本地部署 OpenClaw 并通过长连接方式接入企业微信的完整步骤:
前置条件
已安装企业微信最新版客户端
已安装 OpenClaw(Node.js 版本需 ≥ 22.0)
管理员权限的企业微信账号(否则看不到 API 模式选项)
第一步:在企业微信创建长连接机器人
打开企业微信客户端 → 工作台 → 智能机器人 → 创建机器人
点击底部小字 "如需使用自有系统获取成员与机器人的聊天并输出回复,可切换至 API 模式创建"
选择 「长连接」 方式(不要选 Webhook 回调模式)
复制保存生成的 Bot ID 和 Secret(后续需要用到)
先不要点击保存,保持页面打开,等完成 OpenClaw 配对后再保存
第二步:Windows 本地安装企微插件
打开 PowerShell 或 命令提示符,依次执行以下命令:
1. 安装企业微信插件
openclaw plugins install @wecom/wecom-openclaw-plugin如果安装失败,可尝试备用命令: openclaw plugins install @tencent/openclaw-wecom
2. 重启 OpenClaw 网关
openclaw gateway start重要:这个窗口不能关闭,关闭后机器人会掉线。需要再新开一个终端窗口执行后续命令。
3. 添加企业微信渠道
在新开的终端窗口执行:
openclaw channels add按提示操作:
用方向键选择 企业微信(WeCom) → 回车
粘贴输入 Bot ID → 回车
粘贴输入 Secret → 回车
选择 Finished/Done 完成基础配置
配对方式选择 Pairing
第三步:完成配对授权
1. 回到企业微信,找到刚创建的机器人,发送任意消息(如"你好")
2. 机器人会自动回复一条配对码消息(包含授权命令)
3. 复制消息最后一行的配对码
4. 在终端中执行配对命令:
openclaw pairing approve openclaw-wecom 你的配对码5. 提示"授权成功"即完成配对
第四步:保存并启用机器人
1. 回到企业微信机器人配置页面,点击 保存并创建
2. 现在可以在企业微信中与机器人正常对话了
长连接 vs 回调模式的优势
| 特性 | 长连接模式 | 传统回调模式 |
|---|---|---|
| 公网IP/域名 | ❌不需要 | ✅必须需要 |
| 内网穿透 | ❌不需要 | ✅必须配置 |
| 消息加解密 | ❌无需处理 | ✅需要处理 |
| 稳定性 | 高(无回调失败问题) | 低(经常回调失败) |
| 主动推送 | ✅支持 | ✅支持 |
常见问题
| 问题 | 解决方案 |
|---|---|
| 没有 API 模式选项 | 确认你是企业微信管理员,普通成员看不到该选项 |
| 插件安装失败 | 检查网络连接,或尝试切换 npm 镜像源: npm config set registry https://registry.npmmirror.com/ |
| 配对码无法获取 | 确认选择了 API 模式和长连接,重启 OpenClaw 后重试 |
| 机器人不回复 | 检查网关窗口是否保持运行,重新执行配对命令 |
| 需要 7×24 小时在线 | 建议部署到云服务器,本地关机后机器人会离线 |
命令速查表
# 安装插件
openclaw plugins install @wecom/wecom-openclaw-plugin
# 启动网关(窗口不能关)
openclaw gateway start
# 添加渠道
openclaw channels add
# 配对授权
openclaw pairing approve openclaw-wecom 【配对码】
# 重启服务
openclaw gateway restart
# 查看状态
openclaw channels status配置完成后,你就可以在企业微信中与 OpenClaw 对话了。如果需要让个人微信也能使用,可以在企业微信后台 "我的企业" → "微信插件" 中生成二维码,用个人微信扫码关注企业即可。
一、安装 Ollama
从官网下载安装 Ollama。
查看版本号:
ollama --version二、在 shell 中安装和运行模型
在 Models 中选择一个你想部署的模型,复制安装命令,并在终端中执行。
官方建议:应该至少有 8 GB 的 RAM 来运行 7b 版本,16 GB 的 RAM 来运行 13b 版本,32 GB 的 RAM 来运行 33b 版本。
本文以 deepseek-r1:7b 为例。
下载模型
ollama pull deepseek-r1:7bTip: 下载即将完成时速度可能会变得非常慢,只要按 Ctrl+C,再重新执行一次命令,就会继续正常下载。
显示模型信息
ollama show deepseek-r1:7b运行模型(一次性响应)
ollama run deepseek-r1:7b "写一首诗"运行模型(进入聊天模式)
ollama run deepseek-r1:7b结束当前会话
/bye列出所有模型
ollama list列出当前加载的模型
ollama ps停止当前正在运行的模型
ollama stop deepseek-r1:7b删除一个模型
ollama rm deepseek-r1:7b三、使用 REST API 调用模型
修改端口
ollama serve --port 11434/api/generate 接口:生成一次性响应
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:7b",
"prompt":"为什么天空是蓝色的?"
}'/api/chat 接口:与模型聊天
curl http://localhost:11434/api/chat -d '{
"model": "deepseek-r1:7b",
"messages": [
{ "role": "user", "content": "你好呀!" }
]
}'四、在 .NET 中调用
1、直接 HTTP 调用(基础方案)
创建 HttpClient,使用 PostAsJsonAsync 请求,使用 ReadFromJsonAsync 读取结果。
2、使用 OllamaSharp 库(推荐方案)
创建 OllamaApiClient,使用 SelectedModel 设置模型,使用 GenerateAsync 获得结果。或创建对话 ollama.Chat(),并 Send 内容。
3、.NET Aspire 集成(企业级方案)
适合微服务架构,结合容器化部署。
“OllamaSharp 库”和“.NET Aspire 集成”两种方案怎么选?
OllamaSharp 库:定位轻量级模型交互 SDK,适用于独立应用、微服务中的 AI 组件等场景,技术复度低,支持模型对话/生成/管理、流式响应、多模态支持,需自行实现监控、熔断。
.NET Aspire 集成:定位企业级云原生 AI 服务编排框架,适用于多服务协同的分布式系统,技术复度高,支持服务编排、健康检查、弹性伸缩、混合云部署,内置可观测性仪表盘、自动故障转移。
决策建议:初创项目用 OllamaSharp 快速试错,用户量破千后通过 Aspire 重构。两者并非互斥,可在 Aspire 中封装 OllamaSharp 客户端,兼顾灵活性与运维能力。
大模型文件一般都比较大,Ollama 默认是下载到 C 盘的,如何更改到 D 盘或其它盘符中?
第一步,退出 Ollama。
第二步,设置环境变量,设置方法参这篇文章:
变量名:OLLAMA_MODELS
变量值:D:\.ollama\models(这是示例,填写自己的实际路径即可)第三步,将默认路径下的 models 目录移至 D:\.ollama\
默认路径一般为 C:\Users\<用户>\.ollama\
Ollama 默认是仅本地访问,接口地址是:http://localhost:11434
开放外部访问需要设置两个环境变量:
OLLAMA_HOST=0.0.0.0
OLLAMA_ORIGINS=*第一步,设置环境变量
macOS:
在终端中运行命令
launchctl setenv OLLAMA_HOST "0.0.0.0"
launchctl setenv OLLAMA_ORIGINS "*"Windows:
打开“环境变量”配置框
添加两个用户变量:

Linux:
使用 systemctl 设置环境变量
调用 systemctl edit ollama.service 编辑 systemd 服务配置
在 [Service] 下方添加:
[Service]
Environment="OLLAMA_HOST=0.0.0.0"
Environment="OLLAMA_ORIGINS=*"第二步,重启 Ollama
环境变量配置完成后,重启 Ollama。
第二步,开启“Expose Ollama to the network”
打开 Ollama 客户端,在 Settings 中开启。
第三步,开放防火墙端口
Windows:
进入“高级安全 Windows Defender 防火墙” → “入站规则” → 新建规则 → 允许 TCP 端口 11434。
第四步,验证
获取本机局域网 IP。
Windows:ipconfig
Linux/macOS:ifconfig
访问网址:http://<ip>:11434
若返回 Ollama is running 则表示连接正常。