明明已登录 clawhub.ai 网站,但是 clawhub login 的时候仍然提示:
CLI login
Missing state.
Run the CLI again to start a fresh login.
解决办法:
把 PowerShell 中的那个网址复制出来,在浏览器上打开即可。网址格式类似:
https://clawhub.ai/cli/auth?redirect_uri=http%3A%2F%2F127.0.0.1%3A64172%2Fcallback&label_b64=******&state=******我来为你整理 Windows 本地部署 OpenClaw 并通过长连接方式接入企业微信的完整步骤:
前置条件
已安装企业微信最新版客户端
已安装 OpenClaw(Node.js 版本需 ≥ 22.0)
管理员权限的企业微信账号(否则看不到 API 模式选项)
第一步:在企业微信创建长连接机器人
打开企业微信客户端 → 工作台 → 智能机器人 → 创建机器人
点击底部小字 "如需使用自有系统获取成员与机器人的聊天并输出回复,可切换至 API 模式创建"
选择 「长连接」 方式(不要选 Webhook 回调模式)
复制保存生成的 Bot ID 和 Secret(后续需要用到)
先不要点击保存,保持页面打开,等完成 OpenClaw 配对后再保存
第二步:Windows 本地安装企微插件
打开 PowerShell 或 命令提示符,依次执行以下命令:
1. 安装企业微信插件
openclaw plugins install @wecom/wecom-openclaw-plugin如果安装失败,可尝试备用命令: openclaw plugins install @tencent/openclaw-wecom
2. 重启 OpenClaw 网关
openclaw gateway start重要:这个窗口不能关闭,关闭后机器人会掉线。需要再新开一个终端窗口执行后续命令。
3. 添加企业微信渠道
在新开的终端窗口执行:
openclaw channels add按提示操作:
用方向键选择 企业微信(WeCom) → 回车
粘贴输入 Bot ID → 回车
粘贴输入 Secret → 回车
选择 Finished/Done 完成基础配置
配对方式选择 Pairing
第三步:完成配对授权
1. 回到企业微信,找到刚创建的机器人,发送任意消息(如"你好")
2. 机器人会自动回复一条配对码消息(包含授权命令)
3. 复制消息最后一行的配对码
4. 在终端中执行配对命令:
openclaw pairing approve openclaw-wecom 你的配对码5. 提示"授权成功"即完成配对
第四步:保存并启用机器人
1. 回到企业微信机器人配置页面,点击 保存并创建
2. 现在可以在企业微信中与机器人正常对话了
长连接 vs 回调模式的优势
| 特性 | 长连接模式 | 传统回调模式 |
|---|---|---|
| 公网IP/域名 | ❌不需要 | ✅必须需要 |
| 内网穿透 | ❌不需要 | ✅必须配置 |
| 消息加解密 | ❌无需处理 | ✅需要处理 |
| 稳定性 | 高(无回调失败问题) | 低(经常回调失败) |
| 主动推送 | ✅支持 | ✅支持 |
常见问题
| 问题 | 解决方案 |
|---|---|
| 没有 API 模式选项 | 确认你是企业微信管理员,普通成员看不到该选项 |
| 插件安装失败 | 检查网络连接,或尝试切换 npm 镜像源: npm config set registry https://registry.npmmirror.com/ |
| 配对码无法获取 | 确认选择了 API 模式和长连接,重启 OpenClaw 后重试 |
| 机器人不回复 | 检查网关窗口是否保持运行,重新执行配对命令 |
| 需要 7×24 小时在线 | 建议部署到云服务器,本地关机后机器人会离线 |
命令速查表
# 安装插件
openclaw plugins install @wecom/wecom-openclaw-plugin
# 启动网关(窗口不能关)
openclaw gateway start
# 添加渠道
openclaw channels add
# 配对授权
openclaw pairing approve openclaw-wecom 【配对码】
# 重启服务
openclaw gateway restart
# 查看状态
openclaw channels status配置完成后,你就可以在企业微信中与 OpenClaw 对话了。如果需要让个人微信也能使用,可以在企业微信后台 "我的企业" → "微信插件" 中生成二维码,用个人微信扫码关注企业即可。
前面写过一篇文章介绍了不买高防 IP,照样抵挡 DDoS 攻击(IP 篇),如果攻击的是域名(CC),那么...
本文适用场景:攻击的是 web 网址而非 IP,来源有许多各地的 IP 地址,每个 IP 地址每小时只有若干请求,但整个网站每分钟有数万请求量。
《小白鼠A》(贵)
阿里云有一款产品叫“Web 应用防火墙”,开通并接入云产品,试用按量付费即可。
在防护配置-Web核心防护 中可配置各种规则,譬如:
“自定义规则”可添加网址/UA/IP/Cookie/等中包含某些关键词的请求;
“区域封禁”可按地区来限制请求;
另外还有“CC防护”等各种实用规则。
添加规则后记得关联实例。
配置完成后可在总览页面查看请求情况,如果攻击停止可关闭防火墙。
试用了12小时,平均每分钟请求2-5万次,消耗 15000SeCU,费用大概是750元。
《小白鼠B》(推荐)
阿里云有一款产品叫“边缘安全加速 ESA”,开通接入域名(注意填写域名时不要写 www)。
创建购买成功后会有一个 CNAME 域名,解析生效。配置 HTTPS 证书。
打开“我正在遭受攻击”,开启后站点进入严格防护模式,默认对所有 HTTP 请求做滑块挑战。这是非常能节省费用的操作,实测开启与不开启的数量相差20倍(具体视攻击强弱)。
另外,ESA 自带的“安全防护-WAF”中若想根据 URL 中包含某个关键词来拒绝请求,需要升级套餐。可以直接在“规则-重定向”设置 302 跳转也能达到类似的效果,但是节省流量的最好办法还是开启滑块。
费用的话,大部费用是由“客户端请求到边缘加速服务器的流量”和“边缘加速服务器响应给客户端的流量”组成的,而且滑块页面不计入流量。可免费试用。
在开启滑块的情况下,1分钟产生10M流量,基础版包含的50GB可以用3天。标准版(500GB)375元可以用一个月。(以我站实测为例,各站情况不同)。
具体费用在“计费管理-套餐管理-套餐总量 (月)-
”查看。超过套餐的流量会使用CDN流量包抵扣。
ECS 获取客户端 IP 的问题有两种解决方案,1. 设置四层代理分析(企业版),2. 设置重定向规则,重定向到直接解析到该网站的另一个域名。
为了尽量减少滑块对用户体验的影响,建议加白名单:ESA-站点-安全防护-WAF-白名单规则,譬如添加省份规则,跳过全部规则(包括滑块)。
其它问题:滑块会拒绝蜘蛛?
其它相似产品:Cloudflare、腾讯云 EdgeOne。
----------------下面是停站维护时显示临时页面的做法----------------
被攻击期借用阿里云 OSS/CDN 显示“维护中”页面的方法。
1.
首先让 AI 快速生成一个维护中的页面,上传到 OSS。
虽然这个文件有一个对应的 CDN 链接,但是域名解析使用“显性 URL”模式并不能正常访问到这个页面。
2.
在阿里云 CDN 添加一个域名(也就是网站域名),会生成一个 CNAME 域名,网站域名 CNAME 到这个域名上。
配置这个 CDN 域名的 OSS 实例、HTTPS 等信息。
这样生效后,访问网站域名就能请求到这个 OSS 上了。
3.
但是它并不像网站一样有默认文档,需要添加重写规则。
打开 CDN-域名管理-缓存配置-重写访问URL,添加,添加重写规则。
例:如果目标页面路径是 https://域名/index.html,那么重写规则就是:
^/(?!.*index\.html$).*$也就是把所有除 /index.html 以外的路径全部重写到 /index.html。
4.
下一步只要观察这个域名的实时流量和带宽,如果攻击停止了,将域名解析回 ECS。
CDN-统计分析-实时监控-访问数据-选择域名-查询。
nginx 配置文件中不能随意嵌套 if,而且 if 中也没有 and 和 or 逻辑,不过可以借用变量来实现:
set $a "";
if ($request_uri ~* "action=postreview")
{
set $a "${a}1";
}
if ($http_referer !~* "^https?://([^/]+\.)?domains\.com([:/?#]|$)")
{
set $a "${a}1";
}
if ($a = '11')
{
return 403;
}
fastcgi...上例中实现了 url 中包含 action=postreview 且来源不是本站的情况拒绝访问。
一般放在 fastcgi 所在 location,譬如宝塔面板的 enable-php-xx.conf 文件中。
一般地,应选择尺寸小于显存的大模型版本,且适当冗余。
譬如,显存 8GB,选择尺寸为 5.2GB 的 deepseek-r1:8b。
这样,整个大模型都能被完整地读取到显存中。
若选择 9.0GB 的 deepseek-r1:14b 则显存不足,Ollama 会自动调用系统内存和 CPU 来协同工作,导致推理速度显著下降。
显卡的算力影响生成的速度,模型的参数决定生成的质量。
另外经实测,在 /api/generate 接口的 format 参数中设置返回的 JSON 格式,会缩短生成时间,降低生成质量,可能的原因是强制格式限制了词汇选择空间。
今天遇到一个向基于 .NET Framework 框架开发的 Web 网站 POST 数据响应 405 Method Not Allowed 的问题。
服务端接口地址是 https://***/api/abc/Default.aspx,
若请求 https://***/api/abc/Default.aspx 或 https://***/api/abc/ 则正常 ,
若请求 https://***/api/abc 就会出现这个问题。
原因可能是服务器可能返回 301 重定向到 https://***/api/abc/Default.aspx,
导致最终接口接受到的请求方法不是 POST 。
查询路径:阿里云控制台 - 费用与成本 - 订购订单 - 企业服务产品订单
查询网址:https://billing-cost.console.aliyun.com/order/list/enterprise/paid
个人整理,仅供参考。具体规格请以官方发布为准。
表格于 2025 年 11 月整理更新。
using System.Runtime.InteropServices;
/// <summary>
/// Windows 资源管理器的文件名排序规则(允许在非 Windows 平台使用)
/// <para>调用 Windows API(StrCmpLogicalW 函数)实现,仅在 Windows 平台环境中使用</para>
/// <para>基本规则如下:</para>
/// <para>将文件名中的数字作为数值来处理。</para>
/// <para>不区分大小写。</para>
/// <para>字符类型的大致优先级顺序为:特殊符号 → 数字 → 字母。</para>
/// <para>对于中文文件名,排序方式取决于系统的区域设置:拼音(默认)、笔画。</para>
/// </summary>
public class FileLogicalComparer : IComparer<string>
{
[DllImport("Shlwapi.dll", CharSet = CharSet.Unicode)]
private static extern int StrCmpLogicalW(string psz1, string psz2);
private static readonly bool IsWindows = RuntimeInformation.IsOSPlatform(OSPlatform.Windows);
public int Compare(string? x, string? y)
{
// 处理 null 值情况
if (x == null && y == null) return 0;
if (x == null) return -1;
if (y == null) return 1;
try
{
if (IsWindows)
{
// Windows 平台:使用原生 API
return StrCmpLogicalW(x, y);
}
else
{
// 非 Windows 平台:使用 C# 实现的回退方案
return NaturalCompareFallback(x, y);
}
}
catch (Exception) // 捕获 DllNotFound、EntryPointNotFoundException 等异常
{
// 异常时使用默认的字符串比较器
return string.Compare(x, y, StringComparison.Ordinal);
}
}
/// <summary>
/// C# 实现的自然排序回退方案(代码来自 AI,未测试!)
/// </summary>
private static int NaturalCompareFallback(string x, string y)
{
if (x == y) return 0;
int i = 0, j = 0;
while (i < x.Length && j < y.Length)
{
if (char.IsDigit(x[i]) && char.IsDigit(y[j]))
{
// 提取连续数字并进行数值比较
string num1 = ExtractNumber(x, ref i);
string num2 = ExtractNumber(y, ref j);
if (long.TryParse(num1, out long n1) && long.TryParse(num2, out long n2))
{
if (n1 != n2)
return n1.CompareTo(n2);
}
else
{
// 解析失败时按字符串比较
int strCompare = string.Compare(num1, num2, StringComparison.Ordinal);
if (strCompare != 0)
return strCompare;
}
}
else
{
// 非数字字符直接比较
if (x[i] != y[j])
return x[i].CompareTo(y[j]);
i++;
j++;
}
}
return x.Length.CompareTo(y.Length);
}
/// <summary>
/// 从字符串中提取连续的数字序列
/// </summary>
private static string ExtractNumber(string str, ref int index)
{
int start = index;
while (index < str.Length && char.IsDigit(str[index]))
{
index++;
}
return str.Substring(start, index - start);
}
}
一、安装 Ollama
从官网下载安装 Ollama。
查看版本号:
ollama --version二、在 shell 中安装和运行模型
在 Models 中选择一个你想部署的模型,复制安装命令,并在终端中执行。
官方建议:应该至少有 8 GB 的 RAM 来运行 7b 版本,16 GB 的 RAM 来运行 13b 版本,32 GB 的 RAM 来运行 33b 版本。
本文以 deepseek-r1:7b 为例。
下载模型
ollama pull deepseek-r1:7bTip: 下载即将完成时速度可能会变得非常慢,只要按 Ctrl+C,再重新执行一次命令,就会继续正常下载。
显示模型信息
ollama show deepseek-r1:7b运行模型(一次性响应)
ollama run deepseek-r1:7b "写一首诗"运行模型(进入聊天模式)
ollama run deepseek-r1:7b结束当前会话
/bye列出所有模型
ollama list列出当前加载的模型
ollama ps停止当前正在运行的模型
ollama stop deepseek-r1:7b删除一个模型
ollama rm deepseek-r1:7b三、使用 REST API 调用模型
修改端口
ollama serve --port 11434/api/generate 接口:生成一次性响应
curl http://localhost:11434/api/generate -d '{
"model": "deepseek-r1:7b",
"prompt":"为什么天空是蓝色的?"
}'/api/chat 接口:与模型聊天
curl http://localhost:11434/api/chat -d '{
"model": "deepseek-r1:7b",
"messages": [
{ "role": "user", "content": "你好呀!" }
]
}'四、在 .NET 中调用
1、直接 HTTP 调用(基础方案)
创建 HttpClient,使用 PostAsJsonAsync 请求,使用 ReadFromJsonAsync 读取结果。
2、使用 OllamaSharp 库(推荐方案)
创建 OllamaApiClient,使用 SelectedModel 设置模型,使用 GenerateAsync 获得结果。或创建对话 ollama.Chat(),并 Send 内容。
3、.NET Aspire 集成(企业级方案)
适合微服务架构,结合容器化部署。
“OllamaSharp 库”和“.NET Aspire 集成”两种方案怎么选?
OllamaSharp 库:定位轻量级模型交互 SDK,适用于独立应用、微服务中的 AI 组件等场景,技术复度低,支持模型对话/生成/管理、流式响应、多模态支持,需自行实现监控、熔断。
.NET Aspire 集成:定位企业级云原生 AI 服务编排框架,适用于多服务协同的分布式系统,技术复度高,支持服务编排、健康检查、弹性伸缩、混合云部署,内置可观测性仪表盘、自动故障转移。
决策建议:初创项目用 OllamaSharp 快速试错,用户量破千后通过 Aspire 重构。两者并非互斥,可在 Aspire 中封装 OllamaSharp 客户端,兼顾灵活性与运维能力。


