更新于 2026.4.3,仅供参考,不构成选购建议。本文只测了我想用的一些模型, 并且挑选的都是价格落在可接受区间内且模型质量预期不错的 router/group/model, 不代表所有可选项.

motivation: Anthropic 和 OpenAI 近期(2026.3)都大面积封过号, Anyrouter 在限制用量. 故尝试寻找稳定商业节点. 主要是比较便宜的节点, 云雾这种企业级 Router 不予考虑(穹轨笨课生去世)

关于测试:

  • Claude:
    • 标准: 用过/通过 hvoy.ai 测试
    • 录入原则: 从低价分组开始逐渐升高倍率, 并测试真实性, 测出 1 保真的模型为止.
    • 本地测试后发现阉割较重的(比如一些缓存较小的 antigravity 逆向)删去.
  • Codex: 多数只看了价格, 有状态面板的额外看了下死活.
  • 国产模型: 只保留了倍率低于 x0.5 的
  • 看起来亖得比较透的分组也不尝试去测, 虽然为了省钱, 但是用一半寄掉还是挺折磨的.
  • Quality 搞点 Tier List, 夯 > 不赖 > NPC

1 PayGo

还在测试的: CodexForMe, Cubence, DawCode, 米醋AI, Sparkcode

看着不想用/用过后不想用的: GPTGOD, IkunCode, Packycode, Rightcode, Yescode, Yuegle


Cubence

Model(Group)InputOutputWriteReadQualityother
Claude Sonnet 4.6(Max)4.522.55.6250.45不赖好用但贵
Claude Opus 4.6(Max)7.532.59.3750.75不赖好用但贵
Gemini 3.1 Pro1.27.2-0.12?

GPT 封控后价格有变, 不太能接受. 价格整体不便宜…好友邀请返回好友消费量的 10%.


DawCode

Model(Group)InputOutputWriteReadQualityother
Claude Sonnet 4.6(cc-tehui-pro-max)2.713.5-0.27不赖能用
Claude Opus 4.6(cc-tehui-pro-max)4.522.55.6250.45不赖能用
GPT 5.3 Codex(codex-stu)0.352.816-0.035?
GPT 5.4(codex-stu)0.53--?

Gemini 价格并无亮点. 充值优惠力度一般, 结合套餐还不错(套餐开销/额度从 188¥/10x30$ 到 1150¥/80x30$ 不等, 也就是 6.3-4.7 折, 但基础价 188 还是有点哈人)


发现AI

Model(Group)InputOutputWriteReadQualityother
Claude Sonnet 4.6(反重力cc)1.892.250.18能用
Claude Opus 4.6(反重力cc)3153.750.3能用
GPT 5.4(Codex福利)0.251.500.025怪好用的

价格低到离谱但是异常好用…这个一定要加群🤔, 经常会有变动.


米醋AI

Model(Group)InputOutputWriteReadQualityother
GLM 5(vip4)0.180.75-0.036能用
K 2.5(vip4)0.63.15-0.105能用

优质 Claude 分组中价格最低的也很贵, 就不写了. Codex/Gemini 价格并无亮点. vip4 仅 Alma 能用, 不能通过 Anthropic Messages API Proxy 给 Claude Code 用(坏😡)


Sparkcode

Model(Group)InputOutputWriteReadQualityother
Claude Sonnet 4.6(claude code)315--不赖能用
Claude Opus 4.6(claude code)525--不赖能用

Gemini, GLM 和 Kimi 价格较高. 充值倒是不少优惠力度. 7/8折(140¥ /200$ 或者 80¥/100$), 这么看的话价格还不错. 月卡优惠力度看起来更大一点, 考虑 6 折月卡的话搞不好是目前保真 Opus 里最便宜的, 不过我还是习惯次付(不打折也不赖)

2 subscription


CodexForMe

  • 49.5¥: 额度 60$/d

3 工具推荐

CLI 工具感觉有 Claude Code/Codex/Gemini CLI 就差不多够了🤔. 目前自己没什么胆量跑 Claw, 工作机器就一台, 还没有 Time Machine.

Kilocode 也不是很感兴趣, 25 年下半年的时候开始用的 Zed, 现在也有 ACP 功能了, LSP 支持也好了很多, 除非写 Notebook/TeX 否则不想用回 VS Code (TeX 好慢…看看什么时候换用 Typst)

最近在用 Alma, 感觉各种功能都挺好的, 就不意义列举了. Alma 还在起步阶段, 更新比较频繁, 可以观望一下再考虑要不要用.

  • Alma 有一个毒点是 Tool Model 要求响应快/工具准/输出短, 网络要求高, 对模型要求也比较难搞(现在谁还买这种便宜 API).
  • SiliconFlow 的 API 试了很久只有 GLM-4.5Air/GLM-4-32B/GLM-4-9B 能用, 最后用了 4.5Air , 因为 9B 速度太慢了.
  • GLM-4-9B 的 Tool Call 似乎没有 4.5Air 准确, 配合得较好的 Chat Model 只有 GLM-5、Deepseek V3.2 和 Gemini-3/3.1 Pro.
  • M2.7 不太能用, K2.5 偶有问题, 大概是 Tool Model 的问题(?

Tool Model 还很脆弱, 上次 GLM-4.5Air 用一半余额没了, 结果工具调用功能整个坏掉了, 最后解决方案是

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
1. 换 tool model → 新 thread 测试
   ├── 恢复 → 原 tool model 质量问题,换掉即可
   └── 未恢复 ↓

2. 检查 SiliconFlow 余额(siliconflow.cn → 账户)
   ├── 欠费 → 充值,再测试
   └── 余额正常 ↓

3. 禁用所有 MCP → 重启 Alma → 测试
   cp ~/.config/alma/mcp.json ~/.config/alma/mcp.json.bak
   echo '{"mcpServers":{}}' > ~/.config/alma/mcp.json
   ├── 恢复 → 逐一恢复 MCP 找出 hang 的那个(Fetch → Context7 → GitHub)
   └── 未恢复 ↓

4. 清 Electron cache → 重启
   pkill -9 -f "Alma"
   rm -rf ~/Library/Application\ Support/alma/Cache
   rm -rf ~/Library/Application\ Support/alma/Code\ Cache
   rm -rf ~/Library/Application\ Support/alma/GPUCache
   rm -rf ~/Library/Application\ Support/alma/Session\ Storage
   rm -rf ~/Library/Application\ Support/alma/Service\ Worker
   rm -rf ~/Library/Application\ Support/alma/DawnGraphiteCache
   rm -rf ~/Library/Application\ Support/alma/DawnWebGPUCache
   open /Applications/Alma.app
   ├── 恢复 → Electron 状态损坏(通常由欠费中断触发)
   └── 未恢复 ↓

5. 清 plugin cache → 重启
   pkill -9 -f "Alma"
   rm -rf ~/Library/Application\ Support/alma/plugin-cache
   rm -rf ~/Library/Application\ Support/alma/plugin-storage
   open /Applications/Alma.app

Tool Call 崩掉的原因可能有很多种…目前靠这个流程大部分能恢复.