Coding Plan使用体验分享
本文仅代表作者个人观点, 所有套餐均自费, 所有内容仅来自于实际体验, 并没有定量统计和分析
GLM Coding Plan
GLM-5/GLM-5.1/GLM-5-Turbo是国内最强模型, 个人体验下来不如Opus 4.6但是比Sonnet 4.6要强, 同时价格最低(涨价前), 现在价格和其它家差不多, 去年年底我购买的最低配套餐, 购买时只花了120元/年
缺点:
- 新用户购买会有一个周限额, 老用户没有这个限制
- 算力不够, 经常报(
该模型当前访问量过大, 请您稍后再试), 遇见时建议从上述三个模型中切换使用。
如果解决了算力问题, 应该是首推
Kimi Code
能力上感觉和GLM-5差不多, 优势是支持多模态, 最低配价格和涨价后的GLM差不多, 但是用量少非常多, 个人体验都是最低配的情况下5小时窗口额度只有GLM用量的20%左右, 周额度比免费的Codex周限额用量多一点
个人不推荐 Kimi K2.5 能力上没有比GLM5强大很多, 但是用量差距太大
缺点:
- 用量非常少, 几十分钟可以用完五小时额度, 用满3次五小时限额, 周限额也就满了(最低配)
MiniMax Coding Plan
国产三家模型中能力最差的, 但是价格上最低的, 和GLM一样, 老用户没有周限额, 个人感觉MiniMax 2.7 比GLM-5/Kimi K2.5差一截, 例如很少主动的调用SKill来完成任务, 遇见稍微模糊的需求总是会缺少边界考虑
适合SubAgent模型, 用主模型做统筹和审核的场景下应该还不错, 但是不适合用来做主力模型, 如果使用更更好的提示词约束可能会增强能力, 但是相同提示词情况下不如GLM-5和Kimi K2.5
个人不推荐
缺点:
- 能力比
GLM-5和Kimi K2.5差
火山云 Coding Plan
只使用了其中的Kimi K2.5模型, 在最初还可以有50t/s的速度, 最近(2026年3月31日)速度已经掉到了25t/s, 有时甚至18t/s, 但是用量还可以。
缺点:
Kimi K2.5速度慢
百度智能云 Coding Plan
只使用了其中的GLM-5模型, 当时速度是最快的, 三月初的适合速度可以到达70t/s, 但是最近速度变慢(40t/s), 并且频繁出现Coding Plan 套餐请求频率过高,请稍后再试。。 比GLM官方的GLM-5上下文更小, 猜测是量化模型, 但是用量还可以。
缺点:
- 限流:
Coding Plan 套餐请求频率过高,请稍后再试。 GLM-5上下文比官方更小
Claude Code
考虑过购买,实际未购买, 易封号
Codex
考虑过购买,实际未购买, 需要海外信用卡
不过使用过免费账号的Codex, GPT5.4能力很强, 但是全是黑话, 根本看不懂在说什么
Antigravity
考虑过购买,但是我的谷歌账号是港区, 不让买
Github Copilot
四年Github Copilot Pro订阅用户, 前几年无限量使用很爽, 最近才改为每月300次请求。
网上用这个人很少, 实际上Github Copilot已经支持Skills, MCP, SubAgent等功能, 现在是我的主力工具, 上述的Coding Plan套餐我都是通过AI Chat Models插件接入使用。
值得注意的是Github Copilot的300次并不是300次HTTP调用, 而是300次询问, 也就是说在中途LLM调用工具二次请求都不是计费的, 因此一次指挥后AI干的活越多越划算。这个仓库GacUI的流程我认为是使用Github Copilot的正确方式, 据作者所说他一次下发指令AI可以工作一个小时不停止。
在得知上述正确使用方式后,我尝试升级Github Copilot Pro+但是发现已经取消了年付的方案, 猜测后续会修改计费方案甚至涨价。
同时这也是使用Gemini 3.1 Pro, Opus 4.6和GPT 5.4的一种途径, 因为Github Copilot支持国内Visa(招行)信用卡付款, 然后挂一个美国节点即可使用Opus模型而无需担心封号。