OpenClaw 分身泛滥,挑花眼了?
弃坑 pi-mono, 优化是陷阱, 能用才是王炸
pi-mono,我弃坑了。 不是它不行,是我在反复折腾中,把自己绕进去了。 折腾了一周,本想基于 pi 搭个精简版 AI 代理,结果架构重构了 N 次,参考了 OpenClaw、ZeroClaw 一圈分身,代码越写越复杂,最后抬头一看——这不就是另一个 OpenClaw 吗?省 token、省内存、抠速度……全是工程师自嗨。...
pi-mono,我弃坑了。 不是它不行,是我在反复折腾中,把自己绕进去了。 折腾了一周,本想基于 pi 搭个精简版 AI 代理,结果架构重构了 N 次,参考了 OpenClaw、ZeroClaw 一圈分身,代码越写越复杂,最后抬头一看——这不就是另一个 OpenClaw 吗?省 token、省内存、抠速度……全是工程师自嗨。...
赶在除夕夜前,上线了我的第3个AI小轮子应用:https://send.versun.me 一个极简的匿名文件快递站。 文件拖进去,拿取件码,对方输入就能下载。24小时后自动销毁,不留痕迹。 为什么做? 之前传个临时文件要么注册账号(烦),要么永久留存(怕),要么用微信,我就想要一个像寄快递一样简单的东西:给码,取货,自动消失。 怎么做? 依旧全程 Vibe Coding 搞定:...
OpenClaw 分身泛滥,挑花眼了?
中转站订阅到期一个,压力瞬间-1,还有一个月底也要拜拜咯
后续打算使用一个国内模型和一个国外模型,暂定 Kimi 和 OpenAI (感谢 @InsForge_dev 赞助),保持简洁,减少压力。。。
订阅要到期了,额度用不完,准备搞个模型PK赛参赛选手:GLM-5, MiniMax-2.5, Kimi-2.5, GPT-5.3-Codex, Claude-Opus-4.6让它们写啥程序能测出真实水平?除了贪吃蛇。。。
分享下这次的测试结果,结果有点魔幻,估计评论区又要锤我是水军了……
测试汇总:coding-model-comparison.versun.me
任务: 单页面力导向图,随机 100 个数据点,带基础交互功能。
完整复现包(提示词、生成结果、编码录屏)都扔 GitHub 了
TLDR:
完成度最高:GLM 5
速度最高:Opus 4.6
综合排名:GLM 5 > Opus 4.6 = GPT 5.3 Codex = Kimi 2.5 > MiniMax 2.5
两个最意外的:
GLM 5 和 MiniMax 2.5,glm 5 一贯是宣传的非常牛批,实际使用非常拉胯,想不到这次测试竟然表现最好,然后我最看好的 MiniMax 2.5 竟然表现最拉胯。。。。我甚至去调取了请求日志,确实是 minimax 2.5。。。
⚠️ 防杠补丁:本次测试纯属娱乐,仅针对当前提示词和模型版本有效。博主无任何厂商立场,也没收 GLM 一分钱
OpenAI 发布了新的编程模型 GPT-5.3-Codex-Spark,我测试了下,速度真多快好多!视频发推上了。
左边是5.3-codex,右边是5.3-codex-spark
也是做贪吃蛇,不过加了AI
提示词:
做个"贪吃蛇大作战",你控制一条,JS再跑一条自动寻路的AI蛇,AI要会抢食物、避障、偶尔犯傻(太强的AI没意思)。
结果:
速度:spark远胜
质量:5.3-codex一次成功,spark两次成功
我突然发现,我们玩 OpenClaw 玩 AI 助理的思路是错的啊,比如"手动新建会话省 token"这个方法,这是用程序思维解决问题,治标不治本啊。
既然我们要让 AI 像人一样工作,就该让 AI 学会人的思维方式,而不是让人迁就 AI 的局限。
所以我给 Pi 助理写了一个 skill:自动判断话题是该延续,还是开启新对话,话题切换时自动判断是否要保存上下文,不用手动 /new,对话流转交给 AI 自己决定。
Skill 内容参考:clip.versun.me/p/qTdyXmcC
单单只有 skill 并不能100%保证 AI 能遵守,所以你可以在系统提示词里面强制让 AI 读取这个 skill,或者你的记忆系统和我的一样有重要程度指标,则可以添加为最重要的记忆,这样每次 AI 读取记忆都能读到