火遍全球的编程 Agent,居然出自 DeepSeek 美国迷弟之手?
故事的开始是这样的,一个叫 Hunter Bown 的开发者在五一发了条推特,宣传他做的开源项目 DeepSeek-TUI。
就像 Codex 之于 OpenAI,Claude Code 之于 Claude,DeepSeek-TUI,就是 Hunter 为 DeepSeek v4 量身打造的专属编程 Agent。
给项目打广告倒不稀奇,神奇的是,这位美国佬特意用 DeepSeek 把推文翻译成了中文,还在宣传之余求助中国网友,想要个微信号,加入中国 “ 鲸鱼兄弟 ” 们的群聊。。。

至于他为啥特意要用中文搞宣发,Hunter 的动机很简单:“ 我做的既然是 DeepSeek 项目,为什么要用英文宣传?” 要找同好,当然得去鲸鱼兄弟最多的地方。
所谓真诚是必杀技,不过如此。
于是在五一假期,热心的中国网友就像阿拉丁灯神一样,轻轻松松给 Hunter 搞定微信号,让他终于能和 “ 鲸鱼兄弟 ” 们快乐聊天。
同时,DeepSeek-TUI 也顺利冲上了 Github 热搜第一,成了 AI 圈最火的仔。

借着网友们铺好的东风,前排吃瓜的差评君坐不住了。这不就顺着网线,在 Stanley 和他的朋友们社群的帮助下,加到了 Hunter 本人,准备直接套套近乎。
而这一聊下来,差评君发现 DeepSeek-TUI 的爆火,可能并不是中国网友推动下的偶然。它的背后,是个带着一腔热血,正在用 AI 改写梦想与命运的普通人。
和现在很多 Vibe Coding 开发者一样,Hunter 并不是科班出身。
“ 我有两个音乐学位和一个 MBA,目前在法学院上学,但我就是突然对 Agent 和 Vibe coding 产生了极大的兴趣。” Hunter 本人非常热情健谈,不止给差评君解释了很多技术细节,也说了不少开发故事。
别看老哥编程不是专业的,项目经历那是相当丰富。在这个项目以前,他给 MiniMax 和英伟达 Nemotron 也做过类似的 Agent 工具;还调教过大模型的辩证思考能力;更离谱的,Hunter 甚至尝试把一些科研生肉,从论文变成大伙儿都能用的工具。。。
所以,有了这么多工程经验积累,DeepSeek-TUI 一经推出,品质有保障,大部分开发者对它的评价都不错。
界面清晰美观,使用流畅,叠加省钱 buff,甚至有人用它解决了 Claude Code 都没能解决的问题,还有人说它比 Claude Code 的输出准确率更高。
差评君也前去简单试用了一下,感觉确实挺好。
DeepSeek-TUI 会实时记录任务执行时长、上下文消耗、缓存命中率、token 使用总价等等,有种一切尽在掌握的安心感。
尤其在大型编程项目里,DeepSeek-TUI 表现相当稳定。比如差评君让它评价一下自己基于开源项目做的,训练机器人走路的几十万行大项目。
因为是成熟源码的二次开发,DeepSeek-TUI 一边夸了原项目结构清晰,模块划分合理,一边点名差评君自搓的部分有点代码质量问题。。。
有错就改,到了修复漏洞这一步,差评君也让 DeepSeek-TUI 直接上手试了试。
虽然咱没法做多严谨的压力测试,但它一口气修了 7 个 bug,改完了不仅没多出 14 个新 bug,甚至还能正常跑!
就凭这,在差评君这儿绝对算它完美通关了。
而 DeepSeek-TUI 之所以能表现得这么好,Hunter 表示,是因为它做的远远不止套壳那么简单,还专门围绕 DeepSeek V4 做了不少适配。
比如,DeepSeek-TUI 引入了 DeepSeek V4 的填空神技(Fill in Middle),让模型写代码的时候不用从头读到尾,直接在中间缺啥补啥,这个功能对修改已有 bug 尤其好用。
另外,利用 Chat Completions API,还可以把 DeepSeek V4 的长上下文和提示词缓存利用到极致。这样来个大任务,Agent 就能把之前看过的信息全记在脑子里,能让结果更准确,也更省 token。
Hunter 还提到,DeepSeek V4 有个很有意思的特点:上下文堆得越充分,它越容易进入超神状态。而对于几十上百万行代码的大工程来说,给足用户空间喂知识,让模型先看懂,后上手,可能远比 AI 一上来狂写新 bug 更重要。
不得不说,在实际使用中,差评君感觉 DeepSeek-TUI 和 Claude Code、Codex 的体验很接近,用起来非常舒适。
但做得太好,有时候也是一种麻烦。
可能是因为 DeepSeek-TUI 真有点东西,差评君看到社交媒体上,不少人在怀疑它是不是 Claude Code 源码泄露的产物。
对于这一点,Hunter 予以了坚决的否认。
“DeepSeek-TUI 早在 1 月就已经开始开发,主要基于我做过的 MiniMax 和 NeMoCode 项目,并没有使用 Claude Code 泄露代码。虽然我也出于好奇看过其中的记忆系统设计,但 DeepSeek-TUI 的主要参考对象其实是 Codex。”
说了这么多,难道 DeepSeek-TUI 就没什么缺点吗?
当然有。大伙儿反映最严重的问题之一,是 DeepSeek-TUI 的缓存命中率要比 Claude Code 低很多。
啥叫缓存命中率呢?简单来说,就是大模型思考过的东西,会被整理好放进缓存,下次问相关问题,就可以从仓库里面回手掏。能掏到的有用历史信息越多,越节省重新思考的 token,命中率越高。
有网友在完全相同的任务场景下,对 DeepSeek-TUI 和 Claude Code 进行了横向对比测试,发现前者的缓存命中率只有 50.8%,而 Claude Code 能达到 94.3%。
针对这个问题,Hunter 羞涩地嘿嘿一笑,“ 确实是我的锅。”
“ 当我听说 DeepSeek V4 可能会有 100 万上下文窗口的时候,我就对一个问题很感兴趣:一个模型虽然有这么长的上下文窗口,但到多少上下文之后,它的表现可能会开始下降?
所以我当时灵机一动,做了个上下文容量调节系统。大概是每隔 128K token,它就会让模型重新思考。
对我来说,有时候结果确实变好了。但对用户来说,就得花更多钱了。。。”
不过大伙儿别担心,目前 Hunter 已经修复了这个 bug。但可能因为提示词语言不同,微信群里,大家依然达不到他自测 90% 那么好的效果,后续还要继续靠社区反馈打磨。
直到现在,DeepSeek-TUI 的热度依然居高不下。五一后短短几天,GitHub 又暴涨上万颗星,可以说是彻底出圈了。
DeepSeek-TUI 也被官方翻牌,成了 DeepSeek 的推荐 Agent 之一。
对 Hunter 来说,这一切就像做梦一样。他自称只是一个敲字的人,和所有美国人一样在去年 1 月认识 DeepSeek,却在一夜之间成了 “ 鲸鱼兄弟 ”,创造了一个符号象征。
时至今日,差评君还经常在交流群里看到 Hunter 的身影。他在群里非常活跃,虽然语言不尽相通,也能和大家无痛交流模型使用经验,各种技术。
而随着中国开发者们不断涌入项目,他们也为 DeepSeek-TUI 带来了新的活力。每天睁眼就要面对几十个新 issue,Hunter 一边填坑,一边也有种作品被关注到的幸福。
说起中美开发者社区有没有什么差异,Hunter 表示其实在一些热门模型的评价和看法,技术细节的讨论上,两者很相似。
“ 但在美国开发者社区,有一个比较热门的概念,叫做超级工程师,也就是那些消耗最多 token 的人。很多时候我想,那也许就是我。”
谈到未来的计划,Hunter 依然充满激情。他想把 DeepSeek-TUI 从一个终端编程 Agent,升级成桌面端、移动端,人人都能用的 AI 工作台;通过 Flash / Pro 模型调度降低使用成本;除此之外,他还想探索更科幻的人机交互,用眼动和头动来控制电脑。
实际上,Hunter 是一个专业,又不专业的开发者。甚至到现在,他也搞不懂为什么 DeepSeek-TUI 在一些场景下会表现得那么好。项目里用的一些技术,他也是第一次接触学习。
但这不妨碍他从一个八竿子打不着的外行,变成全球爆款开源项目的创作者。
从某种程度上,Hunter 印证了,这的确是一个任何人都可以凭借创意和热情,实现梦想的年代。











