新智元报道
编辑:元宇
【新智元导读】一款让AI采用原始人说话风格的插件在Hacker News引发热议,GitHub星标突破2万。该插件通过精简冠词、客套用语等非必要表述,宣称可减少75%输出token。其爆火反映出开发者对AI冗余输出的普遍不满。
近日,名为「caveman」(穴居人)的Claude Code插件在开发者社区引发广泛关注。GitHub数据显示,该项目star数从数十激增至2万+,呈现爆发式增长曲线。
该项目核心目标直指行业痛点:消除AI输出中的冗余信息。当AI应答从「当然!我很乐意帮您」简化为「Bug在认证中间件。Token过期判断错误,改这里:」,开发者节省的不仅是75% token,更是宝贵的时间成本。
超压缩通信模式技术解析
通过解析核心文件SKILL.md可见,该插件本质是优化输出风格的系统提示词,包含三档压缩强度:
- lite档:去除填充词,保留完整句式
- full档:压缩表达,使用短句与技术缩写
- ultra档:极致精简,采用符号化表达(如「DB」「auth」)
其规则明确要求:保留技术术语与代码块;删减冠词、客套用语;优先使用短词替代冗长表述。例如将「连接池会复用已打开的数据库连接...」简化为「连接池=复用DB连接→高并发更快」。
需特别说明的是,该方案仅压缩可见输出文本,不影响后台推理消耗的hidden tokens,且加载插件本身会占用额外上下文资源。
token节省效果实证分析
项目README显示测试中token节省率达22%-87%(平均65%)。但作者在Hacker News澄清:此为初步测试结果,非严格基准。
学术研究为简洁表达提供支撑:2024年论文证实简洁推理链可使模型输出长度降低48.7%,解题能力基本稳定;2026年研究更指出简洁约束可能提升26%准确率。但需注意,这些结论不能直接等同于项目实际效果验证。
Claude插件生态加速成熟
caveman的走红依托于Anthropic完善的插件体系。开发者仅需在.claude-plugin目录下创建SKILL.md文件,即可定义技能触发逻辑与输出规范:
该机制允许通过轻量级提示词优化特定场景表现,标志着Claude Code生态正从基础功能向精细化工具演进,类似早期VS Code扩展生态的发展路径。
开发者痛点催生效率革命
表面看是插件火爆,实质反映开发者对AI冗余输出的深度焦虑。社区高频抱怨包括:
「只需两行正则代码,却收到5段历史散文」
「求别再用
「修改一个标点导致800行重输出,看着API余额骤降」
当开发者宁愿接受原始人式表达,也不愿支付冗余输出成本时,行业应当反思:为何主流AI尚未将「克制输出」作为基础能力?在算力竞争之外,优化输出效率才是提升用户体验的关键战场。

