大数跨境

逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话

逼AI当山顶洞人!Claude防话痨插件爆火,网友:受够了AI废话 新智元
2026-04-06
25

新智元报道

编辑:元宇

【新智元导读】一款让AI采用原始人说话风格的插件在Hacker News引发热议,GitHub星标突破2万。该插件通过精简冠词、客套用语等非必要表述,宣称可减少75%输出token。其爆火反映出开发者对AI冗余输出的普遍不满。

近日,名为「caveman」(穴居人)的Claude Code插件在开发者社区引发广泛关注。GitHub数据显示,该项目star数从数十激增至2万+,呈现爆发式增长曲线。

该项目核心目标直指行业痛点:消除AI输出中的冗余信息。当AI应答从「当然!我很乐意帮您」简化为「Bug在认证中间件。Token过期判断错误,改这里:」,开发者节省的不仅是75% token,更是宝贵的时间成本。

超压缩通信模式技术解析

通过解析核心文件SKILL.md可见,该插件本质是优化输出风格的系统提示词,包含三档压缩强度:

  • lite档:去除填充词,保留完整句式
  • full档:压缩表达,使用短句与技术缩写
  • ultra档:极致精简,采用符号化表达(如「DB」「auth」)

其规则明确要求:保留技术术语与代码块;删减冠词、客套用语;优先使用短词替代冗长表述。例如将「连接池会复用已打开的数据库连接...」简化为「连接池=复用DB连接→高并发更快」。

需特别说明的是,该方案仅压缩可见输出文本,不影响后台推理消耗的hidden tokens,且加载插件本身会占用额外上下文资源。

token节省效果实证分析

项目README显示测试中token节省率达22%-87%(平均65%)。但作者在Hacker News澄清:此为初步测试结果,非严格基准。

学术研究为简洁表达提供支撑:2024年论文证实简洁推理链可使模型输出长度降低48.7%,解题能力基本稳定;2026年研究更指出简洁约束可能提升26%准确率。但需注意,这些结论不能直接等同于项目实际效果验证。

Claude插件生态加速成熟

caveman的走红依托于Anthropic完善的插件体系。开发者仅需在.claude-plugin目录下创建SKILL.md文件,即可定义技能触发逻辑与输出规范:

该机制允许通过轻量级提示词优化特定场景表现,标志着Claude Code生态正从基础功能向精细化工具演进,类似早期VS Code扩展生态的发展路径。

开发者痛点催生效率革命

表面看是插件火爆,实质反映开发者对AI冗余输出的深度焦虑。社区高频抱怨包括:

「只需两行正则代码,却收到5段历史散文」

「求别再用 」,直接给方案就行」

「修改一个标点导致800行重输出,看着API余额骤降」

当开发者宁愿接受原始人式表达,也不愿支付冗余输出成本时,行业应当反思:为何主流AI尚未将「克制输出」作为基础能力?在算力竞争之外,优化输出效率才是提升用户体验的关键战场。

【声明】内容源于网络
0
0
新智元
智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
内容 15114
粉丝 0
新智元 智能+中国主平台,致力于推动中国从互联网+迈向智能+新纪元。重点关注人工智能、机器人等前沿领域发展,关注人机融合、人工智能和机器人革命对人类社会与文明进化的影响,领航中国新智能时代。
总阅读158.0k
粉丝0
内容15.1k