上周五,我正打算叫还在上大三的弟弟出来见面吃个饭,结果这小子给我发了个哭脸表情包:
哥,不行了,周一组会啥都没准备,导师又要说我看论文太少了。
我心想,你小子天天在实验室摸鱼,现在知道急了?
于是我索性一个电话打了过去,聊了下才知道他是真的被论文搞崩溃了。
要知道,随着生成式 AI 爆发以来,每天 ArXiv 上新论文就从此一发不可收拾,每天都跟下雪似的到处飘。
这也许可以说是大家更卷了,或者说 AI 让大家的研究搞得更快了。但在我看来,最主要的原因还是……写篇论文太容易了,甚至一个 prompt 扔给随意一个 Deep research 就可以写出来一篇。
而就在上周,ArXiv 也终于扛不住了,直接来了个狠的:综述和立场论文不再随便收了。
从现在开始,想在 CS 分类下发综述?先得被正式期刊或会议接收,完成同行评审再说。连 workshop 都不行,因为 ArXiv 觉得「workshop 的评审达不到传统同行评审的严谨标准」。
这个新规一出,整个学术圈都炸锅了。
要知道,自从 ChatGPT 问世以来,ArXiv 每月收到的综述类论文从几十篇暴涨到几百篇,很多还是 AI 直接生成的「水文」,甚至还有在论文中进行 Prompt 攻击的玩法。志愿者审核团队已经被这些「论文」折磨得不成人形了。
有研究者甚至指出:「以前是 Publish or Perish(发表还是灭亡),现在变成了 Perish by Papers(被论文淹没而灭亡)。」
而作为最幸福的时代,也是最苦的时代的学生,我弟表示:论文实在是太多了,真的是要看花眼了……
好像每一篇都有点东西,又都没啥东西。不知道该读哪篇,好不容易挑了几篇,读到一半发现跟自己方向差了十万八千里……
最惨的是,导师还总问:“最近那篇 XXX 你看了吗?”
他每次都只能尴尬地摇头。
看他确实挺惨的,我决定帮他一把。
给论文装上「推荐算法」
论文和新闻一样,已经从专业的媒体时代到了现在的自媒体时代。
那,自然就需要推荐算法。
但其实,推荐算法还需要个内容冷启动的过程,在我看来这效率还是太低了。
于是,我决定给他做一个更厉害的,就是基于让 AI 主动的为他进行论文挑选。
所以这周末,我就在家给他捣鼓了一个出来。
(原来想着可能要花很久,但过程比我想象的要顺利多了)
除了必备工具 Claude Code,我还用了科大讯飞最近开源的星辰 Agent 社区版 :Astron Agent。
选它主要是因为部署简单,诚意比coze 多,性能比dify 好,上手比 n8n 容易,还比 OpenAI 更开放已经开源了,文档也写得清楚,我之前在它刚放出来时就有简单跑过一次。
于是,我先用 Docker Compose 把环境跑起来:
git clone https://github.com/iflytek/astron-agent.gitcd docker/astronAgentcp .env.example .envvim .env # 配置一下 API Keydocker compose -f docker-compose-with-auth.yaml up -d
很快,服务就起来了:
我的想法是,给他做一个像刷短视频一样刷论文的工具。
就是那种会越刷越上瘾,越刷越精准的推荐系统。你懂的。
而我设想的整个系统的逻辑是这样的:
研究生输入研究方向后,每天会收到 5 篇论文推荐。看到感兴趣的就点个赞或者收藏,不感兴趣的直接划走。系 统通过数据库 MCP 协议把这些行为记录下来,传回给 Agent 分析,每次刷完都会更新一次偏好模型。
这里我还有个设计:Agent 会悄悄学习你的阅读口味。如果你总是跳过纯理论的论文,它就会推荐更多实验性的内容。你喜欢看 Transformer 相关的?就会给出模型架构相关的改进论文。
然后就是搭建工作流。Astron 的可视化编辑器还挺好用的,拖拖拽拽就能把流程串起来:
-
开始节点 → 接收用户输入的研究方向
-
Agent 节点 → 分析用户画像,生成搜索策略
-
知识库节点 → 匹配历史偏好,计算推荐分数
-
代码节点 → 调用 ArXiv API,拉取最新论文
-
LLM 节点 → 生成论文摘要和推荐理由
-
结束节点 → 输出推荐卡片
接下来,我就开始琢磨怎么把它和前端接起来。
总不能让弟弟对着黑框框看日志吧?毕竟我可是想让他能像刷短视频一样刷论文。
为了节省点时间(想睡觉了)我干脆直接在 Claude Code 里把整套前端界面做出来。
把卡片组件、交互动画、收藏逻辑全都拖进去,再加上一点 JS 脚本,就成了一个能滑动、能点赞、还能保存的论文推荐界面。
前端负责展示,后端的 Flask 服务负责和Astron Agent 通信——接收研究方向、调用工作流、拿到推荐结果,再返回给前端渲染。整个过程就像在刷短视频,又像在刷 Tinder,只不过这里其实是一篇篇的学术论文。
而点赞收藏的数据也能被同步记录,在 程序里切个 Tab 就能看到「今天又水了哪些论文」,相当于学术版的「浏览历史」,不过这个你敢给导师看,也敢给女朋友看。
值得一提的是,开发过程踩了个小坑:ArXiv API 有频率限制,一开始请求太频繁被封了 IP。后来我加了延迟和缓存机制后才恢复正常。
意外发现的「杀手锏」
过程中我发现,Astron Agent 有个特别牛的功能:原生 RPA 集成。
这是什么概念呢?
很多学校的文献系统还停留在上个世纪,界面丑得让人怀疑人生,还没有 API。以前下载论文得像考古一样:登录 VPN(密码忘了重置半天)、进入图书馆系统(界面加载 3 分钟)、搜索文献(搜索框在哪?)、一篇篇点击下载(下到一半断网了)。

现在有了 RPA,Agent 可以帮你完成这套「仪式」。它会自动登录、搜索、下载、整理,还贴心地按「年份-会议-标题」重命名。就差帮你读了。
这个功能 Dify 和 n8n 都没有原生支持,得调用外部服务,配置起来非常麻烦。
选型考虑
在选择 Astron Agent 之前,我也对比了其他几个常见平台。
Dify 属于豪华(臃肿)型,27+ 种节点类型,支持 33 个向量数据库,还支持 27 种语言,国际化做得可以说比联合国还全。GitHub 上有 5 万多的 star,社区也是很热闹。
不过, Dify 全是 Python 写的,性能方面……确实有些堪忧。甚至逻辑上也有各种问题,比如我看到调用历史里有个搜索功能,于是便搜了一下,结果服务直接卡死了……最后动用了重启大法才得以恢复。
n8n 的优势是集成多,几百个现成的集成,界面也漂亮得能让人忍不住多看两眼。
但 Astron Agent 的独特优势在于:
-
RPA 原生集成(刚才说过了,这个是真的香)
-
中文场景优化
毕竟是讯飞出品,中文 NLP 能力明显更强。特别是处理中文论文摘要时,Astron的效果比其他平台好不少。
-
Token 智能管理
有个 Chat History v2 功能,会自动感知 Token 使用量,避免上下文太长导致 AI「失忆」。这个细节对于需要长对话的场景特别有用。
-
真正的 Apache 2.0
完全开源,没有任何商业限制。不像某些项目,开源版阉割一堆功能。
当然,如果你要做复杂的 RAG 应用,Dify 的向量数据库支持确实更全面。如果需要大量第三方集成,n8n 会更方便。
选哪个,还是看具体需求,因场景而异了。
老弟的反馈
上周三,弟弟给我发消息:
神了,哥!我老板今天竟然说我今天组会的选题还不错。
看来这工具是真的帮到他了。不过这小子又开始得寸进尺:
「能不能再加个功能?自动生成文献综述那种。」
我:「GitHub 地址给你了,自己动手。」
然后甩给他链接:https://github.com/iflytek/astron-agent
没想到半小时后,他甚至还提了个 issue:https://github.com/iflytek/astron-agent/issues/507,看来这小子也是真上道了,手速也挺快。
开源一起玩
这个工具我已经整理好开源了:https://github.com/qwwzdyj/Xfind(安卓端+html+workflow)
核心代码其实不多,主要是工作流配置和一些数据处理逻辑。感兴趣的可以直接 git clone 下来按自己的喜好随意改,也欢迎提 pr。
比如我想的几个可以改进的点:
-
加入更多论文源(现在只有 ArXiv)
-
支持团队协作(实验室共享论文池)
-
论文关系图谱可视化
-
自动生成周报月报
如果你也被论文淹没,或者有其他信息筛选的需求,这个思路都能用。核心就是:让 AI 学习你的偏好,而不是你去适应 AI。
对了,Astron Agent 团队如果看到这篇文章,有个小建议:能不能加个 Web Clipper 功能?现在只能处理论文,如果能把知乎、公众号的优质内容也纳入进来就更完美了。
最后,工具只是工具,真正的研究还是要靠自己。
但如果工具能帮你节省时间,让你专注在真正重要的事情上,那就是好工具。
P.S. 弟弟昨天又来问:
哥,能不能让 AI 直接帮我写论文?
我只回了三个字:
你说呢?
👇
👇
👇
另外,我还用AI 进行了全网的AI 资讯采集,并用AI 进行挑选、审核、翻译、总结后发布到《AGI Hunt》的实时AI 快讯群中。
这是个只有信息、没有感情的 AI 资讯信息流(不是推荐流、不卖课、不讲道理、不教你做人、只提供信息、希望能为你节省一些时间)欢迎加入!
也欢迎加群和10000+群友交流。

