hi,我是绛烨。
最近也在玩小龙虾,参加过几场小龙虾的活动,好多人把小龙虾用到了实处。
你算过没,每天刷 AI 新闻、刷公众号和小红书要花多久?
看那些被算法推荐的东西,浪费了太多时间。
一天 2 小时,一年就是 730 小时——整整 30 天。
最扎心的是,这些时间大多是在被动投喂:算法推什么,你看什么。
你没有主动权,没有筛选的权利。
为了夺回主动权,我最近一直在玩 OpenClaw(昵称小龙虾)。
这是一个让自媒体人以及普通人实现信息自由,腾出时间摸鱼的神器。
一、OpenClaw 是什么?
简单说:它是你能「聊天」的个人AI助手,而且真的能干活。
不是那种你问一句它答一句的聊天机器人,而是你给它一个指令,
它就能:
- ✅ 每天早上9点,自动汇总AI行业新闻推送到飞书
- ✅ 每天下午5点,把你关注的Reddit高赞帖子整理好发你
- ✅ 每周日,精选最值得看的5-10条技术动态
- ✅ 自动分析你的Twitter账号,告诉你什么内容更容易火
它就像一个7×24小时工作的信息管家,只负责一件事:把你真正需要的信息,在正确的时间,送到正确的地方。
而且最香的是——开源免费,你可以部署在你的备用电脑,数据存在本地,不用担心隐私泄露。
当然也可以部署在云端,自行选择就好。
二、你需要安装哪些Skill?
OpenClaw的强大之处在于它的Skill(技能)系统。你可以把Skill理解为「功能插件」,装上不同的Skill,OpenClaw就能做不同的事。
对于「信息自动化」这个场景,你需要了解以下几类Skill:
1️⃣ 内置Skill(无需安装,开箱即用)
| Skill名称 | 功能说明 | 在这6个workflow中的作用 |
| message | 发送消息到各种渠道 | 把整理好的内容推送到飞书 |
| cron.jobs | 定时任务调度 | 让workflow在固定时间自动运行 |
| web_search | 网页搜索 | 抓取最新资讯、搜索关键词 |
| browser | 浏览器操作 | 访问网页、抓取动态内容 |
| 邮件收发 | 读取newsletter邮件(可选) |
2️⃣ 需要安装的Skill(按workflow按需安装)
| Skill名称 | 功能说明 |
| reddit-readonly | 只读方式抓取Reddit帖子 |
| youtube-full | 拉取YouTube视频信息和转录 |
| tech-news-digest | 多源新闻聚合、去重、评分 |
| bird | 读取Twitter/X账号内容 |
💡 建议:先安装你需要的Skill,再配置对应的key。大部分Skill都是一键安装,不用复杂配置。
三、怎么用的:场景、用途、配置
下面这6个场景,是我从awesome-openclaw-zh项目中精选的、最适合中文用户的配置。
有了这些强大的 Skill 之后,我们该如何把它们组合成真正的战斗力呢?接下来,我带你看看我每天雷打不动的 6 个实战自动化场景。
每个场景我都会说明:
- 它是干嘛的(解决什么问题)
- 适合谁用(什么场景)
- 怎么配置(具体步骤)
- 实际效果(我的使用体验)
建议:先选一个最感兴趣的试试,跑通后再逐步叠加。
📰 No.1: 每日AI行业日报
每天早上自动给你生成一份「AI行业晨报」,包括技术突破、产品发布、行业趋势、研究论文4个板块。
不用你手动去翻各种网站以及公众号,到点自动推送到飞书。
👤 适合如下人群使用:
- AI从业者(算法、产品、运营)
- 需要跟进技术趋势的研发同学
- 不想被信息洪流淹没,只想看重点的人
只需一个bash脚本 + crontab定时任务:
#!/bin/bash
# 每天9点执行:0 9 * * * ~/daily-report.sh
PROMPT="请生成今天的AI行业日报,包括:
1. 最新的AI技术动态(3-5条)
2. 重要的产品发布或更新
3. 行业趋势分析
4. 值得关注的研究论文"
openclaw message send --channel "feishu" --message "$PROMPT"
以前我每天早上刷Twitter、看公众号、逛知乎,至少40分钟。
现在9点飞书准时收到整理的日报,5分钟看完重点。
成本:完全免费(只用内置Skill)
🔥 No.2:每日Reddit精华帖
如果说日报是宏观动态,那么 Reddit 就是最鲜活的ai民间讨论社群,小红书也是。但 Reddit 一不小心就会刷掉一个下午时间。
自动抓取你关注的Reddit社区(subreddit)的高赞帖子,每天整理成摘要发到飞书。
而且是只读模式,不会误触发帖、点赞、评论,很安全。
最厉害的是它能学习你的偏好——你说「不要meme图」,下次自动过滤;你说「只看技术讨论」,它会记住。
适合这些人用:
- 想看国外技术社区一手讨论的同学
- 关注r/programming、r/machinelearning、r/selfhosted等技术板块的人
- 容易「刷Reddit停不下来」、想控制时间的人
按照如下流程配置:
- 1.先安装Skill:
npx clawhub@latest install reddit-readonly
- 2.给OpenClaw发送这个指令:
I want you to give me the top performing posts from the following subreddits:
- r/programming
- r/machinelearning
- r/selfhosted
Create a memory about the type of posts I like. Every day ask me if I liked the list and save my preferences. (e.g. do not include memes.)
Every day at 5pm, run this process and send the digest to my Feishu.
比如说我关注 r/programming、r/machinelearning、r/selfhosted 这几个板块。
以前刷Reddit很容易「陷进去」,现在每天5点飞书准时收到精选摘要,看完就撤,不沉迷。
成本:完全免费(reddit-readonly Skill免费)
📺 No.3:每日YouTube摘要
除了文字,视频也是重灾区。尤其是硅谷大佬们的深度对谈,动辄两三小时,干货超级多。
我最近在疯狂学习dan koe的视频,对于创业者来说,内容超级干货。
帮你「看」YouTube视频,但不是真的看视频——而是自动提取视频的文字转录,然后生成要点摘要发到飞书。
支持两种模式:
- 频道订阅模式:追踪你关注的UP主,有新视频自动生成摘要
- 关键词监控模式:监控特定话题(如"OpenClaw"),有新视频自动通知你
适合这些人用:
- 关注的UP主太多,看不过来的人
- 想看长视频(如Lex Fridman播客)但没时间的人
- 想快速了解视频内容,再决定要不要深入看的人
怎么配置:
- 1.先安装Skill:
npx clawhub@latest install youtube-full
- 2.给OpenClaw发送指令(以频道模式为例):
Every morning at 8am, fetch the latest videos from these YouTube channels:
- @TED
- @Fireship
- @lexfridman
For each new video (uploaded in last 24-48 hours):
1. Get the transcript
2. Summarize the main points in 2-3 bullets
3. Include video title, channel, and link
Send the digest to my Feishu. Save my channel list to memory.
Fireship一周更新2-3个视频,Lex Fridman的播客动辄2小时。现在飞书直接收到3条要点摘要,决定要不要看完整视频,省了大量时间。
💰 成本:
- 拉取频道信息:免费
- 提取转录文字:1 credit/条(通常每天就几个视频,成本可忽略)
🚀 No.4:多渠道AI新闻筛选聚合
当你习惯了以上零散的追踪,你可能需要一个更强大的“全能捕手”,把全球的信息源一网打尽。
把你分散在各处的信息源,统一聚合到一条流水线:
- RSS订阅(46个源)
- Twitter账号(44个)
- GitHub Releases(19个仓库)
- 网页搜索(4个主题)
然后自动去重+质量评分,每天只给你推送最值得看的5-10条精华。
👤 适合这些人用:
- 信息源太多、看不过来的人
- 不想被重复信息轰炸的人
- 想要「一份简报搞定所有科技动态」的人
⚙️ 怎么配置?
- 1.先安装Skill:
npx clawhub@latest install tech-news-digest
- 2.基础配置(给OpenClaw发送):
Install tech-news-digest. Set up a daily tech digest at 9am to my Feishu.
- 3.添加自定义源(可选):
Add these to my tech digest sources:
- RSS: https://my-company-blog.com/feed
- Twitter: @myFavResearcher
- GitHub: my-org/my-framework
- 4.高级增强(可选,配置API Key):
- X_BEARER_TOKEN:更精准的Twitter抓取
- BRAVE_API_KEY:网页搜索能力
- GITHUB_TOKEN:GitHub Releases监控
这是我最「省心」的一个workflow。以前要打开N个Tab刷RSS、Twitter、GitHub,现在每天9点飞书准时收到一份精华简报,基本覆盖了我想看的所有科技动态。
💰 成本:免费(tech-news-digest Skill免费)
🎯 No.5:每周技术发现精选
日报和聚合解决的是“广度”,但知识的获取需要“厚度”。在忙碌的工作周之后,我们需要一次系统性的沉淀。
日报太碎片,想看一周精选?
这个场景下帮你把一周的资讯「沉淀」下来:
- 汇总你收到的newsletter邮件
- 抓取GitHub Trending热门项目
- 整理Hacker News、Reddit一周精华
- 只精选5-10条最有价值的,分类输出到飞书
👤 适合这些人用?
- 工作日太忙,想周末集中阅读的人
- 想要「质量优先」而非「数量堆叠」的人
- 喜欢周末固定时间「充电」的人
⚙️ 怎么配置:
这个workflow全部用内置Skill,无需额外安装:
{
"name": "tech-discoveries",
"schedule": {
"kind": "cron",
"expr": "0 8 * * 0",
"tz": "UTC"
},
"payload": {
"kind": "agentTurn",
"message": "Generate tech discoveries. Check: 1) Newsletter emails, 2) GitHub Trending, 3) Hacker News, 4) Reddit. Curate 5-10 items with title, summary, why relevant, link. Group by category. Send to Feishu."
}
}
用到的内置Skill:
- cron.jobs:每周日上午8点定时执行
- web_search + browser:抓取各平台内容
- message(飞书消息):推送到飞书
这是我周末的「充电时间」。一份精选周报,配一杯咖啡,1小时高质量阅读,比刷一整天碎片信息收获更大。
💰 成本:完全免费(只用内置Skill)
📊 No.6:Twitter/X账号分析
最后,除了接收信息,我们还需要输出。但输出不是盲目的,我们需要知道哪些内容真正击中了受众。
不是看「多少播放量、多少点赞」这些表面数据,而是深度分析你发的内容:
- 高互动帖子有什么共性模式?(主题?表达方式?发布时间?)
- 低表现帖子问题在哪?(为什么同样的类型,这次就不行?)
- 你的内容风格该怎么调整?
简单说:用AI替代那些昂贵的社交媒体分析工具。
👤 适合谁用?
- 做个人IP、想涨粉的内容创作者
- 运营企业Twitter账号的同学
- 发了内容没人看、不知道问题在哪的人
按照怎么配置?
- 1.先安装Skill:
clawhub install bird
- 2.准备Twitter登录凭证:
- 在Chrome/Brave登录x.com
- 获取 auth-token 和 ct0(从Cookie里找)
⚠️ 建议用单独的小号做隔离,更安全
- 3.给OpenClaw发送分析指令:
Analyze my recent tweets (last 50 posts). Tell me:
1. What topics get the most engagement?
2. What posting patterns work best?
3. What should I avoid in future posts?
4. Give me actionable content strategy suggestions.
以前看Twitter Analytics只有「播放量、点赞数」这些数字。
现在OpenClaw能告诉我:什么主题更容易互动、什么表达方式要避免、内容风格该怎么调整。
💰 成本:免费(bird Skill免费,但需要Twitter账号)
四、如何选择适合你的场景?
看到这里,你可能已经心动了,但在上手之前,还有几件关于“降本增效”的小事需要提醒你。
- 成本控制: 尽量使用内置 Skill 抓取,只有在需要深度总结时再调用 GPT-4o 或 Claude 3.5 的 API,省钱才是硬道理。
- 账号安全: 涉及到 Twitter 分析时,建议使用单独的小号做 Session 隔离,毕竟安全是自动化的大前提。
- 环境部署: 建议部署在 NAS 或云服务器上,让它成为一个真正意义上永不掉线的“影子助手”。
我自己的配置是:AI日报 + Reddit摘要 + 多源新闻聚合 + 每周精选。
X账号分析偶尔用,YouTube摘要因为成本考虑用得少一些。
五、写在最后
OpenClaw不是什么「黑科技」,它的思路很简单:让AI成为你最得心应手的帮手。
在这个信息爆炸的时代,「不看什么」比「看什么」更重要。
这6个skill,帮我每天省下2小时。这两小时我可以:
- 深度阅读一本书
- 写一篇公众号文章
- 或者干脆...多睡一会儿
技术应该是效率的阶梯,而不是沉迷的泥潭。
如果你也正处于信息过载的焦虑中,不妨把这些繁琐的工作交给“小龙虾”。
让它当你的「信息管家」,你把时间花在真正重要的事情上。
如果这篇文章对你有帮助,欢迎转发给需要的朋友。
也欢迎在评论区聊聊:你平时是怎么处理信息过载的?

