大数跨境

别再被平台算法“喂食”了!我用 OpenClaw 打造全自动 AI 信息管家

别再被平台算法“喂食”了!我用 OpenClaw 打造全自动 AI 信息管家 AIGC新知
2026-03-05
15
导读:最近也在玩小龙虾,参加过几场小龙虾的活动,好多人把小龙虾用到了实处。

hi,我是绛烨。

最近也在玩小龙虾,参加过几场小龙虾的活动,好多人把小龙虾用到了实处。


你算过没,每天刷 AI 新闻、刷公众号和小红书要花多久?

看那些被算法推荐的东西,浪费了太多时间

一天 2 小时,一年就是 730 小时——整整 30 天。

最扎心的是,这些时间大多是在被动投喂:算法推什么,你看什么。

你没有主动权,没有筛选的权利。

为了夺回主动权,我最近一直在玩 OpenClaw(昵称小龙虾)。

这是一个让自媒体人以及普通人实现信息自由,腾出时间摸鱼的神器。


一、OpenClaw 是什么?

简单说:它是你能「聊天」的个人AI助手,而且真的能干活。

不是那种你问一句它答一句的聊天机器人,而是你给它一个指令,

它就能:

  • ✅ 每天早上9点,自动汇总AI行业新闻推送到飞书
  • ✅ 每天下午5点,把你关注的Reddit高赞帖子整理好发你
  • ✅ 每周日,精选最值得看的5-10条技术动态
  • ✅ 自动分析你的Twitter账号,告诉你什么内容更容易火

它就像一个7×24小时工作的信息管家,只负责一件事:把你真正需要的信息,在正确的时间,送到正确的地方。

而且最香的是——开源免费,你可以部署在你的备用电脑,数据存在本地,不用担心隐私泄露。

当然也可以部署在云端,自行选择就好。

二、你需要安装哪些Skill?

OpenClaw的强大之处在于它的Skill(技能)系统。你可以把Skill理解为「功能插件」,装上不同的Skill,OpenClaw就能做不同的事。

对于「信息自动化」这个场景,你需要了解以下几类Skill:

1️⃣ 内置Skill(无需安装,开箱即用)

Skill名称 功能说明 在这6个workflow中的作用
message 发送消息到各种渠道 把整理好的内容推送到飞书
cron.jobs 定时任务调度 让workflow在固定时间自动运行
web_search 网页搜索 抓取最新资讯、搜索关键词
browser 浏览器操作 访问网页、抓取动态内容
email 邮件收发 读取newsletter邮件(可选)

2️⃣ 需要安装的Skill(按workflow按需安装)

Skill名称 功能说明
reddit-readonly 只读方式抓取Reddit帖子
youtube-full 拉取YouTube视频信息和转录
tech-news-digest 多源新闻聚合、去重、评分
bird 读取Twitter/X账号内容

💡 建议:先安装你需要的Skill,再配置对应的key。大部分Skill都是一键安装,不用复杂配置。


三、怎么用的:场景、用途、配置

下面这6个场景,是我从awesome-openclaw-zh项目中精选的、最适合中文用户的配置。

有了这些强大的 Skill 之后,我们该如何把它们组合成真正的战斗力呢?接下来,我带你看看我每天雷打不动的 6 个实战自动化场景。

每个场景我都会说明:

  • 它是干嘛的(解决什么问题)
  • 适合谁用(什么场景)
  • 怎么配置(具体步骤)
  • 实际效果(我的使用体验)

建议:先选一个最感兴趣的试试,跑通后再逐步叠加。


📰 No.1:  每日AI行业日报

每天早上自动给你生成一份「AI行业晨报」,包括技术突破、产品发布、行业趋势、研究论文4个板块。

不用你手动去翻各种网站以及公众号,到点自动推送到飞书

👤 适合如下人群使用:

  • AI从业者(算法、产品、运营)
  • 需要跟进技术趋势的研发同学
  • 不想被信息洪流淹没,只想看重点的人

只需一个bash脚本 + crontab定时任务:

#!/bin/bash
# 每天9点执行:0 9 * * * ~/daily-report.sh

PROMPT="请生成今天的AI行业日报,包括:
1. 最新的AI技术动态(3-5条)
2. 重要的产品发布或更新
3. 行业趋势分析
4. 值得关注的研究论文"


openclaw message send --channel "feishu" --message "$PROMPT"


以前我每天早上刷Twitter、看公众号、逛知乎,至少40分钟。

现在9点飞书准时收到整理的日报,5分钟看完重点

成本:完全免费(只用内置Skill)


🔥 No.2:每日Reddit精华帖

如果说日报是宏观动态,那么 Reddit 就是最鲜活的ai民间讨论社群,小红书也是。但 Reddit 一不小心就会刷掉一个下午时间。

自动抓取你关注的Reddit社区(subreddit)的高赞帖子,每天整理成摘要发到飞书。

而且是只读模式,不会误触发帖、点赞、评论,很安全。

最厉害的是它能学习你的偏好——你说「不要meme图」,下次自动过滤;你说「只看技术讨论」,它会记住。


适合这些人用:

  • 想看国外技术社区一手讨论的同学
  • 关注r/programming、r/machinelearning、r/selfhosted等技术板块的人
  • 容易「刷Reddit停不下来」、想控制时间的人

按照如下流程配置:

  1. 1.先安装Skill:
npx clawhub@latest install reddit-readonly
  1. 2.给OpenClaw发送这个指令:
I want you to give me the top performing posts from the following subreddits:
- r/programming
- r/machinelearning
- r/selfhosted

Create a memory about the type of posts I like. Every day ask me if I liked the list and save my preferences. (e.g. do not include memes.)
Every day at 5pm, run this process and send the digest to my Feishu.

比如说我关注 r/programming、r/machinelearning、r/selfhosted 这几个板块。

以前刷Reddit很容易「陷进去」,现在每天5点飞书准时收到精选摘要,看完就撤,不沉迷。

成本:完全免费(reddit-readonly Skill免费)


📺 No.3:每日YouTube摘要

除了文字,视频也是重灾区。尤其是硅谷大佬们的深度对谈,动辄两三小时,干货超级多。

我最近在疯狂学习dan koe的视频,对于创业者来说,内容超级干货。

帮你「看」YouTube视频,但不是真的看视频——而是自动提取视频的文字转录,然后生成要点摘要发到飞书。

支持两种模式:

  • 频道订阅模式:追踪你关注的UP主,有新视频自动生成摘要
  • 关键词监控模式:监控特定话题(如"OpenClaw"),有新视频自动通知你

适合这些人用:

  • 关注的UP主太多,看不过来的人
  • 想看长视频(如Lex Fridman播客)但没时间的人
  • 想快速了解视频内容,再决定要不要深入看的人

怎么配置:

  1. 1.先安装Skill:
npx clawhub@latest install youtube-full
  1. 2.给OpenClaw发送指令(以频道模式为例):
Every morning at 8am, fetch the latest videos from these YouTube channels:
- @TED
- @Fireship
- @lexfridman

For each new video (uploaded in last 24-48 hours):
1. Get the transcript
2. Summarize the main points in 2-3 bullets
3. Include video title, channel, and link

Send the digest to my Feishu. Save my channel list to memory.


Fireship一周更新2-3个视频,Lex Fridman的播客动辄2小时。现在
飞书直接收到3条要点摘要,决定要不要看完整视频,省了大量时间。

💰 成本

  • 拉取频道信息:免费
  • 提取转录文字:1 credit/条(通常每天就几个视频,成本可忽略)

🚀 No.4:多渠道AI新闻筛选聚合

当你习惯了以上零散的追踪,你可能需要一个更强大的“全能捕手”,把全球的信息源一网打尽。

把你分散在各处的信息源,统一聚合到一条流水线

  • RSS订阅(46个源)
  • Twitter账号(44个)
  • GitHub Releases(19个仓库)
  • 网页搜索(4个主题)

然后自动去重+质量评分,每天只给你推送最值得看的5-10条精华。


👤 适合这些人用:

  • 信息源太多、看不过来的人
  • 不想被重复信息轰炸的人
  • 想要「一份简报搞定所有科技动态」的人

⚙️ 怎么配置?

  1. 1.先安装Skill:
npx clawhub@latest install tech-news-digest
  1. 2.基础配置(给OpenClaw发送):
Install tech-news-digest. Set up a daily tech digest at 9am to my Feishu.
  1. 3.添加自定义源(可选):
Add these to my tech digest sources:
- RSS: https://my-company-blog.com/feed
- Twitter: @myFavResearcher
- GitHub: my-org/my-framework
  1. 4.高级增强(可选,配置API Key):
  • X_BEARER_TOKEN:更精准的Twitter抓取
  • BRAVE_API_KEY:网页搜索能力
  • GITHUB_TOKEN:GitHub Releases监控

这是我最「省心」的一个workflow。以前要打开N个Tab刷RSS、Twitter、GitHub,现在每天9点飞书准时收到一份精华简报,基本覆盖了我想看的所有科技动态。

💰 成本:免费(tech-news-digest Skill免费)


🎯 No.5:每周技术发现精选

日报和聚合解决的是“广度”,但知识的获取需要“厚度”。在忙碌的工作周之后,我们需要一次系统性的沉淀。

日报太碎片,想看一周精选?

这个场景下帮你把一周的资讯「沉淀」下来:

  • 汇总你收到的newsletter邮件
  • 抓取GitHub Trending热门项目
  • 整理Hacker News、Reddit一周精华
  • 只精选5-10条最有价值的,分类输出到飞书

👤 适合这些人用?

  • 工作日太忙,想周末集中阅读的人
  • 想要「质量优先」而非「数量堆叠」的人
  • 喜欢周末固定时间「充电」的人

⚙️ 怎么配置:

这个workflow全部用内置Skill,无需额外安装

{
  "name": "tech-discoveries",
  "schedule": {
    "kind": "cron",
    "expr": "0 8 * * 0",
    "tz": "UTC"
  },
  "payload": {
    "kind": "agentTurn",
    "message": "Generate tech discoveries. Check: 1) Newsletter emails, 2) GitHub Trending, 3) Hacker News, 4) Reddit. Curate 5-10 items with title, summary, why relevant, link. Group by category. Send to Feishu."
  }
}

用到的内置Skill:

  • cron.jobs:每周日上午8点定时执行
  • web_search + browser:抓取各平台内容
  • message(飞书消息):推送到飞书


这是我周末的「充电时间」。一份精选周报,配一杯咖啡,
1小时高质量阅读,比刷一整天碎片信息收获更大。

💰 成本:完全免费(只用内置Skill)


📊 No.6:Twitter/X账号分析

最后,除了接收信息,我们还需要输出。但输出不是盲目的,我们需要知道哪些内容真正击中了受众。

不是看「多少播放量、多少点赞」这些表面数据,而是深度分析你发的内容

  • 高互动帖子有什么共性模式?(主题?表达方式?发布时间?)
  • 低表现帖子问题在哪?(为什么同样的类型,这次就不行?)
  • 你的内容风格该怎么调整?

简单说:用AI替代那些昂贵的社交媒体分析工具

👤 适合谁用?

  • 做个人IP、想涨粉的内容创作者
  • 运营企业Twitter账号的同学
  • 发了内容没人看、不知道问题在哪的人

按照怎么配置?

  1. 1.先安装Skill:
clawhub install bird
  1. 2.准备Twitter登录凭证:
  • 在Chrome/Brave登录x.com
  • 获取 auth-token 和 ct0(从Cookie里找)

⚠️ 建议用单独的小号做隔离,更安全

  1. 3.给OpenClaw发送分析指令:
Analyze my recent tweets (last 50 posts). Tell me:
1. What topics get the most engagement?
2. What posting patterns work best?
3. What should I avoid in future posts?
4. Give me actionable content strategy suggestions.


以前看Twitter Analytics只有「播放量、点赞数」这些数字。

现在OpenClaw能告诉我:什么主题更容易互动、什么表达方式要避免、内容风格该怎么调整

💰 成本:免费(bird Skill免费,但需要Twitter账号)


四、如何选择适合你的场景?

看到这里,你可能已经心动了,但在上手之前,还有几件关于“降本增效”的小事需要提醒你。

  • 成本控制: 尽量使用内置 Skill 抓取,只有在需要深度总结时再调用 GPT-4o 或 Claude 3.5 的 API,省钱才是硬道理。
  • 账号安全: 涉及到 Twitter 分析时,建议使用单独的小号做 Session 隔离,毕竟安全是自动化的大前提。
  • 环境部署: 建议部署在 NAS 或云服务器上,让它成为一个真正意义上永不掉线的“影子助手”。

我自己的配置是:AI日报 + Reddit摘要 + 多源新闻聚合 + 每周精选

X账号分析偶尔用,YouTube摘要因为成本考虑用得少一些。

五、写在最后

OpenClaw不是什么「黑科技」,它的思路很简单:让AI成为你最得心应手的帮手。

在这个信息爆炸的时代,「不看什么」比「看什么」更重要

这6个skill,帮我每天省下2小时。这两小时我可以:

  • 深度阅读一本书
  • 写一篇公众号文章
  • 或者干脆...多睡一会儿

技术应该是效率的阶梯,而不是沉迷的泥潭。

如果你也正处于信息过载的焦虑中,不妨把这些繁琐的工作交给“小龙虾”。

让它当你的「信息管家」,你把时间花在真正重要的事情上。


如果这篇文章对你有帮助,欢迎转发给需要的朋友。

也欢迎在评论区聊聊:你平时是怎么处理信息过载的?

#OpenClaw #AI工具 #效率提升 #信息筛选 #自动化

【声明】内容源于网络
0
0
AIGC新知
拆解生成式AI的前沿动态、实用技巧与行业机遇,做你身边的AIGC干货充电站。
内容 290
粉丝 0
AIGC新知 拆解生成式AI的前沿动态、实用技巧与行业机遇,做你身边的AIGC干货充电站。
总阅读4.5k
粉丝0
内容290