前言|但很长
开始尝试把大量工作让AI做其实是从2024年12月,到了2025年开始全量用,刚开始全量的时候效率是能看到比较明显的提升,但是我的工作大部分从研究业务变成了研究AI给AI纠偏,直到这几个月才敢说是一个完整体的全量。
AI赋能这件事在2022年的时候我就开始关注,当时GPT的模型还没很成熟,属于能用谈不上好用。期间也尝试过用GPT,但还是觉得比较鸡肋,幻觉太多,纠偏的过程还不如我自己干。直到GPT 4o模型发布,发生质的变化,我才决定把大部分时间投入到研究 “AI + N” 这件事中。
浅谈一下初期使用中遇到的一些问题,当时【指令】这东西才刚出还不是很熟悉,或者说对于新事物我抱着一种排斥但是又不得不尝试的矛盾情绪。
后来听说用【指令】后能少写大量的提示词。
干!干的就是【指令】!
通俗理解,【指令】相当一个前置的【提示词】,在亚马逊卖货过程中,有很多高频的角色和场景可以直接【前置】,而不是每次都要写。
比如:你是一名美国站的亚马逊运营总监,喜欢以数据驱动去判断业务的状态同时去做决策,你会站在美国消费者角度去思考设计方案。(圈定身份,思考方式。接下来再让写具体的一些事件,让AI来执行。)
我只做美国站,身份和思考方式在我大部分的提示词中都是存在的,这个时候我可以直接把上边的话直接放到【指令】中,之后的对话里我只需要提出具体问题,提出具体的动作,让AI来分析和执行。把【指令】写好后,我确实减少了很多的工作。
没用【指令】前
用了【指令】后
我需要写的提示词越来越少,英文部分都是直接复制粘贴过来的。
再到后来,出了【GPTS】我把【指令】整合进去,同时把【知识库】也整合到【GPTS】。我强大的“数字员工”诞生,我每天对它使唤,它一点脾气没有。“数字员工”的强大超乎我的想象。
Part|
初期最痛苦的事“提示词”
在用AI的时候大家往往会说“自己不会问问题”,当时我遇到的难点跟大家是一样的,怎么描述问题、怎么写提示词AI才能理解。
这时候不得不说电商三板斧“偷抄拿”是真的好用。
花了一个月的时间,把能看到的提示词都拿用,看结果输出什么,再自己微调,看一下回复哪里发生变化。一点点试,一点点总结。就跟以前学代码一样,先把案例代码敲出来,再微调里边的参数和函数,看一下哪里变了。
最后就是把知识梳理成一个架构。
最通俗的一个提示词架构,AI是谁,要干什么,结果是什么,要怎么做。
比如:我是冬离(AI是谁)要做亚马逊美国站(要干什么)成为深圳湾的业主(结果是什么)先打包十万个货发到FBA仓干它个日销万单。
“怎么做”这部分描述得相对准确,更细致的动作和方案,交给AI来分析和执行。AI的逻辑分析能力超过大部分人,相信它,使用它,驱使它。
在大模型逐渐进化后,“AI是谁”开始淡化,“要干什么”开始精简化,“结果是什么”开始引导化。这些都可以提前写入到【指令】中,下边的【指令】是最基础的,但是已经能解决我大部分的问题。同时GPT会调用之前的对话开始熟悉我的思维逻辑和结果逻辑,我丢个报表,说句帮我分析,就能输出我想要的结果(八九不离十)。
有些低频的分析场景需要我去引导和指出。
经历上千次对话,我对GPT越来越了解,GPT对我也越来越了解。就像跟人相处,大家沟通频率高后,对彼此越来越熟悉,这就是LLM大模型的魅力所在,越用越好用,越用越知心。
当跨过“提示词”门槛,接下来就要面对更加复杂但机械循环的逻辑判断。真正把AI变成一个“数字员工”,能思考,能执行,不会有脾气,不会讨价还价。
接下来我会拿关键词库搭建、自制ABA批量下载脚本、竞品分析三个案例给大家讲一下,很经典但是很花时间的事。
Part|
业务实战应用
1、关键词库搭建
在这我们先要清楚,AI擅长逻辑推导,如果数据维度不够,AI推导出来的结论就会跟正确结果产生巨大的偏差。
关键词库是写文案、打广告的前置动作,关键词库搭建不完善,会对推广产生比较大的影响。
关键词库常见的三个问题:
a.关键词和产品的相关性。
b.关键词的周期变化。
c.关键词竞争度。
以上三个问题,我会跟大家说一个稍微反常识的逻辑。
“先清楚怎么判断问题,再去找数据支撑,而不是上来先找数据,再去判断问题。”
1+1=2 本身是没有意义的,只有赋予了它背景,它才有意义。不然容易陷入数据论证数据。今天销售额掉了,因为流量掉了,利润也随之下滑。看起来很有道理,后果:只有现象描述,没有归因,无法解决问题。
要打破这局面,需要结合实际业务背景,市场进入淡季、竞品开始超低价大折扣清货,双重打击,导致销售额、利润下滑,致使利润下跌。往往这种判断逻辑更能让一个人成为高手,通过现象看本质。
回归我们要讨论的三个问题。
a.关键词和产品的相关性判断。
常规的判断逻辑,把关键词输入到前台,通过人为去判断前台出现的产品跟我们相关性的高低以此判断关键词的相关性;另外的逻辑,通过人对词义的理解来判断跟产品的相关性。
两种逻辑都能判断,最好是两种逻辑都用上,能给我们筛选出更多的高相关关键词。
第一种逻辑有一个模棱两可的标准,到底是多少个产品出现在前台前三页,我们才能判断是相关的。大赛道里,很容易判断出来,做的人多,竞品就多,出现频次高,一眼就能判断。但是在小赛道或者流量非常散的赛道,这种判断逻辑就很难判断出来。
在数据层面,我们可以通过多个精准产品的关键词批量反查,命中的竞品数/竞品总数的比值来判断。跑了很多大赛道数据,定到80%基本都是都是强相关,正确率95%以上。竞品总数是多多益善、越强越好,越多越强越精准。处理完数据后,再人为筛选。
现在我的处理方案是,下完表,直接丢给AI处理(内置好指令集,指令集参考上一段话),我要干的事就少了很多。
第二种逻辑比较明显的两个问题,语言问题,认知问题。语言比较渣的人,需要翻译过来看,有时候翻译又有问题,就会陷入思考,一旦思考就会拉长结果的判断。认知问题,直接举一个例子,今年 iphone 17 pro max 卖最好的非透明色是蓝色,如果通过词义来判断,就会错过最大的词 iphone 17 pro max case ,但是这个问题又刚好可以用第一种逻辑来补充。
在数据层面,人还是很难处理好词义的批量判断的,但是LLM大模型的AI很擅长处理这种类型的数据,所以直接丢给AI就好了,我们提供我们产品的属性和值给到AI,再丢多个精准竞品反查出来的关键词表,就能处理。
还有第三种逻辑,就是用产品对应的人群来锁定关键词,因为实在找不到数据和处理工具就不讲了。
b.关键词的周期变化。
面临最大的问题是大量关键词批量下载历史ABA数据,在后台下载周维度过去三年的关键词,就10个关键词,要下一上午,虽然有些第三方软件提供了下载路径,但是有些赛道的关键词有几十上百个也要命,然后再合并几十上百个表。
于是乎,我用GPT写了一个谷歌插件,专门拿来批量下载某个第三方软件的ABA数据。嘎嘎快,自己动手丰衣足食。只需要把自己需求说清楚(有点软件行业的知识即可),丢给AI就可以生成插件。(插件获取请看文章免费!AI关键词库工具套装 )。
c.关键词竞争度
目前采用的方案是用ABA数据做判断,更精细化且能批量操作的方案暂时没想出来。采用标准如下(指令集可参考):
1-流量垄断度(点击份额总和)50%以上,销量垄断度(转化份额总和)30%以下,可以通过机会系数(转化份额总和/点击份额总和)来选关键词,机会系数越接近1越好,此时流量的成本可能会比较高,但是销量机会还是有的还不小。
2-流量垄断度(点击份额总和)50%以下,销量垄断度(转化份额总和)30%以下,可以通过机会系数来选关键词,这个时候流量机会大,销量机会也大,如果机会系数也接近1的话,那简直就是完美的关键词。
3-流量垄断度(点击份额总和)50%以上,销量垄断度(转化份额总和)30%以上,基本可以放弃了,机会系数都不用看。而符合这个标准的关键词,一般是带品牌的关键词。
补充:关键词下的流量垄断度(点击份额总和)、销量垄断度(转化份额总和)、机会系数(销量垄断度/流量垄断度)。
自制ABA批量下载脚本这个案例不展开写,爬别人数据这事,也不能太声张。总体上来看,比RPA速度快开发周期更短,比敲代码写插件快很多,敲代码除了开发周期长别的没什么毛病。现在小需求用GPT帮我写,批量下图片、视频、图片分割拼接(用来高级A+)等等。让小白也能拥有自己开发的软件。
2、竞品分析
竞品分析是一个多维度并发判断的事情。从视觉、价格、评论、评分、销量、发补货、广告、自然位、BSR、文案、店铺跟卖数、店铺属性等等多个维度一起去判断,拿其中几个点一看,好像能影响全局,但是另外几个维度又会约束它,还得考虑它别的维度。
比如:市面上最低的价格,上来几千个评论,4.8评分,这样的链接一看就厉害。但是发补货出问题,也只会昙花一现。广告位天天霸榜,看起来很厉害,但是前三页一个自然位没有,大部分不是盈亏平衡就是亏。
为了尽可能更全面了解竞品,我一般会拉类似keepa的数据(SIF、卖家精灵、鸥鹭都可),再加竞品的广告架构数据(拉一年的数据,数据量很大)。主要是为了研究订单、流量二者之间的关系。
影响订单的维度列出来,影响流量的维度列出来,人工进行判断和分析。按天维度一个个看过去,有时候看得眼花。
换个角度看,GPT擅长逻辑分析和推理,那就让它干这种事,我需要做的也仅仅是把数据提供给到它,让它分析。为了让GPT回复得有趣,略微调了一下人格。请看下图。
界面跟大家不一样,纯属我自己拉了API,把GPT、指令、知识库部署在云端,然后通过飞书机器人映射。
以上拉的是keepa数据分析的结果,能分析出竞品用了什么黑科技,这个判断逻辑是基于我的知识库,知识库我把从业以来收集到的玩法整理成文档,丢给GPT梳理,方便GPT引用(AI处理过的格式是最方便AI引用的)。
广告分析的方法如法炮制。把数据丢给AI,再结合知识库,能大致做到哪个广告活动开启什么匹配模式,投放哪些关键词匹配出什么关键词。关键还是批量判断,还有数据留存,方便后续重新再看一次,自己弄的话时间很长,下图GPT花了五分钟左右处理的,部分节选,回复了大概几千字的分析。
除了对keepa数据和广告数据单独分析,还能并行分析,通过keepa数据来判断竞品的广告打法是否合理有效。并行分析需要一定运营水平才能做到,而且人工分析的时间周期很长,就我自己分析也要一天的时间,GPT十几分钟搞完,后续还会给出大致的运营方案和广告方案。
在视觉设计上,也有应用,整体逻辑是:批量下载竞品图 -> 让AI分析 -> 出第一版方案 -> 给产品和用户人群 -> 出第二版方案 -> 开始让AI作图。这里就不展开了,后续我会出一篇专门讲视觉的文章。
Part|
2026年要做的事
通过大量对话、知识库、指令,从写文案(最基础应用,有需求可留言,出一版文章)、作图、分析广告运营端几乎全量覆盖,目前我的GPT分析能力已经比得上大部分精品运营都要厉害,核心执行端还是人。
怎么让GPT帮我执行卖货没想通。有这个构思,没有头绪,在执行层要考虑的东西太多,底线高过大部分人,但是AI幻觉底线也能很离谱。
基于以上情况,我首先要先走通下边两件事:
1、从用原生AI到私有化部署AI,基于飞书为底层交互,云端服务器为公司数据库和私有化知识库(公司级特征AI的训练原始数据),各类AI模型为思考大脑(不局限GPT,哪个大模型先进就用哪个)。实现问飞书AI机器人什么产品需要补货、是滞销品、广告数据异常能直接告诉我是什么,这样我就不用自己去翻数据,也不需要进行过多的浅层思考,我要做的事深度思考和方向制定。
2、多AI模型参与决策,用AI消除AI幻觉。举个例子,做一件事分100个步骤,AI假设犯错概率都分布在98%左右,单AI不可避免可能会在某两个步骤出错,但多AI协同能从概率上避免系统性犯错。就像亚马逊创业不是一个人的事,是一伙人的事。
大方向:把帮助个体分析思考推向帮助公司分析思考。提高系统作战能力,在未来可能是“第四次工业革命”的AI时代做好准备。
赢在出海
高质量出海服务机构
资讯·资源·资本
微信号丨Wininall
抖音丨赢在出海
赢在出海,专注高质量出海服务。我们汇聚顶层行业资源与服务能力,通过举办高质量的行业沙龙、私享会、资源对接会等活动,链接品牌/工厂/跨境卖家与出海全链路优秀服务商伙伴,构建开放、共赢的出海生态圈,成为中国企业出海可靠、优质的伙伴。


