很多人以为,要在AI的搜索结果里排上名,就必须掌握一套全新的、神秘的“AI优化”方法。但SEO专家David Quaid却告诉我们,这可能是一个彻头彻尾的误解。
他发现,那些所谓的大语言模型(LLM),比如ChatGPT、Perplexity,它们自己并不会给内容排名。它们做的是把你的问题拆分成好几个小问题,然后像个实习生一样,跑到谷歌、必应这些传统搜索引擎里去寻找答案。
所以,一个反常识的真相浮出水面:想要搞定AI搜索,你真正需要做的,可能和你想象的正好相反——你必须回到最基础、最传统的SEO上来。
这篇文章将完整呈现David Quaid的观点与实操展示。
就我本人而言,我认同David Quaid的绝大部分观点并认为他的观点具有实操性。但,我近期批量研究了AI SEO,认为他的观点还是存在有偏差且不够全面的地方。
以下仅呈现David Quaid的观点,不代表我个人意见。下图是全文内容概要:
破除核心误解:LLM根本不是搜索引擎
我们首先要明白一个最根本的区别:LLM不是搜索引擎。
很多人想当然地认为,一个像ChatGPT这样的大模型,它的“大脑”里缓存了整个互联网的信息,能随时随地给你答案。事实并非如此。它们根本存不下那么多数据,甚至连谷歌一小时处理的数据量都存不下。
它们的工作模式更像一个信息整合者。当你向它提问时,它并不会直接从自己的知识库里掏出答案。相反,它会做一件事,这件事是所有后续策略的核心,那就是“查询扇出”(Query Fan Out)。
什么是“查询扇出”(Query Fan Out)?
“查询扇出”听起来很专业,但理解起来很简单。
就是LLM把你输入的一个提示词(Prompt),自动分解成多个更具体、更精确的关键词组合,然后把这些关键词组合发送到传统的搜索引擎(比如谷歌、必应,或者Claude所使用的Brave Search)里去搜索。
最后,它会抓取这些搜索结果页上排名靠前的文章,将它们的内容进行总结、提炼、重组,最终生成你看到的答案。而那些被它引用的文章,就是我们看到的“Citations”或“Sources”。
举个例子,当你在Perplexity里搜索“最佳SaaS SEO案例研究”(best SaaS SEO case studies)时,你以为它在用自己的“AI大脑”思考。但如果你查看它的后台工作步骤,你会发现,它实际上在谷歌里搜索了好几个几乎一模一样的词:“best SaaS SEO case studies”。
这意味着什么?
这意味着,LLM给出的结果,本质上就是传统搜索引擎排名结果的“二次加工”。你的内容能在谷歌的相关搜索词下排得越靠前,就越有可能被LLM选中,作为生成答案的素材。
所以,你根本不需要去研究什么虚无缥缈的“LLM排名算法”。LLM用的,就是谷歌(或其他搜索引擎)的排名算法。
如何亲自验证?这里有一个简单的方法
这个结论听起来可能有些颠覆,但你可以亲自验证。
比如,你在谷歌搜索某个长尾关键词,比如“E-E-A-T SEO指南”,发现自己的文章排在第五位。然后,你把完全相同的关键词输入到ChatGPT或Perplexity里,却发现它生成的答案里根本没有引用你的文章。
这是不是说明LLM的排名规则和谷歌不一样?
恰恰相反。这说明LLM“自作主张”地修改了你的搜索词。
当你深入分析它的“查询扇出”过程时,你可能会发现,它实际搜索的词是“E-E-A-T SEO指南 2025”。它在你的查询后面加了个年份!
这个小小的改动,就是“查询漂移”(Query Drift)。LLM会根据它认为的用户意图,对你的原始查询进行微调,比如加上年份、加上“如何”、“最佳”等词语,或者进行同义词替换。
现在,你把这个被修改过的查询词——“E-E-A-T SEO指南 2025”——复制出来,粘贴到谷歌搜索框里再搜一次。你会惊奇地发现,这次的谷歌搜索结果,和刚才LLM引用的来源几乎一模一样,连顺序都差不多。
这就是证据。LLM没有自己的排名系统,它只是谷歌排名结果的“搬运工”。你想在LLM里获得展示,就必须先在谷歌里,针对那些“可能被扇出”的查询词,获得好的排名。
实践指南:如何利用“查询扇出”
理解了原理,我们就能制定出非常清晰、有效的策略。与其把预算浪费在探索未知的“LLM优化”上,不如把所有精力都放回我们最熟悉的领域:SEO。
第一步:从传统SEO开始,找到你的优势领域
首先,打开你的Google Search Console,看看你的网站目前在为哪些关键词带来流量和展示。这是你的基本盘。你要做的不是去追逐热点,而是巩固你的优势。
比如,如果你的网站在“AI 修图”这个词上排名很好,那么当用户在LLM里搜索类似问题时,你的网站就很有可能被引用。
第二步:使用LLM工具,反向工程“查询扇出”
接下来,把你在第一步中找到的核心关键词,输入到Perplexity、Claude等LLM工具里。
重点来了:不要只看它生成的答案,要去分析它的“查询步骤”或“搜索源”。看看为了回答你的问题,它到底向谷歌发出了哪些具体的搜索请求。
把这些“扇出”的查询词都记录下来。你会发现很多你意想不到的组合,这些就是用户真实意图的体现,也是你内容创作的“金矿”。
第三步:用真实的用户问题,丰富你的内容
一个更高级的玩法,是利用LLM去挖掘特定社群里的用户痛点。
比如,你想为一家网络安全公司做内容营销。你可以在LLM里输入这样的指令:“在Reddit上搜索那些正在寻找网络安全机构的人,看看他们都在问些什么问题。”
LLM会迅速帮你总结出Reddit相关版块里,用户最关心的具体问题,比如:
“你们如何评估供应商的安全成熟度?”
“你们的备份和恢复流程是怎样的?”
“你们有SOC 2合规认证吗?”
“如果供应商发生了安全事件,最坏的情况是什么?”
这些问题,比任何市场营销团队闭门造车想出来的“痛点”都更真实、更具体。把这些问题作为你文章的小标题,或者直接写成Q&A形式的内容,发布到你的网站上。
第四步:发布、提交、测试、迭代
当你根据这些“扇出”的查询词和真实的用户问题创作了新内容,或者优化了旧内容后,立刻通过Google Search Console提交网址,请求谷歌重新索引。
一旦谷歌收录了你的新页面,你就可以回到LLM工具里,用之前的提示词再次测试。多测试几次,因为“查询漂移”的存在,LLM每次扇出的查询词可能会有微小变化。
你需要做的,就是不断重复这个过程:分析扇出查询 -> 创作/优化内容 -> 获得谷歌排名-> 验证LLM结果。通过不断迭代,让你的内容覆盖尽可能多的相关查询,从而在LLM的答案中“无处不在”。
结论:回归本质,拥抱不变
总而言之,在充满变化的AI时代,最有效的策略,往往是回归事物的本质。
关于如何在LLM中获得排名,我们不需要焦虑,也不需要去学习什么全新的屠龙之术。核心要点可以总结为以下几点:
1. 停止幻想:不要再相信有什么神秘的“LLM优化”技术。LLM本身不负责排名,它只是一个信息整合工具。
2. 拥抱SEO:LLM的排名结果,从根本上讲,是由它背后所依赖的传统搜索引擎(主要是谷歌)的排名决定的。做好SEO,就是最好的LLM优化。
3. 聚焦“查询扇出”:你的目标不是为一个宽泛的提示词优化,而是为LLM“扇出”的那些具体、细分的搜索查询词优化。
4. 把LLM当工具:利用LLM反向分析用户的真实搜索意图和具体问题,用它来指导你的内容创作,而不是把它当成一个你需要去“讨好”的排名系统。
最终,逻辑又回到了原点:创造出能够精准回答用户具体问题的高质量内容,并让这些内容在传统搜索引擎上获得好的排名。这才是应对一切变化的万全之策。
专注海外营销领域的探索者
主攻 Google SEO 方向,兼修ASO、Ads、KOL、ORM及SNS的跨渠道整合。
添加微信时请至少备注:公司+岗位+事由。不然,你很可能无法通过。另外,不接广告,不做代运营,不开培训班,没有会员群。
如果你恰好符合以下任意场景:
手握海外创业蓝图,正在寻找懂流量生态的战略搭档
被某个行业共性难题困住,急需思维碰撞的火花
在海外实战中炼就独门秘技,渴望找到分享的锚点

