谷歌疑似已禁用URL参数&num=100,该参数原本允许用户在单页显示100条搜索结果。这一变动最早于9月10日被发现,导致多个排名跟踪工具出现数据异常,并引发SEO行业广泛关注。
多位SEO专家指出,尝试使用&num=100参数时频繁失败,部分情况下仅能获取两页结果,后续页面无法加载。这意味着数据抓取效率大幅下降,原本一次请求即可完成的操作现在可能需要十次以上,显著提升了数据采集成本。
此次调整对第三方排名追踪服务造成直接影响,多家平台出现数据中断、缺失或排名错误。同时,Google Search Console(GSC)数据显示,自9月10日起桌面端展现量明显下滑,平均排名上升,时间节点与参数失效高度吻合。

SEO工具抓取与展现量变化的关联
GSC中展现量下降的现象主要集中在桌面端,而大多数SEO工具默认以桌面端进行排名追踪,且普遍依赖&num=100参数获取前100位结果。因此,当该参数被禁用后,工具无法再模拟高数量级结果页面,间接导致机器人触发的“展现”不再计入GSC统计。
有分析指出,此前所谓的“大脱钩”——即展现量激增但点击量未同步增长——很可能正是由于大量机器人抓取行为被计入展现所致。随着AI搜索竞争加剧,各类爬虫活动频繁,GSC数据长期受到非真实用户流量干扰,数据准确性受到影响。
例如,Semrush Sensor工具自9月10日起停止更新,其排名追踪项目也出现数据空白,与GSC异常时间点完全一致,进一步佐证了二者之间的潜在联系。
Semrush Sensor 自 9 月 10 日起就没有再显示任何数据
机器人抓取对GSC数据的影响
数据显示,某些网站桌面端每日展现量减少超过20万次,如此巨大的波动难以仅由真实用户行为解释。结合SEO工具普遍采用桌面端+100条结果设置的情况,可以推断大量“展现”实为机器人请求所生成。
值得注意的是,点击量在同一时期也有小幅下降,说明整体流量确有波动。然而,展现量的剧烈变化更可能源于系统层面的数据统计逻辑调整,而非实际搜索行为改变。
过去一年,随着AI模型对搜索结果的调用量增加,机器人曝光持续攀升,这与“大脱钩”现象的时间线基本重合。但若核心数据已被机器人流量污染,则相关结论可能存在偏差。
谷歌为何禁用 &num=100?
业内普遍猜测,谷歌此举旨在遏制外部服务对其系统的过度抓取。尤其近期有消息称ChatGPT通过SerpApi获取谷歌搜索结果,可能促使谷歌加强接口管控。
另一种观点认为,谷歌希望通过清理机器人流量,削弱“AI概览挤压传统链接点击”的舆论压力。但由于缺乏透明的数据过滤机制,外界仍难以准确评估AI功能对实际流量的真实影响。
GSC展现量的计算机制
根据谷歌规则,只要自然搜索结果出现在当前页面且具备可见性(无需滚动至视窗内),即视为一次展现。普通用户默认看到10条结果,而SEO工具常通过&num=100参数拉取100条,使得第99位的结果也被记录为展现——尽管该行为完全由机器人触发。
这种机制导致大量非人类交互被纳入统计,严重稀释了数据价值。当前的变化或许标志着谷歌正从源头限制此类行为,提升数据真实性。
SEO工具厂商的应对策略
- Semrush:已发布通知,建议用户重点关注前10和前20名数据。尽管目前仍可追踪更靠后的排名,但未来可能调整策略。
- Ahrefs:Tim Soulo表示将参考Semrush做法,并征求用户反馈是否保留20名以后的数据支持。当前Ahrefs数据未受明显影响。
未来展望
截至目前,谷歌尚未对此事作出官方回应。若&num=100参数被永久移除,SEO服务商的数据采集成本或将成倍上升。
GSC接下来的数据走势值得密切关注,此次调整可能有助于厘清AI概览对实际流量的影响。当前情况仍在演变中,需持续跟踪官方动态及行业反馈。
值得警惕的是,过度依赖展现量和点击率等表层指标进行长期趋势判断,可能因底层数据结构变化而产生严重误判。第一方数据的准确性仍有待提升。

