大数跨境
0
0

Google 删除了阻止自动翻译页面的 Robots.txt 指南

Google 删除了阻止自动翻译页面的 Robots.txt 指南 SEO魔术师
2025-06-12
78
导读:Google 删除了robots.txt阻止自动翻译页面的指南。此变更使 Google 的技术文档与其垃圾邮件政策保持一致。

谷歌更新文档:移除阻止自动翻译页面建议

谷歌近期更新了其技术文档,删除了先前建议通过 robots.txt 阻止自动翻译内容进入索引的做法。这一调整与 Google 去年推出的“大规模内容滥用”政策保持一致。

“这是仅限文档的更改,行为没有变化。” 谷歌在 Search Central 更新日志中明确表示。

为何此次更新值得关注

尽管只是文本修改,但它反映出 Google 对自动化内容评估方式的转变。

随着新策略的实施,内容是否被认定为垃圾信息将基于其提供的实际价值,而不是创建方式。

对于多语言网站而言,旧方法包括:

  • 使用 robots.txt 屏蔽自动翻译页面;
  • 避免自动化生成的内容被搜索引擎收录。

当前更推荐的新做法有:

  • 逐页评估翻译质量;
  • 聚焦用户价值而非生产手段;
  • 采用页面级控制机制,如 meta robots 标签。

需注意的是,Google 并未明确认定所有机器翻译都是垃圾内容,但早前文档倾向全面屏蔽此类内容。如今的策略更鼓励细致甄别。

应对建议

  • 检查 robots.txt 文件:如翻译服务于用户真实需求,则应去除旧规则;
  • 建立翻译质量标准:高质量保留,低质量不索引;
  • 以用户为中心:确认翻译是否真正帮助国际访问者;
  • 优先使用页面级标签控制索引,例如元标签。

总结

这次更新虽小,却反映了 Google 内容审核理念的变化。

对负责多语言 SEO 的专业人士而言,应更加灵活地应对算法调整,并始终坚持提升用户价值的原则。

【声明】内容源于网络
SEO魔术师
每天分享SEO的干货知识
内容 787
粉丝 0
SEO魔术师 SEO魔术师 每天分享SEO的干货知识
总阅读7.8k
粉丝0
内容787