……书接上回……

分析 robots.txt 文件
Robot.txt文件用于控制谷歌搜索引擎爬虫访问你的网站的流量。爬虫流量是指搜索引擎爬虫抓取你的网站页面次数,也被称为爬虫预算。
Robots.txt 文件可以引导谷歌搜索引擎爬虫优先抓取重要的页面。这样,你可以确保在爬虫预算耗尽之前,优先抓取最重要的页面。
许多人(包括一些 SEO 专家)会误以为 robots.txt 可以用来阻止谷歌抓取你的页面,但事实并非如此。如果页面之间互相链接,即使没有被直接抓取,仍然可能被谷歌索引。
如果你确实想要阻止谷歌抓取某些页面,则需要使用 Yoast 等 SEO 插件添加 “noindex” 标签,或者用密码保护这些页面。

此外,由于多种原因,你可能并不希望搜索引擎抓取整个网站。例如,网站可能仍在开发中,或者你只想将某些页面设置为仅供员工查看(非所有访客都能看到)。robots.txt 文件可以帮助你向搜索引擎爬虫传达你的网站索引需求。
注意: 如果 robots.txt 文件阻止了搜索引擎的爬取,那么搜索引擎将永远无法看到你的网站。
以下是一些 robots.txt 文件误用示例:
有时人们会在开发阶段使用 robots.txt 文件阻止搜索引擎抓取网站,但在网站准备上线时忘记移除 robots.txt 文件。
错误地将整个网站添加到 robots.txt 文件中,导致搜索引擎无法抓取任何页面。
在 robots.txt 文件中添加了阻止搜索引擎抓取重要页面的规则。
避免误用 robots.txt 文件的建议:
仅将真正需要阻止抓取的页面或文件夹添加到 robots.txt 文件中。
在 robots.txt 文件中使用易于理解的语法,并添加注释解释规则。
定期检查你的 robots.txt 文件,确保其仍然符合你的网站需求。
考虑使用 SEO 插件或网站管理工具来帮助你管理 robots.txt 文件。
检查关键词蚕食(争夺内容) - 确保你不会多次使用相同的关键词

关键词共 cannibalization(争夺内容)是指网站上的两个页面实际上都在竞争同一个关键词的排名。结果是,搜索引擎不知道应该对哪个页面进行排名。它可能一天将文章一排在首页,第二天又将文章二排在首页。这会导致你看到这两个页面的排名每天都在大幅波动。
使用 “site:网站网址” 进行搜索 - 它会告诉你网站有多少页面被索引

看看你的网站有多少页面被索引,从而看看你的URL是否在该搜索引擎中存在问题。可以参数化你的URL。
检查网页的 meta 描述长度

你可以使用 Yoast 或 Rank Math 等 SEO 插件来优化长度,规范你的Meta 描述的写法还有长度,避免重复的描述。
检查重复内容问题

网站内容重复是指网站上的内容已经发布在其他网页上。
谷歌一直在改进其算法,以提供最佳的用户体验并努力保持网络环境的无垃圾内容。由于重复内容不会为用户提供价值,因此谷歌创建了算法来识别和惩罚发布重复内容的网站。
以下是一些常见的内容重复形式:
通用内容复制: 从产品制造商的网站复制产品描述并发布为己有。例如,你从亚马逊网站复制产品描述并将其发布到网站上。
内容自发布: 首先在其他地方(例如社交媒体、文章提交目录(如 Quora 或知名文章网站))发布内容,然后将其发布到你的网站上。
第三方抄袭: 从第三方网站复制内容并发布为己有。
你可以使用 Google Analytics 或任何 SEO 工具(例如 SEMrush)
检查复制内容

重复内容问题有两类:外部重复内容和内部重复内容。
利用专门的工具和技巧可以检测并筛查分析网站中的这两类重复内容,从而优化你的网站,方便搜索引擎抓取并提高排名。
👇往期精选👇:
SEO技术分享(一)-- 谷歌是如何对网站进行排名的--谷歌公布了排名前10的因素

感谢
阅读,点赞,分享,转发,订阅
公众号:

如有网站建设,小程序设计需求或相关事宜请联系下面的客服号👇


