深圳推广公司介绍谷歌解释了Robots文件阻止页面排名的方式
谷歌的约翰·缪勒最近解释了如何确定robots.txt阻止的网页的查询相关性。
它已被指出,谷歌仍然会遭到robots.txt阻止索引页。但谷歌如何知道对这些页面进行排名的查询类型?
这就是昨天的谷歌网站管理员中心环聊中出现的问题:
“现在每个人都在谈论用户意图。如果某个网页被robots.txt屏蔽,并且正在排名,谷歌会如何确定与网页内容相关的查询相关性?
作为回应,穆勒表示,如果内容被阻止,谷歌显然无法查看内容。
所以谷歌所做的就是找到其他方法来将网址与其他网址进行比较,当被robots.txt阻止时,这肯定会更难。
在大多数情况下,谷歌会优先编制网站其他网页的索引,这些网页更易于访问且不会被阻止抓取。
如果谷歌认为有价值的话,有时被robots.txt屏蔽的网页会在搜索结果中排名。这是由指向页面的链接决定的。
那么谷歌如何找出如何对被阻止的网页进行排名呢?答案归结为链接。
最终,用robots.txt阻止内容并不是明智之举,并希望谷歌知道如何处理它。
但是,如果您碰巧有被robots.txt阻止的内容,谷歌会尽力弄清楚如何对其进行排名。