主页 > 谷歌SEO > 【澳门江苏谷歌seo】深入了解robots.txt文件怎么写

【澳门江苏谷歌seo】深入了解robots.txt文件怎么写

  【澳门江苏谷歌seo】深入了解robots.txt文件怎么写?。

  1、用robots.txt屏蔽相似的页面或没内容的页面。

  我们知道,搜索引擎收录网页后,会对网页进行“审核”,当网页的相似度很高时2个页面,搜索引擎会删除其中一个。

  假如以下这两个链接,内容其实差不多,所以第一个链接应该屏蔽。

  ?tid=5167&goto=lastpost#lastpost

  第一个的链接非常多,屏蔽时,只要屏蔽/bbs/redirect.php? 就屏蔽了所有的。代码如:Disallow: /bbs/redirect.php?

  类似这样的页面,没有内容,也应该屏蔽:?sid=247304&lang=zh&action=writecomment&id=77&artlang=zh 这样的链接也很多,屏蔽时,只要屏蔽/index.php?sid= 就屏蔽了所有的。代码如:Disallow: /index.php?sid=

  2、用robots.txt屏蔽多余的链接,当动态和静态共存时,一般去掉动态的。

  网站中经常会存在多个链接指向同一个页面,这种情况普遍存在时,会让搜索引擎对网站的权威性产生怀疑。通过robots.txt把非主要的链接去掉。

  

澳门江苏谷歌seo

 

  假如以下两个链接指向同样的页面,去掉次要的第一个。

  ?username=曾庆平

  代码如:Disallow: /space.php?username=

  特别需要注意的是,首页一般有这么几个链接: qingpingseo.com/index.html 等,这个时候,不要屏蔽 index.html。因为如index.html index.php 等是默认首页,屏蔽可能导致蜘蛛爬取错乱。

  咱们需要做的是,在给首页做站内外链接时,统一用不带index.html 的qingpingseo.com/ 即可。这是URL标准化的概念。

  3、用robots.txt屏蔽死链接。

  死链接就是原来存在,后来因为改版或更新等缘故删除了的链接和网页。比如,原来在某个目录(假设目录为/tempweb/)下的所有链接,因为改版现在都变为死链接了,可以用robots.txt屏蔽。代码如:Disallow: /tempweb/

  4、用robots.txt屏蔽可能存在的“被K”外部链接。

  很多网站允许用户放自己的网站链接,但因为过多的“被K”外部链接可能连累自己。所以,很多把所有外部链接放入一个链接目录下,然后通过robots.txt统一屏蔽。

  如果你对Disallow:的具体操作办法不是很清楚,你可以从这里了解我之前发布的robots文章:新手学习详细的robots.txt写法

原标题:【澳门江苏谷歌seo】深入了解robots.txt文件怎么写


发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

56谷歌SEO优化致力于提供最专业的谷歌SEO优化,外贸SEO推广及外贸建站服务。通过Google优化提升网站搜索排名,打破谷歌推广高价门槛,让你能够以最低的成本做好谷歌优化,提高Google排名。

Copyright 2015—2018 网站地图|网站地图txt