【56谷歌seo】专注谷歌seo,谷歌优化推广,外贸网站推广外包,联系微信:00000000, 手机:00000000
主页 > 谷歌SEO > 正文

详细的robots.txt文件的写法

谷歌SEO 0评论

这里再详细介绍下:

 

搜索引擎用来爬取网页内容的工具我们称之为搜索引擎机器人。搜索引擎机器人每次来到要抓取的网站,都会先访问这个网站根目录下的一个文件(robots.txt),如果不存在该文件,则搜索引擎机器人默认这个网站允许其全部抓取。

 

robots.txt是一个简单的纯文本文件(记事本文件),搜索引擎机器人通过robots.txt里的“说明”,理解该网站是否可以全部抓取或部分抓取。如果你希望搜索引擎收录你网站的全部网页,则你可以不设置robots.txt或上传一个命名为robots.txt的空记事本到根目录。上传你的robots.txt后,通过 你的域名/robots.txt 可以正常访问。 注意,robots.txt的命名,都应该是小写。访问如:

 

robots.txt写法


 

robots.txt文件的内容主要就是一个代码:Disallow:

 

注意,robots.txt文件中一般要包含至少一个Disallow:

 

如果都允许收录,你可以写一行Disallow:/search.html   这个文件(search.html)本来就不存在也没事。

 

格式如:

 

User-agent: *

 

Disallow: /search.html

 

Disallow: /index.php?

 

Disallow: /tempweb/

 

说明:

 

User-agent: *   这里说明本Robots.txt针对哪一个搜索引擎蜘蛛而言,星号代表针对所有搜索引擎蜘蛛,包括百度、google、yahoo等。

 

Disallow: /search.html  说明不允许收录 /search.html 这个文件。

 

Disallow: /index.php?  说明不允许收录以index.php?为前缀的链接如:index.php?122.html、index.php?=12、index.php?/baidu等等

 

Disallow: /tempweb/  说明不允许收录/tempweb/里的所有文件。但可以收录如:/tempwebtaim.html 的链接。

 

Disallow: /*-*      屏蔽全站url内带有 - 的链接

 

Disallow: /*?*      屏蔽全站url内带有 ?  的连接

 

Disallow: /*html?*      屏蔽全站url内带有 html?  的连接

 

这里介绍的是常用的几个代码。

 

如果需要了解更多关于Disallow:的用法,请了解百度官方的介绍:

 

通过robots.txt来删除被收录的内容

 

1、当你的网页已被收录,但想用robots.txt删除掉,一般需要1-2个月。

 

2、结合Google网站管理员工具,你可以马上删除被Google收录的网页。

 

3、结合百度的站长平台,通过这里可以尽快删除被百度收录的页面:

 

使用Robots.txt遵循这么几个原则:

 

1、不要屏蔽首页的后缀,比如:index.php,index.html 等;

 

2、不要写太多带星号的,尽量简洁一些,我们看百度和Google的robtos.txt带星号的写法几乎没有,太多带星号的,就可能存在误伤;

 

3、不用什么都屏蔽,某些页面即使被收录了也不影响什么的,就建议可以不用屏蔽。
 

百度robots.txt写法

 

相关问题:

 

1、我发现有一个网站被K了,但它加了我的网站链接,我可以把它屏蔽吗?

 

被K的网站加你网站的链接,对你网站是没有太大影响的。通过robots.txt也没有办法屏蔽外部链接。

 

2、我的首页是index.html,我可以把index.php屏蔽吗?

 

为了安全起见,请不要屏蔽,因为index.php才是真实存在的首页。不屏蔽是一定没事,但屏蔽了,可能存在隐患。

 

3、我不喜欢我网站的后台登陆地址被搜索引擎收录,同时也不希望放在robots.txt里被其他人知道。我怎么来屏蔽呢?

 

这个确实是一个问题,我们想到一个解决办法是这样:

 

比如:你的网站后台是/wp-admin.php    那么你在robtos.txt里只要写上

 

Disallow: /wp-admi     这样的写法,就屏蔽了 /wp-admi  之后所有的url方式。

 

4、如果我只是具体某一个页面不希望被收录,怎么办?

 

在这个robtos.txt里直接屏蔽这个页面的URL就可以。

 

如:Disallow: /123/nourl.html

 

5、有什么注意的经验?

 

1、江西SEO曾庆平经常看到一些SEO的朋友,在robots.txt里屏蔽了首页文件。比如:index.html、index.php、Default.php,原因是,他的首页可能是index.asp,但通过以上这几个也能访问首页,于是,他就想屏蔽了他们。这样的做法是不对的。首页,尽量都不要屏蔽。

 

2、如果网站上存在一些比较大的文件、比如:打包文件、大图片文件、音乐文件、或电影文件、日志文件夹等等,可以屏蔽掉,因为这些文件可能让你的流量过大,占用过多宽带。具体例子就是江西SEO曾庆平的robots.txt:

 

这里有一个

 

Disallow: /uploads/   因为曾庆平很多图片放在uploads里,通过这个方式,就可以避免图片被收录,从而节省流量和带宽。

 

6、举个例子说明robots.txt的作用和做法

 

在百度site:qingpingseo.com 然后多点击几页,会发现存在很多不带www的类似这样的URL,(因为已经屏蔽,所以,你查看时,可能已经不存在

 

点击里面的链接,发现不能访问,或能访问,却访问到不同的帖子内容。这个url来源是每个帖子左上角的 上一页,下一页。这里的。而因为每个页面“上一页,下一页”的内容是变化的,这就导致百度收录的那个URL,内容不断变化;这会影响网站的在搜索引擎的信任度,所以,现在采取的办法是,采用robots.txt屏蔽了这类URL。

 

7、用工具判断自己设置的robots.txt 有没语法错误

 

地址:

 

8、我想屏蔽某一个二级域名,如何屏蔽?

 

新建一个robots.txt文件,里面是屏蔽全站的代码(Disallow: /),然后上传到二级域名的根目录下,让通过 xx.yuming.com/robots.txt 可以访问到。

 

9、但为什么江西SEO曾庆平的robots.txt那么复杂?

 

作为未来的SEO精英,你需要深入了解并充分利用robots.txt。

 

10、robots.txt里是否可以放sitemap地址?

 

可以。可以把网站sitemap地址放在robots.txt里,方便搜索引擎抓取。放的方式可以为 Sitemap:
 

喜欢 (0)
本文地址http://www.sht56.net/gugeseo/152.html

更多详细的robots.txt文件的写法

发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

【56谷歌SEO】分享谷歌SEO排名技巧,Google优化心得,致力于外贸推广,Google搜索引擎关键词优化,搜索引擎优化SEO从入门到精通。

首页 Copyright 2015—2018 56谷歌SEO优化 版权所有 网站地图

长按微信号复制

0000000000

打开微信

seo

装修

房地产

公关

租号

租号