【嘉兴网站快速排名优化】(嘉兴网站优化方案)_北京sem优化培训

黑帽SEO 次浏览

摘要:【嘉兴网站快速排名优化】(嘉兴网站优化方案)_北京sem优化培训在接手一个网站时,无论做什么诊断分析,都少不了检查robots文件,为什么有的网站天天发文章却未见收录,很有可能是因为被robots文件里的规则屏蔽了。那么什么是robots文件,它有什么作用?本篇文章为你详细解答并教你如何写robots文件

【嘉兴网站快速排名优化】(嘉兴网站优化方案)_北京sem优化培训

在接手一个网站时,无论做什么诊断分析,都少不了检查robots文件,为什么有的网站天天发文章却未见收录,很有可能是因为被robots文件里的规则屏蔽了。那么什么是robots文件,它有什么作用?本篇文章为你详细解答并教你如何写robots文件。

图1 robots文件
一、robots文件简介

简单来说就是一个以robots命名的txt格式的文本文件,是网站跟爬虫间的协议(你可以理解为搜索引擎蜘蛛抓取的规则),当搜索引擎发现一个新的站点时,首先会检查该站点是否存在robots文件,如果存在,搜索引擎则会跟据robots文件规定的规则来确定可以访问该站点的范围。

二、robots文件的作用

1.禁止搜索引擎收录网站,以保障网站的安全。比如一些网站是客户管理系统,只需要公司员工登录即可,属于并不想公开的私密信息,为了防止信息泄露就可以使用robots文件进行屏蔽抓取。

2.网站内的部分目录或内容如果不希望搜索引擎抓取,如WordPress的后台文件 wp-admin,管理仪表盘或其他页面,这些对搜索引擎无用的页面就可以借助robots文件来告诉搜索引擎不要抓取此目录下的内容,这样就可以让有限带宽的蜘蛛深入抓取更多需要被抓取收录的页面。

3.屏蔽一些动态链接,统一网站链接类型,集中权重。

三、robots文件写法

1、首先先来了解下robots文件里的内容由那几部分构成:

robots文件由User-agent和规定搜索引擎允许或禁止抓取的范围(Allow或Disallow)组成,在robots文件中还可以包括在sitemap文件的链接。举一个例子:

User-agent: Baiduspider Allow: /wp-content/uploads/ Disallow: /w? Sitemap:http:/www.seobti.com/sitemap.xml

该例子中就包含有User-agent、Allow、Disallow 、Sitemap等。下面具体来解释下各自代表的意思。

User-agent: 该项的值用于描述搜索引擎robot的名字。在robots.txt文件中,至少要有一条User-agent记录。如果该项的值设为*(即:“User-agent:*”),则对任何robot均有效。另外如果只针对百度搜索引擎,则该项的值为:Baiduspider(即:“User-agent:Baiduspider”)。

Disallow:?该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。

举例说明:

Disallow: /help?” 禁止robot访问/help.html、/helpabc.html、/help/index.html,而 “?Disallow:/help/”则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。 “Disallow: /”说明不允许搜索引擎robot访问该网站的所有url链接,需要注意的是robots.txt文件中,至少要有一条Disallow记录。

Allow: 该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。

举例说明:

Allow:/hibaidu”允许robot访问/hibaidu.htm、/hibaiducom.html以及hibaidu这个目录内的所有内容,比如/hibaidu/com.html。 一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。如:“Disallow: /uploads/ Allow: /uploads/allimg/”只允许抓取/uploads/目录下的allimg文件。

以上是sitemap组成常见的部分,为了让robots写法更准确,我们还可以使用借助“*”and “$”来更精【网站怎么快速排名】确的制定搜索引擎抓取规则。

“ *”and “ $”:robots文件中可以使用通配符“*”和“$”来模糊匹配url。“*” 匹配0或多个任意字符, “$” 匹配行结束符。

举例说明:

Allow:/hibaidu可以写成Allow:/hibaidu*”,而Allow:/hibaidu$规定允许抓取的范围只限hibaidu这个目录及目录内的内容。其写法作用效果等同于Allow:/hibaidu/。 Disallow: /*.asp$和Disallow: /*.asp两种写法,看似相似却规定的范围却大不相同。其中“Disallow: /*.asp$”指仅拦截以.asp结尾的网址,而“Disallow: /*.asp”则了拦截所有包含.asp的网址(可能有的.asp后还有一些参数),包括以.asp结尾的网址,也就是Disallow: /*.asp规定的范围包含了Disallow: /*.asp$的规定范围。

2、格式

在robots文件中,一个“User-agent”代表一条记录,且这样的记录可以包含一条或多条记录。如:

一条记录

User-agent:* Disallow:/template/ #该协议只有一条记录,该协议对所有搜索引擎有效 

多条记录

User-agent: Baiduspider Disallow: /w? Disallow: /client/  User-agent:【移动端键词快速排名】 Googlebot Disallow: /update Disallow: /history  User-agent: bingbot Disallow: /usercard  #多条记录,针对不同的搜索引擎使用不同的协议 

解读:“User-agent:*”中的“*”是通配符的意思, 也就是说该记录下的协议适用任何搜索引擎,而“User-agent:Baiduspider”中的“Baiduspider”是百度搜索引擎的爬取程序名称,也就是该协议只针对百度搜索引擎。

一般来说,优化的对象如果只针对国内的用户,那么就可以使用多条记录的方式来限制国外搜索引擎的抓取,以此可以节省服务器部分资源,减小服务器压力。

另外需要注意的是:robots.txt文件中只能有一条 “User-agent:*”这样的记录。

3、语法说明

这里主要列举几个最常见的情况,如下图图2所示:

图2 robots语法示例

4、robots的其他用法

除了使用robots.txt来告知搜索引擎哪些页面能被抓取,哪些页面不能被抓取外,robots还有另外一些写法——Robots meta 标签。

Robots.txt文件主要是限制整个站点或者目录的搜索引擎访问情况,而Robots Meta标签则主要是针对一个个具体的页面。和其他的META标签(如使用的语言、页面的描述、关键词等)一样,Robots Meta标签也是放在页面中,专门用来告诉搜索引擎ROBOTS如何抓取该页的内容。

Robots Meta标签中没有大小写之分,name=“Robots”表示所有的搜索引擎,可以针对某个具体搜索引擎写为name=“BaiduSpider”。

content部分有四个指令选项:index、noindex、follow、nofollow,指令间以“,”分隔。

index指令告诉搜索机器人抓取该页面; follow指令表示搜索机器人可以沿着该页面上的链接继续抓取下去; noindex命令:告诉搜索引擎不允许抓取这个页面 nofollow命令:告诉搜索引擎不允许从此页找到链接、拒绝其继续访问。

具体写法有以下四种:

<meta name="robots" content="index,follow"><!--可以抓取并索引本页,同时还可以顺着本页的链接继续抓取下去--> <meta name="robots" content="noindex,follow"><!--不能索引本页但可以顺着本页的链接继续抓取下去--> <meta name="robots" content="index,nofollow"><!--可以索引本页但不允许抓取本页的链接--> <meta name="robots" content="noindex,nofollow"><!--既不能索引本页同时也不可以抓取本页的链接--> 

其中:

<meta name="robots" content="index,follow">

可以写成

<meta name="robots" content="all">

<meta name="robots" content="noindex,nofollow">

可以写成

<meta name="robots" content="none">

另外著名搜索引擎GOOGLE还增加了一个指令“archive”,可以限制GOOGLE是否保留网页快照。例如:

<meta name="googlebot" content="index,follow,noarchive">

需要注意的是并不是所有的搜索引擎都支持Robots meta标签写法。

四、使用robots文件需要注意的一些事项

1、robots文件应放在网站根目录,链接地址为:www.xxx.com/robots.txt

2、鉴于不希望搜索引擎收录网站的隐私文件,可以使用robots文件来禁止抓取,但这样却正好可以被黑客所利用, 所以robots文件并不能保证网站的隐私,因此在robots规则时,可以使用“*”来模糊匹配。 如:Disallow:/my*

3、“Disallow: /【快速排名首页前三】help”与“Disallow: /help/”规定的抓取范围有所不同,“/help”包含“/help.html、/help*.html、/help/index.html”等页面,而“/help/”不包含“/help.html、/help*.html”等页面。

【嘉兴网站快速排名优化】(嘉兴网站优化方案)_北京sem优化培训(图1)

 本文内容主要是有关于::【嘉兴网站快速排名优化】(嘉兴网站优化方案)和[北京sem优化培训]

如果您有想法通过seo排名。来获得精准流量。请添加客服咨询我们。专业的团队+AI智能让您没有后顾之忧。

随机内容
网店引流推广捣毯云速捷hv冖_黑帽seo培训视频教程_葫芦岛SEO培训-葫芦岛SEO公司-葫芦岛SEO- 网店引流推广捣毯云速捷hv冖_黑帽seo培训视频教程_葫芦岛SEO培训-葫芦岛SEO公司-葫芦岛SEO-
怎么推广引流首选金手指疒_多个域名怎么黑帽seo_绵阳seo培训-绵阳seo优化公司-绵阳快速排名-【】 怎么推广引流首选金手指疒_多个域名怎么黑帽seo_绵阳seo培训-绵阳seo优化公司-绵阳快速排名-【】
银行引流推广方案_seo黑帽技术培训_手机行业如何引流与推广网友占领奥巴马的Google+ 银行引流推广方案_seo黑帽技术培训_手机行业如何引流与推广网友占领奥巴马的Google+
推广引流该如何推广_黑帽seo之家论坛_邹平推广引流Gooogle发布生成https加密证书工具mkcert 推广引流该如何推广_黑帽seo之家论坛_邹平推广引流Gooogle发布生成https加密证书工具mkcert
h5线下引流推广方案有哪些_seo技术中白帽 灰帽和黑帽_推广引流宝Uber刷单调查:量级达百万 淘宝交易近20万账户 h5线下引流推广方案有哪些_seo技术中白帽 灰帽和黑帽_推广引流宝Uber刷单调查:量级达百万 淘宝交易近20万账户
超市引流推广哪家好_黑帽seo有什么手段_白银SEO培训-seo培训课程-SEO实战技术-【】 超市引流推广哪家好_黑帽seo有什么手段_白银SEO培训-seo培训课程-SEO实战技术-【】
花钱推广引流靠谱吗_黑帽seo最新蜘蛛劫持_无锡SEO培训-无锡SEO优化培训-【培训】 花钱推广引流靠谱吗_黑帽seo最新蜘蛛劫持_无锡SEO培训-无锡SEO优化培训-【培训】
怎么弄推广引流_seo和黑帽优缺点_卖书引流推广怎么做抽烟解闷的程序员 怎么弄推广引流_seo和黑帽优缺点_卖书引流推广怎么做抽烟解闷的程序员
手机怎么做引流推广赚钱_云南黑帽seo技术_鸡年的第一次SEO面试经历 | 手机怎么做引流推广赚钱_云南黑帽seo技术_鸡年的第一次SEO面试经历 |
学生一元精准推广引流_白帽seo批量生产工具_帮助对方引流推广吗内测升级!企业微信与微信“互通群聊”了 学生一元精准推广引流_白帽seo批量生产工具_帮助对方引流推广吗内测升级!企业微信与微信“互通群聊”了
// // // //