[seo白帽的制作方法]_在百度每一次大小更新的时候我们做一些什么

www.百度优化.com 次浏览

摘要:想必大家都知道百度在每周三是大更新,周四是小更新,而在周二周三的时候最需要做什么呢?或许许多人还是不太明白,推吧告诉你一些经验吧。1、创造原创内容原创内容一直是搜索引擎比较喜欢,而且都比较重视,对于整体的网站质量来说,原创内容的位置无疑是第想必大家都知道百度在每周三是大更新,周四是小更新,而在周二周三的时候最需要做什么呢?或许许多人还是不太明白,推吧告诉你一些经验吧。1、创造原创内容原创内

想必大家都知道百度在每周三是大更新,周四是小更新,而在周二周三的时候最需要做什么呢?或许许多人还是不太明白,推吧告诉你一些经验吧。 1、创造原创内容 原创内容一直是搜索引擎比较喜欢,而且都比较重视,对于整体的网站质量来说,原创内容的位置无疑是第

想必大家都知道百度在每周三是大更新,周四是小更新,而在周二周三的时候最需要做什么呢?或许许多人还是不太明白,推吧告诉你一些经验吧。

1、创造原创内容

原创内容一直是搜索引擎比较喜欢,而且都比较重视,对于整体的网站质量来说,原创内容的位置无疑是第一位的。在百度更新前,适当的加一些原创性的文章对网站是大有裨益。

2、增加高质量链接

在百度更新的前一天可以增加3-6个高质量的友情链接,高质量的链接主要的表现在于:PR高、导出链接少、百度快照更新、site时首页在第一个。

3、生成网站地图

其实在百度更新前,最重要的事情就是生成网站地图,包括XML地图和RSS地图,这可以更好的引导蜘蛛爬行页面并进行收录。

4、发布带链接的软文

在百度更新的前一天,需要到一些网站上发布文章,里面加上自己的链接,以便更好的勾引蜘蛛到你的网站里旅游,从而抓取到网站地图,再进行循环爬行更新。

百度即将大更新的时候,我们没必要太过重视,以不变应万变才是解决之道。

武汉网络推广引流培训

多人拼团怎么推广引流

网站优化中怎样尽量减少无效URL的爬行和索引

在网站优化工作中,不是所有被收录的页面都可以给网站带来积极作用的,下面该文就是如何处理这方面问题的一些方法

简单说,帖子指出一个严重而且现实的SEO问题:很多网站,尤其是B2C,产品条件过滤系统(如选择产品的品牌、价格、尺寸、性能、参数等)会产生大量无效URL,之所以称为无效只是从SEO角度看的,这些URL并不能产生SEO作用,反倒有负面作用,所以这些URL不收录为好,原因包括:

大量过滤条件页面内容重复或极为类似(大量复制内容将使网站整体质量下降)
大量过滤条件页面没有对应产品,页面无内容(如选择“100元以下42寸LED电视”之类的)
绝大部分过滤条件页面没有排名能力(排名能力比分类页面低得多)却浪费一定权重
这些过滤条件页面也不是产品页面收录的必要通道(产品页面应该有其它内链帮助爬行和收录)
爬行大量过滤条件页面极大浪费蜘蛛爬行时间,造成有用页面收录机会下降(过滤条件页面组合起来是巨量的)
简单说,帖子指出一个严重而且现实的SEO问题:很多网站,尤其是B2C,产品条件过滤系统(如选择产品的品牌、价格、尺寸、性能、参数等)会产生大量无效URL,之所以称为无效只是从SEO角度看的,这些URL并不能产生SEO作用,反倒有负面作用,所以这些URL不收录为好,原因包括:

大量过滤条件页面内容重复或极为类似(大量复制内容将使网站整体质量下降)
大量过滤条件页面没有对应产品,页面无内容(如选择“100元以下42寸LED电视”之类的)
绝大部分过滤条件页面没有排名能力(排名能力比分类页面低得多)却浪费一定权重
这些过滤条件页面也不是产品页面收录的必要通道(产品页面应该有其它内链帮助爬行和收录)
爬行大量过滤条件页面极大浪费蜘蛛爬行时间,造成有用页面收录机会下降(过滤条件页面组合起来是巨量的)
那么怎样尽量使这些URL不被爬行和索引、收录呢?不过可惜,我目前想不出完美的解决方法。提出两个方法,我觉得都无法完美解决。

第一个方法,是将不想收录的URL保持为动态URL,甚至故意越动态越好,以阻止被爬行和收录。但是,搜索引擎现在都能爬行、收录动态URL,而且技术上越来越不是问题。虽然参数多到一定程度确实不利于收录,但4、5个参数通常还可以收录。我们无法确认需要多少参数才能阻止收录,所以不能当作一个可靠的方法。而且这些URL接收内链,又没有什么排名能力,还是会浪费一定权重。

第二个方法,robots禁止收录。同样,URL接收了内链也就接收了权重,robots文件禁止爬行这些URL,所以接收的权重不能传递出去(搜索引擎不爬行就不知道有什么导出链接),页面成为权重只进不出的黑洞。

连向这些URL的链接配合nofollow也不完美,和robots禁止类似,nofollow在Google的效果是这些URL没有接收权重,权重却也没有被分配到其它链接上,所以权重同样浪费了。百度据称支持nofollow,但权重怎么处理未知。

将这些URL链接放在Flash、JS里也没有用,搜索引擎已经可以爬行Flash、JS里的链接,而且估计以后越来越擅长爬。很多SEO忽略了的一点是,JS中的链接不仅能被爬,也能传递权重,和正常连接一样。

也可以将过滤条件链接做成AJAX形式,用户点击后不会访问一个新的URL,还是在原来URL上,URL后面加了#,不会被当成不同URL。和JS问题一样,搜索引擎正在积极尝试爬行、抓取AJAX里的内容,这个方法也不保险。

还一个方法是在页面head部分加noindex+follow标签,意即本页面不要索引,但跟踪页面上的链接。这样可以解决复制内容问题,也解决了权重黑洞问题(权重是可以随着导出链接传到其它页面的),不能解决的是浪费蜘蛛爬行时间问题,这些页面还是要被蜘蛛爬行抓取的(然后才能看到页面html里的noindex+follow标签),对某些网站来说,过滤页面数量巨大,爬行了这些页面,蜘蛛就没足够时间爬有用页面了。

再一个可以考虑的方法是隐藏页面(cloaking),也就是用程序检测访问者,是搜索引擎蜘蛛的话返回的页面拿掉这些过滤条件链接,是用户的话才返回正常的有过滤条件的页面。这是一个比较理想的解决方法,唯一的问题是,可能被当作作弊。搜索引擎常跟SEO讲的判断是否作弊的最高原则是:如果没有搜索引擎,你会不会这么做?或者说,某种方法是否只是为了搜索引擎而采用?显然,用cloaking隐藏不想被爬行的URL是为搜索引擎做的,不是为用户做的。虽然这种情况下的cloaking目的是美好的,没有恶意的,但风险是存在的,胆大的可试用。

还一个方法是使用canonical标签,最大问题是百度是否支持未知,而且canonical标签是对搜索引擎的建议,不是指令,也就是说这个标签搜索引擎可能不遵守,等于没用。另外,canonical标签的本意是指定规范化网址,过滤条件页面是否适用有些存疑,毕竟,这些页面上的内容经常是不同的。

目前比较好的方法之一是iframe+robots禁止。将过滤部分代码放进iframe,等于调用其它文件内容,对搜索引擎来说,这部分内容不属于当前页面,也即隐藏了内容。但不属于当前页面不等于不存在,搜索引擎是可以发现iframe中的内容和链接的,还是可能爬行这些URL,所以加robots禁止爬行。iframe中的内容还是会有一些权重流失,但因为iframe里的链接不是从当前页面分流权重,而只是从调用的那个文件分流,所以权重流失是比较少的。除了排版、浏览器兼容性之类的头疼问题,iframe方法的一个潜在问题是被认为作弊的风险。现在搜索引擎一般不认为iframe是作弊,很多广告就是放在iframe中,但隐藏一堆链接和隐藏广告有些微妙的区别。回到搜索引擎判断作弊的总原则上,很难说这不是专门为搜索引擎做的。记得Matt Cutts说过,Google以后可能改变处理iframe的方式,他们还是希望在同一个页面上看到普通用户能看到的所有内容。

总之,对这个现实、严重的问题,我目前没有自己觉得完美的答案。当然,不能完美解决不是就不能活了,不同网站SEO重点不同,具体问题具体分析,采用上述方法中的一种或几种应该可以解决主要问题。

而最最最大的问题还不是上述这些,而是有时候你想让这些过滤页面被爬行和收录,这才是杯具的开始。以后再讨论。

一是将不想收录的URL保持为动态URL,甚至故意越动态越好,以阻止被爬行和收录。但是,搜索引擎现在都能爬行、收录动态URL,而且技术上越来越不是问题。虽然参数多到一定程度确实不利于收录,但4、5个参数通常还可以收录。我们无法确认需要多少参数才能阻止收录,所以不能当作一个可靠的方法。而且这些URL接收内链,又没有什么排名能力,还是会浪费一定权重。

第二个方法,robots禁止收录。同样,URL接收了内链也就接收了权重,robots文件禁止爬行这些URL,所以接收的权重不能传递出去(搜索引擎不爬行就不知道有什么导出链接),页面成为权重只进不出的黑洞。

连向这些URL的链接配合nofollow也不完美,和robots禁止类似,nofollow在Google的效果是这些URL没有接收权重,权重却也没有被分配到其它链接上,所以权重同样浪费了。百度据称支持nofollow,但权重怎么处理未知。

将这些URL链接放在Flash、JS里也没有用,搜索引擎已经可以爬行Flash、JS里的链接,而且估计以后越来越擅长爬。很多SEO忽略了的一点是,JS中的链接不仅能被爬,也能传递权重,和正常连接一样。

也可以将过滤条件链接做成AJAX形式,用户点击后不会访问一个新的URL,还是在原来URL上,URL后面加了#,不会被当成不同URL。和JS问题一样,搜索引擎正在积极尝试爬行、抓取AJAX里的内容,这个方法也不保险。

还一个方法是在页面head部分加noindex+follow标签,意即本页面不要索引,但跟踪页面上的链接。这样可以解决复制内容问题,也解决了权重黑洞问题(权重是可以随着导出链接传到其它页面的),不能解决的是浪费蜘蛛爬行时间问题,这些页面还是要被蜘蛛爬行抓取的(然后才能看到页面html里的noindex+follow标签),对某些网站来说,过滤页面数量巨大,爬行了这些页面,蜘蛛就没足够时间爬有用页面了。

再一个可以考虑的方法是隐藏页面(cloaking),也就是用程序检测访问者,是搜索引擎蜘蛛的话返回的页面拿掉这些过滤条件链接,是用户的话才返回正常的有过滤条件的页面。这是一个比较理想的解决方法,唯一的问题是,可能被当作作弊。搜索引擎常跟SEO讲的判断是否作弊的最高原则是:如果没有搜索引擎,你会不会这么做?或者说,某种方法是否只是为了搜索引擎而采用?显然,用cloaking隐藏不想被爬行的URL是为搜索引擎做的,不是为用户做的。虽然这种情况下的cloaking目的是美好的,没有恶意的,但风险是存在的,胆大的可试用。

还一个方法是使用canonical标签,最大问题是百度是否支持未知,而且canonical标签是对搜索引擎的建议,不是指令,也就是说这个标签搜索引擎可能不遵守,等于没用。另外,canonical标签的本意是指定规范化网址,过滤条件页面是否适用有些存疑,毕竟,这些页面上的内容经常是不同的。

目前比较好的方法之一是iframe+robots禁止。将过滤部分代码放进iframe,等于调用其它文件内容,对搜索引擎来说,这部分内容不属于当前页面,也即隐藏了内容。但不属于当前页面不等于不存在,搜索引擎是可以发现iframe中的内容和链接的,还是可能爬行这些URL,所以加robots禁止爬行。iframe中的内容还是会有一些权重流失,但因为iframe里的链接不是从当前页面分流权重,而只是从调用的那个文件分流,所以权重流失是比较少的。除了排版、浏览器兼容性之类的头疼问题,iframe方法的一个潜在问题是被认为作弊的风险。现在搜索引擎一般不认为iframe是作弊,很多广告就是放在iframe中,但隐藏一堆链接和隐藏广告有些微妙的区别。回到搜索引擎判断作弊的总原则上,很难说这不是专门为搜索引擎做的。记得Matt Cutts说过,Google以后可能改变处理iframe的方式,他们还是希望在同一个页面上看到普通用户能看到的所有内容。

总之,对这个现实、严重的问题,我目前没有自己觉得完美的答案。当然,不能完美解决不是就不能活了,不同网站SEO重点不同,具体问题具体分析,采用上述方法中的一种或几种应该可以解决主要问题。

而最最最大的问题还不是上述这些,而是有时候你想让这些过滤页面被爬行和收录,这才是杯具的开始。以后再讨论。

 网站引流推广方式名噪一时的饭统网倒闭了

来自微信牛智超的消息: 餐饮预订网站饭统网,2011年之前,名噪一时;后来很少听到它的声音;今天,它倒了(网站已经打不开)。400电话也处于忙碌无人接通状态,电商业内人士龚文祥接到爆料,饭统网的供应商去收欠款,结果人去楼空。

网上如何推广引流

fantong.com已经打不开

4月7日前,饭统网就没了流量数据

电商业内人士龚文祥接到爆料,饭统网的供应商去收欠款,结果人去楼空。

饭统网CEO臧力在接受采访时表示,公司成立后第10个月的时候,就发现,剩下的钱,只够运营一个月。这意味着,公司必须尽快获得收入。而后,团购模式对电子商务造成了不小的冲击。团购出现之前,饭统网再没获得过新的融资。相反,大众点评在2008年就已经完成了两轮融资。这期间,饭桶网也并未做过太大的产品转型,依然保持着1.0模式。形势不等人。腾讯对大众点评的投资、移动互联网的风靡,饭统网都缺席了。

盈利模式

首先是收会员年费,餐厅即为会员,一年交1000元会费。

其次是收取佣金,会员餐厅返还5%的消费佣金给饭统网。

最后是广告费和为团体用户服务,如承办年会、培训等。

关于饭统网

饭统网成立于2003年,号称是中国第一家免费提供餐厅预订服务、免费提供餐饮优惠折扣服务的在线餐饮综合服务企业。

2008年6月饭统网全资收购广州“天下饭庄”网站;

2008年7月饭统网获得日本亚洲投资为代表的四家海外风险投资企业近3000万元人民币(400万美元)风险投资。

覆盖中国80个主流城市、50万家餐厅第一手信息;截止2009年12月,饭统网累计为1600多万消费者提供了餐饮预订服务,累计订单超过350万张,累计贡献消费额15亿元以上。

汽车展柜引流怎么推广

想了解更多关于【百度优化关键词排名必须掌握的三大优化策略】和【谈谈身边的北漂互联网人,去留北京的因素 】的朋友请站内搜索。想做黑帽或者白帽推广的老板请添加客服。 www.百度优化.com 为您24小时服务!
随机内容
// // // //