分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
怎么能保持网站快照的天天更新呢?其中这些核心方法大部分站长SEO们都比较清楚,一旦你掌握了,并且坚持按部就班的做好,随了网站权重的提升,网站快照天天更新是不难的。那么这些核心的方法是什么呢?
1、培养网站的权重
网站权重这个东西,特别是对新站来说,是需要慢慢培养的。网站权重对快照更新时间是一个很重要的指标,有这样一种说法,就是你网站权重多高,搜索引擎就收录你网站多少,当然这个多少是一个百分比,就是你网站整个页面的百分比,所以说新站要提高权重,首先应丰富站内,围绕你网站的主题来组织内容,是你的网站成为在某个领域具有丰富和高质量内容的集合地,那么搜索引擎会对你网站越来越青眯,你网站的权重也会慢慢提升,这期间同时也应做一些高质量的外链,提升蜘蛛爬你网站的次数,促进网站收录,进一步提升网站权重。
2、网站内容的新鲜度和吸引性
内容的新鲜度其实就是我们所说的原创性,就是要让搜索引擎认为我们的内容是在互联网上独一无二的,只有这样的内容才对搜索引擎有吸引性,长时期的这样做,会刺激蜘蛛爬行网站的频率,让搜索引擎越来越喜欢我们的网站,对网站权重也会不断的提升。同时也就能促进快照时间的天天更新,因为我们天天有新的东西来吸引它,让它保持对我们网站的抓取和更新。
3、高质量外部链接的广泛性与相关性
除了从网站整体上来提升网站权重和内容新鲜度来吸引搜索引擎的重视之外,网站外部链接建设也是一个重点,网站外部链接建设很多站长很明白,这里不做重点介绍,主要是注意2点,广泛性和相关性。比如广泛性,我们写一篇软文营销,能被各大网站转载这样的效果很不错。相关性的话友情链接是一个重点,相关性的友情链接对网站权重和网站排名有很大作用。外链的形式也有多样化,比如URL链接就是促进蜘蛛对网站的爬行率,提升网站收录,从而提高网站权重,促进快照的天天更新。
以上3点做好了就基本上能保持快照的天天更新,当然这3点要同步进行,关键是要有规律的并且持之以恒的坚持去做,快照时间天天更新并非难事。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
百度搜索引擎搜索优化指南V2.0 合理的返回码 原文如下。
合理的返回码
百度爬虫在进行抓取和处理时,是根据 http 协议规范来设置相应的逻辑的,所以请站长们也尽量参考 http 协议中关于返回码的含义的定义来进行设置。百度spider 对常用的 http 返回码的处理逻辑是这样的 :
404 •
404返回码的含义是“NOT FOUND”,百度会认为网页已经失效,那么通常会从搜索结果中删除,并且短期内spider再次发现这条url也不会抓取。
503 •
503返回码的含义是“Service Unavailable”,百度会认为该网页临时不可访问,通常网站临时关闭,带宽有限等会产生这种情况。对于网页返回503,百度spider不会把这条url直接删除,短期内会再访问。届时如果网页已恢复,则正常抓取;如果继续返回503,短期内还会反复访问几次。但是如果网页长期返回503,那么这个url仍会被百度认为是失效链接,从搜索结果中删除。
403 •
403返回码的含义是“Forbidden”,百度会认为网页当前禁止访问。对于这种情况,如果是新发现的url,百度spider暂不会抓取,短期内会再次检查;如果是百度已收录url,当前也不会直接删除,短期内同样会再访问。届时如果网页允许访问,则正常抓取;如果仍不允许访问,短期内还会反复访问几次。但是如果网页长期返回403,百度也会认为是失效链接,从搜索结果中删除。
301 •
301返回码的含义是“Moved Permanently”,百度会认为网页当前跳转至新url。当遇到站点迁移,域名更换、站点改版的情况时,推荐使用301返回码,尽量减少改版带来的流量损失。虽然百度spider现在对301跳转的响应周期较长,但我们还是推荐大家这么做。
百度建议
1)如果站点临时关闭,当网页不能打开时,不要立即返回404,建议使用503状态。503可以告知百度spider该页面临时不可访问,请过段时间再重试。
2)如果百度spider对您的站点抓取压力过大,请尽量不要使用404,同样建议返回503。这样百度spider会过段时间再来尝试抓取这个链接,如果那个时间站点空闲,那它就会被成功抓取了。
3)有一些网站希望百度只收录部分内容,例如审核后的内容,累积一段时间的新用户页等等。在这种情况,建议新发内容暂时返回403,等审核或做好处理之后,再返回正常状态的返回码。
4)站点迁移,或域名更换时,请使用301返回码。
以上的原文内容分为2块来解读,第一:百度spider对于http返回码的处理逻辑。第二:针对百度spider对于http返回码的处理逻辑给予的一些站点处理建议。 那么我们现在先来解读下百度spider对于http返回码的处理逻辑。
404,百度解释:出现404,那么百度spider就会从url索引库当中删除该url并且在短期内在其他页面发现该url也将不会访问该url。这个解释很官方化也很理想化。事实上我们会发现,我们的网站出现了404死链接,百度spider同样会反复抓取。并且当我们网站出现大量404死链接的时候还会出现降权现象。就如谷歌申明的软404才会伤害网站,404不会伤害网站一样的是一个美丽的谎言。当然我们必须承认由于404死链接被谷歌降权的现象还是很少,但是存在。百度那就很多实际的案例了。所以说404死链接对于我们的网站来说,还是很严重的问题。必须用robots进行处理的。
503,百度解释:出现503,百度spider认为站点临时关闭,短期内会再次访问,网页若恢复那就正常,若多次重复503,效果将等同于404.这一点应该是谷歌在谷歌黑板报上最先申明支持站点临时关闭服务器返回503状态码给机器人。这一点,我们可以善加利用,比如网站程序升级,服务器重启,服务器安全检测等需要临时关闭网站的,我们可以采用503状态码来降低404状态码带来的危害。并且这一点是切实可行的。所以下次站长朋友们临时关闭站点检测网站的时候,记得设置服务器返回状态码为503,别再是404或500了。
403,百度解释:百度spider认为网页当前不可访问,请注意采用的是当前2个字,也就是说它认为以后能正常访问,短期内会再次回访。若已经能正常访问,那就正常爬取。若多次重复返回状态码为403,将与404状态码一样处理。这一点,笔者以前倒是没有注意过403状态码对于蜘蛛的影响,毕竟蜘蛛访问到403的概率还是很少的。
301,百度解释:百度spider认为网页已经转向心url,并且给予原有url权重转向新url。但是响应周期较长,主要是第一要考察新url内容是否符合,技术上要做的东西较多;第二要预防一个作弊。
以上就是对于百度spider对于http返回码的解读,那么接下来我们在解读下,百度官方建议。
1)站点临时关闭,使用503状态码。这也是刚刚解读503状态码的时候给予的建议,很中肯的一个建议。
2)若百度spider的频繁抓取导致服务器压力过大,建议采取503状态码。这个建议,相信对很多站长来说,还是很有用的,本身使用的空间,流量有限。而百度spider的频繁抓取占用了大量流量,完全屏蔽掉百度spider也不是个办法,小站长还是得靠 百度来流量呢。那么以前我也曾建议过使用503状态码来解决这个问题,但是没有权威出处,自己也不敢肯定能起到多少的作用,在这里百度是给予正确答复,非常不错的。
3)有一些页面可能是需要长时间的累积获得资料再进行整理发布,这时候在资料的获取当中,如果不希望百度抓取可以返回403状态码。直到处理解决好了,再进行正常的200状态码处理。(这是我将百度建议里的原文进行了一番理解说出来的。原文的意思可能会有一部分读者读不懂。)这里呢,也是一种理想状态,小网站千万别去学这招,权重高的网站不失为一个好方法。
4)站点迁移,域名更换采用301状态码,这个是老生常谈了, 没多少可说的。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
今天翻看之前保存的文档,发现有一份对Robots.txt很详细的解释文档,之前SEO100问里有篇什么是robots的文章大概的讲述了文件的写法,而没有详细的解释User-agent、Disallow、Allow值的含义,不论今天这篇文章是对Robots.txt重新做一个全面的认识,还是老话重提,这都是我们SEO学习者和从事着一次加深记忆的机会,我个人觉得做搜索引擎优化,既然算法我们不可能掌握,但是类似这样公开的搜索引擎语法,其含义都应该真正的去理解。
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。您可以在您的网站中创建一个纯文本文件robots.txt,在文件中声明该网站中不想被robot访问的部分或者指定搜索引擎蜘蛛只收录特定的部分。这里提醒一下,请注意:当你网站不希望搜索引擎全部收录时才用到robots.txt文件(比如你网站后台页面)如果你希望搜索引擎全部收录你的网站,请建立一个空的robots.txt文件。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-07
我们都知道,不同的链接拥有不同的价值,有时候我们建立的链接可以推动我们的网站拥有较高的排名,但是有些链接根本是毫无价值的。链接权重根据不同的因素来区分,包括以下这些:
内部链接vs外部链接
来自高权重和高信任的域名链接
链接在页面中的位置
Alt属性vs文字链接
以及其它不同的因素(via 外链建设十大规则)
当我们在旧网页中建立一个新的链接会发生什么情况呢?一般来说,有一定时间、高权威性的页面链接在很多SEOer的心中,是属于比较好的链接。但是否这种链接能够与在同等域名下新建的页面链接拥有一样的权重呢?今天让我们来讨论下,为什么Google会不同的对待这些链接以及提供了3种可靠的策略来最大化在不同的页面中的新链接的权重。
当我们的网站上增加了一个新的页面,我们希望能够给这个页面添加链接。而网站上原有的老页面,有一定的权威性、较高的PageRank以及很多外部链接,我们往往会在这些老页面中添加一些链接指向我们新的页面,然后很激动的等待着,几周过去了,却没有发生任何的情况。流量没有上升,排名无变化,就好像从来没做过任何事情一样。
这种情况同样适用于外部链接,我们在做链接挖掘的时候,会发现一些很不错的旧网页,我们希望能够在这个页面获得链接。网站的管理员同意了,也添加了一些链接,但是等待一段时间之后,还是同样的结果。
其实这个情况历年来一直存在着,那就是在旧网页上的链接与一个崭新的页面上的链接相比,远远没有我们所想象中的那么有魅力。有一个英国的小伙子,Tim Grice 做了一个实验,在上面的文章已经有提到过。具体的实验过程可以查看这里:被抓取和收录内容中的链接并不会传递权重。他认为旧网页中的链接毫无价值。
What do we mean by an “old page” when we talk about these old pages?(翻译不出味道)从技术上来说,Google是这么定义的,就是之前已经被Google抓取和收录了的页面。或者换个说法,很长一段时间没有更新的陈旧的内容。它们没有新的评论,从发布起一年或者几个月还是一模一样,旧的内容,旧的链接,没有新的导入链接。这就是我们所谈论的旧页面,如果不符合上面这些定义,那它就是一个新的页面。
为什么Google会在意一个网页是否是旧网页?我们不能够完全的了解。不过我们可以从Google申请的一些专利中得到一些暗示,尤其是Document Scoring Based on Document Content Update。在这些年中,它一直不间断的被申请更新,就好像是Google发表的如何运行这个庞大的搜索引擎的声明。所以它值得一看。
在最新的专利里面,Google主要强调了如何识别一个文件的修改程度,它希望去忽略次要的修改。假如你添加一个小小的链接在里面,它就具备这种细微修改的特征。Google会认为靠不住,有欺骗的成分,不是在操纵链接就是在购买链接。
“In order to not update every link’s freshness from a minor edit of a tiny unrelated part of a document, each updated document may be tested for significant changes… and a link’s freshness may be updated (or not updated) accordingly. ”
- Google’s US Patent Application
(为了不因为细小的文件改变而更新链接的新鲜程度,一个更新的文件都会进行是否进行重要更新的测试,然后来判断链接是否可以因此而更新它的新鲜程度。)
通过上面这些,我们了解了Google的这种机制,所以这种链接还是可以传递权重的,只是我们需要做一些措施。如果我们想要去更新链接的话,那么同时围绕新的链接同时更新旁边的内容是一个很好的选择,不要仅仅只是添加一个文字链接在网页的底部。如果我们仅仅只是添加一个链接在网页中,Google考虑说为什么你会添加这个链接?为什么进行这种更新?但是如果你更改了整个段落,Google就会觉得这是一个新的信息,值得去关注,以此通过这个文本中的链接传递更多的权重。
另外,不要忘记更新title这个标签。如果你更新了网站内容,这是一个很好的机会来重写你的网站title。这是Google评估修改的重要程序的另外一个的新鲜信号,在以后的文章中我会翻译好这篇文章。
如果我们希望别人的网站上添加/更新已经存在的失效了的旧链接,我们不仅仅应该要求对方添加/更新链接,还应该提供给他我们所能提供的最全的内容,更多的改变,更多的特征,才能让搜索引擎意识到,从而判定我们的链接是一个新鲜的链接。
但是,如果这个网站的管理员拒绝我们的要求,他只能单纯的添加一个新的链接,而不希望变动他原有的内容,我们还能够怎么做呢?
这时候,我们可以对这个旧网页进行链接建设,这就是所谓的“3 way links”,或者可以看做是不完整的link wheel,在链接建设的世界中,它们就好像擦边球一样。同样的道理,我们也可以从社会化书签方面入手,对该页面进行tweeting,分享,同样也能达到让搜索引擎认为是新鲜的网页的作用。
最后,较简单的方法莫过于建立一个新的页面来添加新的链接,多样化你的链接,给它添加你可以添加的相关的连接。这就是今天所讨论的全部的内容。另外,针对原文中存在的相关评论和中间所提到的文章,都会在后面一段时间进行更新。欢迎提出异议或者疑问,也可以到原文出处(via More Bang for Your Buck: Maximize New Links on Old Pages – Whiteboard Friday)进行浏览和评论,毕竟翻译过来的文章总可能会失去原意和少一些味道。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-07
1、平台选择好
制造正面消息的平台有很多种,比如有百科、问答、论坛、博客以及微博等等,到底什么样的平台适合该企业在上面制造正面信息,这个在项目预先启动的时候就应该注意到。如果本身没有建立百科的企业,可在百科上去建立相关的词条,能编辑相关文字的话,就可以选择博客作为平台来定期发布。
2、在平台的操作方法
不同的平台有不同的特点,也特别讲究其中的方法,比如问答,当你利用已有的帐号提出问题时,如果事先不安排人及时的跟进回复并且及时选择回答关闭提问,那么很有可能会立刻产生负面回答,而这些负面回答对于提问者来说很难删除,因此时效性要特别把握好。而对于博客这样一些平台来说,如果文章更新的过多或者外链过多,都容易导致被删或者帐号被锁定。因此要非常注意一个度的把握,不要前功尽弃。
3、注意效果的监控
当选择好了平台,并且掌握了平台操作方法后,接下来要注意的问题就是及时监测效果了。比如你所做的关键词哪些排名有上升,需要继续保持,继续加外链或者更新文章,哪些关键词的排名有下降,或者是哪些新的负面信息又冒出,需要排除等等,都要周期性的及时跟踪监控。
4、及时调整方法
除了前面提到的三个方面,第四就是要及时调整方法,没有一成不变的好方法,当一个好的平台已经失去价值变成作用不大效果不明显的平台时,要及时调整,选择新的平台进行操作。千万不要固化自己的思维,要根据实时变化的情况而改变,不过在没有进行大的一个观察和研究之前,不要轻易的去调整和改变最初的策略。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-07
我们都知道提高关键词排名,很大一个因素就是链接。那么搜索引擎如何评估链接的质量呢?搜索引擎在评估链接时牵的知识有很多方面,其中最觉见的有网站的的权威性、网站的相关词等,当然也有以下列举出来的因素。
一、链接指向的独立性
链接指向的独立性是指给自己的网站增加一个链接。我们看到很多人在自己的网站底部给自己网站增加一个锚文本链接,这样的链接在增加整体权重其实是没有作用的,因为他不是一个独立的指向链接。
为了保证链接的独立性,我们需要注意:
网站不能周时放置的一个服务器或者是同一IP下;
域名的WHOIS信息不能是同一个人或者是同一个公司;
同一个人拥有很多网站,然后互相高度的交叉链接在一起,搜索引擎可能是将这些网站做为站内链接来算,不增加网站整体的权重值。
二、链接来源的多样性
链接来源的多样性主要是说明网站链接的自然有序的进行发展,并不是局限在某一类平台的链接。
如果一个网站所有的链接全都来自博客的链接,搜索引擎很有可能认为该网站的链接是人操作的,是一种作弊的行为。很有可能会被搜索引擎惩罚。
链接来源的多样性,除了在博客链接之外还需要有分类信息链接、黄页链接、书签链接、目录链接、社会化媒体链接、媒体网站链接、问答链接、论坛链接等。
三、链接有效性(时间因素)
我们发布链接时需要注意发布的时间发布的频率、链接的存活周期和链接增加的速度。链接的有效性同样也需要遵守自然性的原则。
四、链接的相关性原则
在发布链接时,搜索引擎会通过锚文字了解到网页的内容的一个信号,会通过附近的链接、文字、页面的标题、关键词、网站整体内容、以及各种标签进行分析,判断出锚文本是否该网站的主题相关,是否与锚文本的内容相关。
如果有大量不相关的链接导入到我们的网站,搜索引擎会怀疑是不是用软件大量发布的链接。有可能造成被搜索引擎降权惩罚。
五、链接来源域名的类别
现在域名有各种后辍,从理论上无论是什么后辍的域名他们的权重应该都是一样的。但通过实践证明这是错误的,在百度搜索引擎中后辍以GOV结束的域名权重普遍要高于edu、net、com、org等域名。同理从GOV导出的链接质量比edu、com、net、org的权重就要高了。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-07
首先,我们思考这个很多人都在说鸡生蛋蛋生鸡的问题:一个网页多少个连接是最好的,可以最大地传递网站权重?我们都知道两个前提,一个网页所收到的反链越多权重越高,一个网页出链越多每个网页所分得的权重越低,因此这貌似就形成了一个死循环,根本无法说明白到底是多少链接是最好的;但是换一种想法,从整体来考虑,给一个网页所获得内链数量不以数量来计算而以“位置”为度量标准,一切问题就很明白了。
这就是说,假如一个网站有10000个网页,而每个网页有100个主题链接,那么总数是100W个主题链接,每个网页最多可以获得9999个链接(近似于10000吧),这样我们可以划分,凡是获得10000个链接的分配给整个网站一定数量的权重,给与1000是另一个权重,类似于PR可以划分为0--10是个等级等,根据不同的网页数量而给与一定的等级分配。这样所有网页的位置权重就和内链数量无关,而和所拥有内链与整体的比值有关,这样就可以从细节上解决很多的问题,最大程度地满足用户的需求。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-07
外链在网站优化的过程中起着不可替代的作用,尤其是高质量的外链,而友情链接因为其可积累、权重高,是外链的重中之重。那么,如何去获取高质量的友情链接呢?
我们先说说传统意义上常说的所谓标准:首页导出、导出链接少、收录多、快照更新快、百度权重高、PR值高、内容的相关性等等,这些都是大家常用的交换友情链接的判断标准。这些数据的确反映了一部分的网站优化质量,但是,按这些标准,却很难获得比较满意的友链。因为这些条件都不错的,基本都是一些成熟的大站,一般的站长很难被人家获得认同,从而获得这个友情链接。换一个角度来说,这些标准都是高要求的,你个人的站没有高权重的时候,用这些标准去寻找人家的站,你就是怀着占便宜的心态。所以,就算一时获得这些友情链接,但不一定能长久维持。
根据搜索引擎对外链权重的算法,假如一个高质量的友情链接被撤掉,搜索引擎就会去掉这个链接曾经对排名贡献的权重,那样,网站关键词的排名就会下滑,而要补回这个丢失的权重,那必须增加两个同样质量的友情链接,才能避免权重的丢失。而且,友情链接的经常变更,也会被搜索引擎降低信任度。所以,我们做友情链接交换,一定要长久维持,否则还不如不做友情链接呢。
那么,我们最应该去做什么样的友情链接呢?怎么才能获得长期稳定的友情链接呢?一句话来概括,就是寻找“潜力股”的网站,在一个优秀站点的前期就跟他换好友情链接,这样就可以一起进步,获得长久的链接。
在这里,还要澄清大家对友情链接的一个误区:友情链接是高质量外链,生效的时间会比较短,所以只找高质量的,其实,搜索引擎在友情链接的判断上,在前期是不分该链接的权重高低的,所有的友情链接都是要经过一个审核期,前期不会计算多少权重的,而到了后期才会被计算权重的。而我们选择有潜力的站点来交换,正好符合这一点。
那么我们怎么去判断一个站点是否有潜力呢?最重要的就是看站长对1、看网站的模板。假如网站的模板都是套用别人的,那就不用考虑了。这种复制模板的站点,永远都不会被搜索引擎给予很好的权重。2、看网站的被重视程度。主要是看网站的logo,网站的图片是否细致漂亮,用心做站的,这些都是做的很好的。3、看网站的标题和内容是否符合白帽的优化。一般情况下,网站标题的标准格式是“品牌名-关键词+关键词”,不是这样的,都是属于过度优化。4、看网站的文章。文章的内容是否原创,产品页是否千篇一律,是否更新用户需要的信息或者产品。
最后说一说,交换友情链接必须避开的一些站点。这个就是从站点的内容来区分,显而易见的,违法内容的站点不能做,如:caipiao站、高考信息等,其他的如QQ头像、waigua下载、暴利产品、taobaoke、电影站、小说站、笑话站、400电话等,这些站点都是不能交换的,因为这些站点都是比较忌讳的,百度早晚会打击的。还有论坛类的站点也不能交换,因为论坛不是一般的团队能做起来的,很好的论坛,基本也不会跟你交换。我们应该跟那些中小型的产品企业站来交换,这样才能避免牵连降权。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-07
一、网站外链
外链即外部链接,高质量、高数量的外链是所有站长梦寐以求的,我要说的是外链贵在精而不再多,注重质量。但是,世事无绝对,主要看如何界定这个“多”,50还是100等等,根据笔者精心观察,越是老站,这个数量多的界定越高,大家可以多多观察老站,这里就不累赘了。
二、网站结构
网站结构,大家都应该知道,现在大部分站点都是通过各种模板修改过来的,需要注意的就是要让网站结构清晰明了,否则对网站是不利的。如果不停的修改,影响最大的就是快照。
三、网站内容
一个网站呈现给读者或者机器,首先就是有内容,就比如说一个学历高的人,没有能力,也胜任不了工作一样。内容要求比外链稍微多点,数量肯定不能少,质量也需要跟进,最好是原创,不建议完整的复制,那样造成网络内容重复泛滥,得不偿失。
四、网站域名年龄
一个网站域名年龄放在最后来说,就是对快照影响不是很大,但是老域名快照恢复力度的确要比时间短的域名要快,特别是权重高,没有被K的域名更加明显。
五、网站SEO
一个网站要想有好排名、高流量,必须要做好seo工作,站长都知道的,网站标题、关键字、描述都是需要注意的地方,切忌堆砌关键字。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-07
公司3月份决定将所有的图书页面屏蔽掉,花了半年seo做的东西基本上付诸东流。。百度收录10w到100w,百度流量从3000ip做到37000ip。现在的这一举动,直接让人心灰意冷,不过又观察到一些其他方面的变化。
robots.txt中添加了下面两行disallow:
Disallow: /ebook/detail* 图书封面页
Disallow: /ebook/read* 图书阅读页
ebook目录中还有list 列表页面没有屏蔽。