分类: 建站教程
发布: zhushican
浏览: 次
日期: 2014-06-08
说到网站更新的问题我们首先想到的就是去添加内容,我给自己的博客做seo的时候首先考虑的也是内容,因为搜索引擎爬虫喜欢每次抓取你的网站都能发现有新的东西,所以我的博客总是定期的更新,这对于用户也是有益的。那么非博客呢,到底怎么理解网站的更新呢?
需不需要常更新。搜索引擎是可以判断出网站的大致类型的,不同网站的类型,更新的频率是不同的,比如我的网站是个博客,网站是以文章为主的,那么经常更新就显得很必要。因为博客本身就应该是动态的日记性的东西,几年不更新,就不是博客了。新闻类的网站也如此。如果是企业网站,产品也确实是几十年没有变化,或变化很少,那么不更新或更新很少,也未尝不可。
分类: 建站教程
发布: zhushican
浏览: 次
日期: 2014-06-08
1:什么是外部链接?
外部链接就是指从别的网站导入到自己网站的链接。导入链接对于网站优化来说是非常重要的一个过程。导入链接的质量直接决定了我们的网站在搜索引擎中的权重。简单来说就是一些外部的链接,能给我们的网站带来好处的链接。
2:为什么要做外部链接?
这是做外链必须了解的。外链是互联网的血液,是链接的一种。没有链接,信息是孤立的,结果就是我们什么都看不到。在一个网站内部,许多网页需要互相串联在一起,组成一个完整的信息站点。这是因为一张网页是根本不能承载所有信息的,所以需要分成一个主页和各个分页。另一方面,一个网站是很难做到面面俱到的,因此链接到别的网站,将其他网站所能补充的信息嫁接过来。给我们的网站带来我们所需要的。
3:怎么做外部链接?
在这里就说一些比较常用的方法,进行比较。一般网站需要的是优质外链,而不那些垃圾链接。有的人虽然近似疯狂的发外链,贴外链。几乎所到之处都可以留下外链的踪迹,但是期间往往有许多外链质量不优质,及大多数都是垃圾外链,这样对我们的网站是没用的,有时候还会拖累网站被k等,因此要做优质外链。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
首先,我要说的就是网站改版肯定对百度和谷歌等搜索引擎有一定的影响,对于是什么程序要根据具体的情况进行分析,那我们要怎么样才能避这些影响,甚到为零呢?我在这次的实战中运用了如下几点知识点。
第一点:网站程序不变
网站程序最好不要改变,如果以前用了ASP,现在还是用ASP,因为你的以前的收录是.ASP文件,现在如果换成PHP,那以前就成了404页面,这样对你网站权重会受牵连。
第二点.网站整体结构不变
一般在进行网站改版时,你网站的整体栏目,产品的分类这些不要去改变,比如你以前的栏目是分布在首页,而你把他布置到内容页,这样你以前这个目录的权重肯定会降低(离首页越近权重将会越高) 。
第三点:保证URL地址不变
这里有很多朋友可能在网上听说静态页面和伪静态页面对于优化和收录很有利,所以在改版的时候就全部利用这些技术,但是你想过没有,你以前是什么URL,如果你以前全部是用的动态地址,现在变成静态的,这样是不是会有两个地址指向一个页面,也就使得收录重复,也是对于SEO不利的。所以在改变之前要考虑清楚。
第四点:网站标题不要变
标题改变对于SEO来说是一件可怕的事情,如果搞不好,还会K站,所以改版网站也要注意这些细节,不可小视。
其次,如果你能说服你的老板可以不用改版,尽量的不要去动他,网站改版并非一般的调整,搞不好对于你整个SEO优化的过程会有一个重新的开始。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
SEO是一个不断变化的领域,现在很关联的某些方面在几个月后就可能没关系了,你必须跟上发展的步伐,了解哪些方面是有用的,并且随时做好变更策略的准备。
下面说几个当前能较有效提升排名的SEO策略。
1、多种反向链接
从各种各样的渠道获得反向链接是很关键的,在搜索引擎眼中,这些反向链接能增加价值。所以,不要仅仅依赖于文章目录或者Web2.0,也要放眼于社会化书签、博客评论,论坛简介链接等。
2、Nofollow vs dofollow
一个受欢迎的网站能很自然地将nofollow和dofollow链接混合在一起,这些应该在链接建设活动中能体现出来。附带上一些nofollow反向链接能让搜索引擎觉得链接建设显得自然一点。
3、外链
添加一个到权威站点的链接能真正的有助于排名,因为它可以增加搜索引擎的信任度,所以,在你的利基市场中设置一个这样的链接。
4、链接频率
每个互联网营销人员都有自己的链接建设策略,有些是持续每天建立相同数量的链接,有些则在一个月中的某个星期集中精力建立链接。这些都能增加搜索引擎眼中的人工操作分量。持续不断地建立链接是很好的,但是要确保每天的反向链接数量是随机的,这样看起来会自然一些。
5、多层次反向链接
为网站建立了反向链接后,谁敢保证搜索引擎一定会注意到它们?现在的一个趋势就是为反向链接再建立反向链接,来增加它们的重要性。在你的SERPS上,那些从各种资源都有多层次反向链接的反向链接,比没有反向链接的链接有更大的影响力。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
百度快照回档除了搜索引擎自身的原因,更多来自于站点问题,这是搜索引擎对站点发出的警告,如果在这个期间不重视和解决,会演变成网站降权和K站,笔者最近一个站就遇到了这样的情况,这个站已经营6个多月,好几个目标关键词稳定在3-20名之间,严格来讲这个站在百度是有一定的权重的。8月31日出现第一次快照回档,回档至8月24日,之后变成8月28日,在回档期间,关键词排名一直保持稳定。昨天夜里百度大更新,我认为百度观察一周左右,快照回档现象会在本次更新中得到解决,但是出乎意料的是,今天早上一看快照竟然回档至8月16日,而且所有关键词全部“跳水”,前100名都找不到了。事态比想像中要严重,网站已被严重降权。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
网站快照不仅是交换链接时的重要标准,服务器在不稳当的时候,用户也可以通过快照打开网站,如果网站的快照不是隔夜更新的,用户并无法看到网站的最新内容,这样会影响用户的体验。站长运营网站过程中会遇到不同的快照情况,网站优化博客也是经常会被那些快照问题搞的头疼,和大家分享为什么会遇到那些蹊跷的百度快照问题,以及如何去解决问题。
第一:不同关键词的快照不同。
网站首页快照是隔夜的,但是奇怪的是不同关键词的快照确实不同的,这样的问题也是很正常的,会发生主要是因为:首先百度有个缓存情况,没能及时的更新关键词的快照情况。其次在网站中不同关键词的优化程度不同,有的关键词锚文本内链做的多,快照就会新,锚文本侧重点小的,快照稍微的要迟点。网站有主关键词,要提高主关键词的密度和权重,但是也要注意其他长尾关键词在网站的内链,尽量做到平衡的状态,这样才不会出现快照不同的情况。
第二:首页快照不更新,内页一样收录。
首页的快照对站长们来说是很重要的,但首页的快照有时也会很不给力的不更新,但是由于网站权重的问题,网站更新的内页内容一样会收录,内页的快照会是隔夜。遇到这种情况站长们应该会很头疼。会出现的原因可能是网站的首页权重不高,或是服务不稳当导致的首页不能正常访问,从而蜘蛛无法更新首页快照。所以站长们在选择服务器的时候,一定要考虑周全了。服务影响网站优化是无法解决的,只能转移服务器,这过程会给网站带来影响。
第三:首页快照隔夜,内页不收录。
首页的快照能正常的更新,但是蜘蛛就是不收录内页的内容,这种情况在新站中会经常遇到。主要还是因为新站的权重不够高,网站的稳当高权重外链过少,网站内容每天更新,但是外链跟不上网站的权重,所以内页很难被蜘蛛抓取。要想解决这样的问题,可以去高权重的网站留外链,如:chinaz,donews,站长百科等高权重的网站。如果内页不被收录,在留外链的时候可以试着留内链,把网站最新的网站内页链接做外链,这样蜘蛛可以顺着链接,抓取你网站的内页,从而提高网站内页的收录。
第四:首页快照突然回档。
百度一个星期一次的大更新,会有很多网站会受到遭遇,快照回档是最常见的,发送快照回档的原因:网站大幅度的更新关键词,网站模板的更换,网站服务的转移,网站外链的猛然增加,网站作弊等,如果你有上述原因中的一点,那网站快照会回档也是不足为奇的。要想网站快照回档快点恢复,改如何去做我想大家应该知道了,这里也不多说了,网站的改版要做到一次性成功,然后就是在网站的原创内容,和高质量的外链上下功夫了,还有点最重要的就是网站不要作弊优化,只会让网站被降权。
快照的复杂让站长们头疼,其实有时也不要太看重快照,要是快照真的不更新了,我们只要坚持的做内容和外链做好,然后就只能是漫长的等待,等着度娘给自己更新吧。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
网络营销不仅为我们的产品带来了更为广泛的发展空间而且也让那些在现实中由于各种原因无法进行有效经营的一些产品,因此紧紧抓住网络这个大舞台成了许多中小企业赖以发展的关键所在。
一、首先要进行正确分析市场和目标客户需求
无论我们在做的事项目还是产品,其针对目标就是客户,只有找到客户我们才能发展、产品才能实现他的应有价值。所以网络推广的首先是要找到适合你产品和项目的准客户,所以在此一定要进行准确的目标客户的分析和定位,分析出目标客户群经常出现的网络平台,这样在、才能制定出准确的推广方案和计划。
二、其次中小企业的B to C网络推广要找方法
因为一些产品和项目的独特性。不同的项目和产品所用的推广方法不同,虽然说网络推广的方法很多,可以说近乎千种,因为编者认为只要是网络上有人出入的平台都可以对其经行有效地利用推广,因为大了来说我们所做的一些商业推广活动其主要木匾就是人,因为只有有人的存在我们的推广和销售才有最为根本的出发点。所以说找到好方法才是B to C网络推广的先决条件。
三、有效地推广和品牌建设
找到目标客户和制定出准确的推广方案以后就是实施的问题了,因为网络环境是在不断变化的,其发展速度相当惊人所以在实施推广方案的时候药剂师关注网络大环境的发展适当改进推广方案,在上述情况下正确实施推广方案,我相信效果不久就会有分晓的。另外需要补充的一点就是品牌的建设,这一点可以说对一个企业和产品的长远发展有着不可估量的作用,在这里我就不再多说,有兴趣的话可以了解一下品牌整合营销。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
怎么能保持网站快照的天天更新呢?其中这些核心方法大部分站长SEO们都比较清楚,一旦你掌握了,并且坚持按部就班的做好,随了网站权重的提升,网站快照天天更新是不难的。那么这些核心的方法是什么呢?
1、培养网站的权重
网站权重这个东西,特别是对新站来说,是需要慢慢培养的。网站权重对快照更新时间是一个很重要的指标,有这样一种说法,就是你网站权重多高,搜索引擎就收录你网站多少,当然这个多少是一个百分比,就是你网站整个页面的百分比,所以说新站要提高权重,首先应丰富站内,围绕你网站的主题来组织内容,是你的网站成为在某个领域具有丰富和高质量内容的集合地,那么搜索引擎会对你网站越来越青眯,你网站的权重也会慢慢提升,这期间同时也应做一些高质量的外链,提升蜘蛛爬你网站的次数,促进网站收录,进一步提升网站权重。
2、网站内容的新鲜度和吸引性
内容的新鲜度其实就是我们所说的原创性,就是要让搜索引擎认为我们的内容是在互联网上独一无二的,只有这样的内容才对搜索引擎有吸引性,长时期的这样做,会刺激蜘蛛爬行网站的频率,让搜索引擎越来越喜欢我们的网站,对网站权重也会不断的提升。同时也就能促进快照时间的天天更新,因为我们天天有新的东西来吸引它,让它保持对我们网站的抓取和更新。
3、高质量外部链接的广泛性与相关性
除了从网站整体上来提升网站权重和内容新鲜度来吸引搜索引擎的重视之外,网站外部链接建设也是一个重点,网站外部链接建设很多站长很明白,这里不做重点介绍,主要是注意2点,广泛性和相关性。比如广泛性,我们写一篇软文营销,能被各大网站转载这样的效果很不错。相关性的话友情链接是一个重点,相关性的友情链接对网站权重和网站排名有很大作用。外链的形式也有多样化,比如URL链接就是促进蜘蛛对网站的爬行率,提升网站收录,从而提高网站权重,促进快照的天天更新。
以上3点做好了就基本上能保持快照的天天更新,当然这3点要同步进行,关键是要有规律的并且持之以恒的坚持去做,快照时间天天更新并非难事。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
百度搜索引擎搜索优化指南V2.0 合理的返回码 原文如下。
合理的返回码
百度爬虫在进行抓取和处理时,是根据 http 协议规范来设置相应的逻辑的,所以请站长们也尽量参考 http 协议中关于返回码的含义的定义来进行设置。百度spider 对常用的 http 返回码的处理逻辑是这样的 :
404 •
404返回码的含义是“NOT FOUND”,百度会认为网页已经失效,那么通常会从搜索结果中删除,并且短期内spider再次发现这条url也不会抓取。
503 •
503返回码的含义是“Service Unavailable”,百度会认为该网页临时不可访问,通常网站临时关闭,带宽有限等会产生这种情况。对于网页返回503,百度spider不会把这条url直接删除,短期内会再访问。届时如果网页已恢复,则正常抓取;如果继续返回503,短期内还会反复访问几次。但是如果网页长期返回503,那么这个url仍会被百度认为是失效链接,从搜索结果中删除。
403 •
403返回码的含义是“Forbidden”,百度会认为网页当前禁止访问。对于这种情况,如果是新发现的url,百度spider暂不会抓取,短期内会再次检查;如果是百度已收录url,当前也不会直接删除,短期内同样会再访问。届时如果网页允许访问,则正常抓取;如果仍不允许访问,短期内还会反复访问几次。但是如果网页长期返回403,百度也会认为是失效链接,从搜索结果中删除。
301 •
301返回码的含义是“Moved Permanently”,百度会认为网页当前跳转至新url。当遇到站点迁移,域名更换、站点改版的情况时,推荐使用301返回码,尽量减少改版带来的流量损失。虽然百度spider现在对301跳转的响应周期较长,但我们还是推荐大家这么做。
百度建议
1)如果站点临时关闭,当网页不能打开时,不要立即返回404,建议使用503状态。503可以告知百度spider该页面临时不可访问,请过段时间再重试。
2)如果百度spider对您的站点抓取压力过大,请尽量不要使用404,同样建议返回503。这样百度spider会过段时间再来尝试抓取这个链接,如果那个时间站点空闲,那它就会被成功抓取了。
3)有一些网站希望百度只收录部分内容,例如审核后的内容,累积一段时间的新用户页等等。在这种情况,建议新发内容暂时返回403,等审核或做好处理之后,再返回正常状态的返回码。
4)站点迁移,或域名更换时,请使用301返回码。
以上的原文内容分为2块来解读,第一:百度spider对于http返回码的处理逻辑。第二:针对百度spider对于http返回码的处理逻辑给予的一些站点处理建议。 那么我们现在先来解读下百度spider对于http返回码的处理逻辑。
404,百度解释:出现404,那么百度spider就会从url索引库当中删除该url并且在短期内在其他页面发现该url也将不会访问该url。这个解释很官方化也很理想化。事实上我们会发现,我们的网站出现了404死链接,百度spider同样会反复抓取。并且当我们网站出现大量404死链接的时候还会出现降权现象。就如谷歌申明的软404才会伤害网站,404不会伤害网站一样的是一个美丽的谎言。当然我们必须承认由于404死链接被谷歌降权的现象还是很少,但是存在。百度那就很多实际的案例了。所以说404死链接对于我们的网站来说,还是很严重的问题。必须用robots进行处理的。
503,百度解释:出现503,百度spider认为站点临时关闭,短期内会再次访问,网页若恢复那就正常,若多次重复503,效果将等同于404.这一点应该是谷歌在谷歌黑板报上最先申明支持站点临时关闭服务器返回503状态码给机器人。这一点,我们可以善加利用,比如网站程序升级,服务器重启,服务器安全检测等需要临时关闭网站的,我们可以采用503状态码来降低404状态码带来的危害。并且这一点是切实可行的。所以下次站长朋友们临时关闭站点检测网站的时候,记得设置服务器返回状态码为503,别再是404或500了。
403,百度解释:百度spider认为网页当前不可访问,请注意采用的是当前2个字,也就是说它认为以后能正常访问,短期内会再次回访。若已经能正常访问,那就正常爬取。若多次重复返回状态码为403,将与404状态码一样处理。这一点,笔者以前倒是没有注意过403状态码对于蜘蛛的影响,毕竟蜘蛛访问到403的概率还是很少的。
301,百度解释:百度spider认为网页已经转向心url,并且给予原有url权重转向新url。但是响应周期较长,主要是第一要考察新url内容是否符合,技术上要做的东西较多;第二要预防一个作弊。
以上就是对于百度spider对于http返回码的解读,那么接下来我们在解读下,百度官方建议。
1)站点临时关闭,使用503状态码。这也是刚刚解读503状态码的时候给予的建议,很中肯的一个建议。
2)若百度spider的频繁抓取导致服务器压力过大,建议采取503状态码。这个建议,相信对很多站长来说,还是很有用的,本身使用的空间,流量有限。而百度spider的频繁抓取占用了大量流量,完全屏蔽掉百度spider也不是个办法,小站长还是得靠 百度来流量呢。那么以前我也曾建议过使用503状态码来解决这个问题,但是没有权威出处,自己也不敢肯定能起到多少的作用,在这里百度是给予正确答复,非常不错的。
3)有一些页面可能是需要长时间的累积获得资料再进行整理发布,这时候在资料的获取当中,如果不希望百度抓取可以返回403状态码。直到处理解决好了,再进行正常的200状态码处理。(这是我将百度建议里的原文进行了一番理解说出来的。原文的意思可能会有一部分读者读不懂。)这里呢,也是一种理想状态,小网站千万别去学这招,权重高的网站不失为一个好方法。
4)站点迁移,域名更换采用301状态码,这个是老生常谈了, 没多少可说的。
分类: seo教程
发布: zhushican
浏览: 次
日期: 2014-06-08
今天翻看之前保存的文档,发现有一份对Robots.txt很详细的解释文档,之前SEO100问里有篇什么是robots的文章大概的讲述了文件的写法,而没有详细的解释User-agent、Disallow、Allow值的含义,不论今天这篇文章是对Robots.txt重新做一个全面的认识,还是老话重提,这都是我们SEO学习者和从事着一次加深记忆的机会,我个人觉得做搜索引擎优化,既然算法我们不可能掌握,但是类似这样公开的搜索引擎语法,其含义都应该真正的去理解。
搜索引擎使用spider程序自动访问互联网上的网页并获取网页信息。spider在访问一个网站时,会首先会检查该网站的根域下是否有一个叫做robots.txt的纯文本文件。您可以在您的网站中创建一个纯文本文件robots.txt,在文件中声明该网站中不想被robot访问的部分或者指定搜索引擎蜘蛛只收录特定的部分。这里提醒一下,请注意:当你网站不希望搜索引擎全部收录时才用到robots.txt文件(比如你网站后台页面)如果你希望搜索引擎全部收录你的网站,请建立一个空的robots.txt文件。