相对于SEO来说,站内搜索对其有好处也有坏处。优赛SEO今天就和大家一起来探讨一下SEO和站内搜索的关系以及站内搜索对SEO的影响。
首先,我们先来谈谈站内搜索对SEO的好处何在。建站时,我们可以重写搜索结果的URL,方便了网络爬虫的检索,并且我们可以将搜索词插入其中。其次,通过站内搜索的功能,用户可以快速准确的找到最新,最相关的内容,这样站内搜索功能就可以为用户有针对性的生成某个主题的着陆页面。这样的页面有助于SEO,因为它们可以包含在标准网站地图中,但同时还含有能显著增加链接活跃性的动态内容。
然后,我们再来说说站内搜索对SEO有哪些不利的影响。站内搜索为用户提供了真正动态的使用体验,完全不同于预先设定好的静态网页,这些静态的网页有利于网络爬虫的检索,但是,通过站内搜索的结果页面则是完全动态的,也就是说,在执行搜索请求前,这个页面时候根本不存在的,网页以及网页中的内容都是实时生成的,因为这些网页并不能出现在网站地图中,只有在需要的时候才会被创建出来,所以网络爬虫在检索这类网页时是很困难的。
当然了,不能因为这点影响就不去为网站打造这样一个站内搜索的功能,因为,带有先进的站内搜索功能的网站绝对可以提高用户的忠诚度,因为他们可以在网站中很方便的找到自己想要的东西,发现相关的内容。同时还可以根据用户的搜索行为以及其他的和网站之间的交互行为,而为其提供具有针对性的内容。随着你网站用户忠诚度的提高,自然就会给SEO带来正面的影响。
作者:http://www.yosite.net/ 转载请注明版权!
笔者发现2016年无论是企业站还是资讯类站点都开始注重内容优化了,笔者在阅读站长网文章的时候发现2016年就搜索优化板块主要还是谈的内容优化,跳出率,用户体验优化以这几个主题为中心开展论述的话题居多,那么,通过用户发布的文章我们不难发现当下搜索引擎优化还是要以站内为主,什么外链建设,作弊呀在现在的的搜索板块几乎消失殆尽了。那么,既然站内优化如此之重要,作为站长我们该如何来开展自己的优化工作呢?第一,仔细分析你的文章来源问题。我们知道搜索引擎一条最基础的算法就是对于文章质量的要求,当然文章质量不仅仅来自于网站编辑的每天更新,有些资讯类站点还有用户投稿模块,挖掘用户的力量,站在用户的角度百度算法的一次次更新,都表现出对文章质量的重视。提升网站的原创度,给蜘蛛增加好感;增加网站可读性,这点很关键,对于浏览者来说,实用且有趣的内容,适时的推荐阅读,可以让他在你的网站停留更长时间,有效降低网站跳出率,提升网站权重。
第二,通过推广宣传扩大网站流量入口。当下搜索引擎优化用户体验度和网站数据是挂钩的,基础的网站数据来自于有效的网站流量,作为站长我们应该如何增加流量入口的广度是非常重要的,笔者一般通告软文写作,通告论坛软性广告的发布尽可能的曝光自己想要推广的url地址,其次,将自己每天更新的优质文章通告微信平台,朋友圈等方式分享出去,让有价值的东西从外部自然的点击进入,而不是为了一条外链而去粗制滥造很多垃圾软文,进行无效的扩散,这样的做法没有任何价值。
第三,通过不断调整用户体验而增加用户信任度。笔者一直进行的是用户的需求优化,用户需要什么内容我就在此基础上想方设法的去提供一些东西。而如何判断用户所需呢?笔者一般是分析同行和竞争对手,尤其是行业大站,比如自己想做这个关键词看看人家放置在网站的什么位置,人家通过专题来做呢还是栏目页来做,还是通过案例图片展示来做,这些细节布局就是我们用户体验的提升一些可以现学现卖的操作。
第四,网站内容一定要接地气。笔者的网站是做陕西社区考试学习和培训的,除了基础的更新一些社区考试相关的内容之外,笔者非常关注当下陕西招生考试网,西安人事考试网上的相关信息,因为学业最为关注的就是报名信息,招生人数信息,复习大纲等等,这些专业的内容来自于当地权威的站点,我们可以转载别人的内容服务于自己的用户记得带上别人版权就行,不要害怕给了对方一个连接就觉得自己网站权重下降了,只要是用户关注的用户所需的我们要不惜代价通过网站进行展现,其次,多发一些陕西当地的学员报名和学习的案例和访谈等等,这些都是让网站接地气的一些细节操作方法。
最后笔者总结一下,当下优化我们不要在无畏的在外链上下功夫了,把主要的精力集中在内容质量和体验度上,以用户需求分析为导向,塑造优质的站点内容,不断调整网站细节才能让网站持久的获得权重和用户的青睐,好的今天就分享到这吧
这个看似很简单的问题一直困扰着很多的新手站长朋友,为什么这么说呢?因为在小编的圈里很多想建立个人博客的朋友都曾问到过我:“我的网站明明每天都有文章更新,为什么过了很久搜索引擎都没有收录网站内页只收录了首页呢?”今天我就给简单解析一下为什么搜索引擎只收录网站首页不收录内页的三大原因;也是是一点小小的SEO优化技巧吧!
小编认为第一个最直接的原因就是因为是新站;
由于是新网站所以搜索引擎都有一个初审期,也就是搜索引擎对于一个新网站的判断期;以前百度算法没有更新的时候,一般对于新站的初审期一般都是1个月左右。而现在只要有规律的文章更新没有太多的采集文章,这个时间大概也就1-2个星期;记住!新站一定不要胡乱采集文章,不然别说1-2个星期不会收录内页,直接K站也是可能的。
那么第二个原因就是robots.txt文件规则写错了;
网上众多的个人博客开源程序都是默认自带有robots.txt文件的,而且大多数里面都默认写好了禁止搜索引擎不爬取的url路径,很多新手站长建站的过程中在robots.txt文件中误写入了禁止搜索引擎爬取网站内页的url路径;所以直接导致搜索引擎不爬取网站内页导致不收录。这个原因一般都是新手站长在摸索和学习的过程中自己胡乱修改文件造成的。如果你的网站搜索引擎没有收录内页那么就请检查一下网站根目录下的robots.txt文件吧!
第三个原因是小编最不能忍的一个原因那就是主机服务器不稳定;
由于现在互联网的兴起,会自己独立完成网站建设的人越来越多,所以做IDC服务器代理的人和公司也越来越多;很多新手站长由于懂得还不多,所以就会随意选择一些小的不知名的主机商购买主机服务器,虽然表面上便宜了不少钱,但得不偿失由于主机服务器的不稳定是直接导致搜索引擎抓取网页失败而不收录的重要原因。
以上三个直接导致搜索引擎只收录网站首页不收录内页的三大原因是小编觉得最直接的3个原因,至于其他什么外链影响/同IP网站影响/文章质量低等次要原因,小编在这里就不多阐述了。
众所周知,网站优化分为站内优化和站外优化两大关键环节,作为一个新上线的网站我们抛开内容建设和外链建设方面的常规优化流程,通过网站本身代码和结构方面的细节调整去迎合搜索引擎蜘蛛,提升蜘蛛的抓起效率间接就是获得搜索引擎青睐,作为站长我们如何调整网站页面,做好常规优化之前的细节工作呢?笔者认为我们应该通过一下几个方面进行分析,好咱们闲话短续进入今天主题。
第一,利用nofollow属性屏蔽影响蜘蛛抓取的页面。我们知道网站优化很多时候我们希望将我们的新闻列表页,产品页等呈现给我们的用户,这些页面我们用心的做好更新和关键词的布局,就是为了被收录之后能够曝光在用户的眼前,而对于一些仅仅是为了美工需要而不得不制作的特效页面比如Flash页面、js脚本代码页面以及用户注册和广告等页面,这些细节我们是不希望被搜索引擎蜘蛛抓取的,因为诸如此类代码搜索引擎在抓取的过程中对于js或者大量的flash代码抓取效率是非常低的,对于这些影响蜘蛛效率阻碍蜘蛛抓取的页面我们可以通过nofollow属性来进行很好的过滤,nofollow属性就是明确告诉蜘蛛这些页面站长不希望搜索引擎收录和计算权重,当蜘蛛遇到带有noffolow的链接时候就可以直接忽略了。这样就间接的提升了蜘蛛抓取其他页面的爬行效率,所以合理的使用noffolow是网站站内优化的必做基础工作。
第二,网站改版301跳转设置必不可少。我们知道网站改版是常见的事情,随着时代的发展网页制作变得越来越花哨,之前建立的站点可能不能迎合当下用户的审美思想,这个时候我们就要为网站进行适当的调整或者改版,网站改版之后最大的问题就是之前的收录页面将会出现很多无法打开的状况,为了更好的继承之前的页面权重,就会涉及到网页的跳转。跳转我们知道实现的方式常见的有很多种,比如可以通过js代码实现,也可以通过刷新的方式实现,但是这些做法虽然可以达到目的,但是百度并不推崇这样的方式,我们最好采用百度认可的301重定向来实现对于页面的跳转,把之前不在使用的页面统统301到新的页面,这种方式可以合理自然的继承我们网站页面之前的权重,也是百度非常推荐的转移权重的方式。
第三,尽量不要采用大量动态地址的网页表现形式。很多企业网站对于这个细节不是非常熟悉,作为一个优化人员如果企业要建立一个新的站点,那我们就要建站公司实现链接地址的静态化,我们知道大量的动态参数十分不利于搜索引擎蜘蛛抓取,其次动态地址后面大量的参数是非常容易造成网站无法访问的状况,无论是从用户体验角度还是蜘蛛爬行抓取的角度都非常不利于我们的网站优化工作,如果您现在的站点是动态的可以进行伪静态的设置,笔者以php站点为例子,下载3.0的免费Rewrite组件。按照默认路径安装后,打开,安装目录下的ISAPI_Rewrite3httpd.conf加入相关的规则即可,规则可以去百度搜索一下一抓一大把,在这里要注意的是,有些服务器或者vps有做权限的,安装后httpd.conf可能只有 everyone和system的权限,如果修改不了文件就添加一个administrator的权限。
第四,开源程序在使用过程中一定要注意优化url地址。开原程序简单方面的建站方式是很多企业网站建设的首选,笔者也非常热衷于开源程序的建站方式,在这里要注意的一个要点,笔者以织梦为例子,栏目建立成功之后一定要注意,修改默认的路径,开源程序都是自带的路径生成方式,以年月日这样的方式生成,如果没有进行合理的修改就会造成目录层级非常深,并且这些层级对于蜘蛛抓取非常不利,我们在进行开源程序建站的过程中,优化目录层级是非常有必要的方式,这个一定是在网站上线之前操作的,这个细节一旦忽视,后续文章添加之后,被百度收录在去做这个事情就会导致网站地址大量的错误页的产生,也非常不利于用户体验。
最后,笔者总结一下,网站优化过程其实就是细节的调整过程,我们不要只将目光集中到内容和外链这些常规的工作之中,很多时候只有将网站内部结构进行合理的优化和调整,才能最大程度上提升用户体验,用户体验是百度判定网站是否优化的非常重要的指标,所以网站站内结构、布局细节是基础,在基础工作完善之后再去考虑如何进行常规的操作,这样在后期优化过程中减少很多麻烦,并且会很大程度上提升后期的优化效率。谢谢阅读,希望能帮到大家,请继续关注阅读网,我们会努力分享更多优秀的文章。
关于百度对于原创内容判断的分析
大量复制内容网站有的时候会影响关键字的排名。
比如说原本是你写的文章,本来应该排名很好,但是其他人抄袭或转载你的文章,而且搜索引擎不幸的判断那篇被抄袭或转载的网页是原始出处的话,你应有的排名就会被那个网页夺走。
那么搜索引擎怎样才能从多个网页中挑出哪一个是原始出处呢?可能有以下几个考虑:
1)网页PR值。网页PR值越高,被认为是原始版本的可能性就越大。
2)网页第一次被收录的时间。网页被搜索引擎收录的时候越早,相比后发现的相同内容的网页来说,被当作原始出处的可能性就越大。
3)域名注册时间。越老的域名上面的网页被当成原始出处的可能性也越大。
4)网站的权威度。这就有点说不清了,可能包含前面3个因素,还有很多其他因素。
但到目前为止,无论以哪一个因素为主,或怎样组合这些因素,都不可能完全正确从多个网页中挑出原始出处。
比如说我这个博客就很新,域名也很新,文章被收录的时间有的时候也不一定是最早的,就权威地位和被信任度来说,也肯定比不上很多中文网站。但我的博客新,我的域名新,并不意味着我的内容就不是原始出处,实际上我的所有博客都是原创。
我最近也发现了很多网站都转载,有的时候是抄袭我的博客内容,很多网站的规模,历史,PR值都比我的网站要高的多。
基于个人博客,谷歌更多给予内容权重
1、谷歌比百度收录更快,更能辨别原出处
今天网友有说,此前我写的一文,谷歌的搜索结果中,原文出去就是我的博客地址,排在第一位。
其实,谷歌对于中文信息抓取速度之快,我早有切身感受。使用火狐浏览器以来,安装了谷歌工具条,默认的搜索引擎就是谷歌。自己也常常就新写的博客日志进行搜索,发现谷歌收录的速度很快,有时半小时就可以收录
按照曾经的理解,百度应该对中文更加偏好,不过从搜索自己博客内容来看,其实不然。百度一方面是收录速度慢,再就是不愿意够辨别是否原出处。还是上面提到的博客日志,9月12日发布的,时至今日,我的博客地址还是不能够在百度搜索结果的首页出现。
这个原因,不知道是我使用的z-blog博客程序不受百度欢迎,还是百度太懂得中文了,对于我这个博客的质量提不起兴趣。按说z-blog对于搜索引擎很友好的,许多做搜索引擎优化的博客,使用的都是该程序。而如果说我的博客质量不高,但毕竟是原出处,而且同样的日志,出现在别的网站,为什么就能够获得一个较高的权重。
对于以上,由于自己太过非专业,只是对看到的现象,做一些可能的思考。两个搜索引擎对于中文博客日志如何考虑,以及搜索引擎本身技术如何,实在难有明了。不过可以肯定的是,博客日志,包括个人网站,内容能够对谷歌迅速收录,当是一件喜事。相对应的,百度对于中文内容,或者整个网络信息,收录之慢,已是很明显的事实。不知,百度的更懂中文,更懂在哪里。
在检测文章原始出处方面,Google做的比较好,基本上能够正确判断,百度做的就比较差。从我的文章在不同的地方出现的情况看,百度似乎认为域名比较老的就是原创。
2、百度新闻比谷歌资讯更胜一筹
以上是对百度和谷歌搜索的一点浅析。新闻资讯方面,百度新闻和谷歌资讯,结果则恰恰相反。
个人感觉百度新闻一是内容丰富,再就是收录速度很快。自己的多个博客日志被一些新闻网站转载后,时间不长,就能够出现在百度新闻里。当然,同样的内容,如果是在博客里,百度决计不会搭理的。
谷歌资讯,算是自己使用的很少的谷歌产品了。感觉谷歌资讯相比百度新闻,效果很低。一是内容很少,不像百度,相关信息的下级页面,看起来像是一个专题。二是速度更新慢,不像百度新闻有时候几分钟就可以收录。再就是谷歌资讯对来源网站的要求更高,一般都是官方媒体或者一些门户网站,百度则显得不拘一格。