网站结构的优化(网站结构优化分析)

admin 76 2022-12-24

本文目录一览:

如何合理优化网站结构

1、站内URL的优化

2、相关文章内部链接的优化

3、相对URL与绝对URL

4、robots.txt文件制作

5、制作网站地图

6、页脚不要堆积关键词

总结:合理的网站结构优化是用合理的架构来分配网站基本内容的位置及内容之间的层次关系,考虑用户体验的同时,还要迎合搜索引擎的规则,这样才能达到优化网站结构的目的。当然,网站结构的优化除了需要考虑以上六点因素外,还有其他很多方面需要注意的。

网站结构优化的方法

网站结构优化的方法

网站优化的过程当中也会有针对性的去偏向优化。至于很多站长所说的网站结构最好是树状结构或者比较理想的网状结构之类,只要你按照“迷路的小爬虫”所述的网站结构优化要点去做,你就会搭建成一个树状甚至网状化结构的网站。下面是我带来的网站结构优化的方法,希望对你有帮助!

目录结构通俗来讲就是网站的URL结构,在服务器上搭建网站的时候,站长会发现服务器的根目录下一般都会有一个WWW的文件夹,这个不是一定的,但是大部分的命名都是如此,然后按照网站的规划和内容布局会有一级一级的目录基于WWW来构建,而每一个目录下面都会有具体的网页文件,比如:html、shtml、aspx、php等,这种目录路径的搭建就形成了用户访问的URL地址,从另一个方面说URL地址就是文件存储在服务器上的目录路径;这样说即使对于刚入门的站长来说也是非常容易理解。

内链结构通俗上讲就是网站页面与页面之间的关系,建设网站的站长都知道,一张页面上除了核心内容,尤其是网站的首页、栏目页或者列表页都会很多的链接组成,而这些页面的链接就形成了整个网站的内链结构。至于什么形式内内链结构更加合理,对搜索更加友好,在接下来会一一分享给站长朋友。

什么样的网站结构对搜索引擎友好?

同样在这一块分开来讲,以便于站长能够更加清晰的认知网站结构如何去围绕搜索引擎来部署。

前面提到目录结构的概念,基于根目录扩散成一个个实实在在存在的文件,清晰的目录路径不仅有利于站长来管理,对于搜索引擎来说也是非常的友好,通过爬取轨迹一级级获取它要抓取的页面,如果你的网站仅仅有一个首页、若干个栏目页、可扩展的专题页和文章详情页,那么理想化的URL结构就是按照服务器上实实在在的文件存储位置来构建。但是往往一个网站并不是如此简单的情况,网站多少会有一些功能性的产品要与用户做交互,要通过动态程序去构建很多的页面,以丰富网站的产品体验,所以你会发现好多网站的URL里面会有很多的动态参数,因为这些页面都是通过一定的技术批量生成的页面,并不是在服务器里面实实在在存在的页面,而官方声明搜索引擎恰恰更喜欢静态化的页面,这个时候就需要对URL地址进行包装重构,不管是Apache、Ngnix或者IIS都对 URL地址有重写模块,这些暂时不做介绍,这里只介绍重写成什么样的URL地址才更有利于搜索引擎的抓取,主要包含以下两个个方面:

1、URL地址命名要贴近目标页面的主题名称,有利于提升与目标页面的相关性,从而提升目标页面权重;

2、URL地址的层级基于所属的类目越小越好,层级越小可以告诉搜索引擎文件存在的目录深度越小,越容易被抓取,因为只有重要的页面才会放到与根目录最近的位置,搜索引擎也会认为这些文件是网站里面相对来说比较重要的页面,优先抓取。

内链结构主要反映的是页面之间的关系,和目录结构类似,被放到首页的链接地址往往更容易被搜素引擎抓取,这里涉及到一个链接深度的概念。搜索从发现你的网站到开始抓取页面,一般都是从首页开始进行的,如果你是一个新站的话,可以从日志里面查询到。也就是说离首页越近的网址越容易被抓取到,这里同样搜索引擎会认为链接深度越小的页面,在网站里面的重要性越大,和目录结构一致,链接深度越小的'页面权重也会越大,被索引的几率也会越大。总而言之内链结构对搜索引擎的友好度主要从以下几个方面去做:

1、从首页开始要包含网站中最重要的业务板块,一般来说都是个频道栏目页和专题的聚合;

2、栏目、专题页面要包含它们归类下最新的内容模块和热门模块,同时要有返回上一次层级的面包屑;

3、详情页面做为核心内容页面同样也要有相关推荐板块,以及同归属栏目下热门推荐板块,当然面包屑也是必须要有,在这里要特别强调一下合理的使用标签可以增强文章与文章的关系,更有利于搜索引擎的爬取,关于标签“迷路的小爬虫”会专门用一篇文章来告诉站长如何去布局使用。

基本上只要你按照以上的方式去优化你的网站结构,相信你的网站在数据上面的良好体现也会稳步提升。

网站结构优化注意事项

在这里“迷路的小爬虫”也是要总结以下几点来说明过度的优化网站结构可能会出现被K的风险,总结主要由以下几点:

1、为了减少链接深度,首页和频道页堆砌上千条链接地址,这种情况对于前期网站权重不是很高的前提下基本上会被k的体无完肤;

2、索引标签的大量使用,在网站没有一定规模的文章或者其他的资源做支撑的前提下,慎重使用标签聚合站内资源,因为大量的添加索引标签可能会造成网站很多重复的页面和空页面,结果被k也是不可避免的;

3、详情页面勉强的增加推荐板块,造成整个页面繁杂冗余,也是不可取的,详情页本来权重在整个网站体系里面最低,再增加如此多链接,只会被降权,即使收录也不会有好的排名;

4、为了减少目录深度,所有的页面全部堆砌到二级目录,这种做法也是不可取的,如果整个网站除了首页全部是二级目录,也就没有主次之分,目录深度影响权重这条规则也就不可取了。

以上四点是“迷路的小爬虫”认为比较重要的几项因素,也是很多站长会拿捏不好的几个地方,所以单独做为一项拿出来重点强调,希望站长朋友不要再犯这样的错误。

;

网站结构优化包含哪些内容

SEO网站结构优化包括以下内容:

1、URL地址优化

为网站上的文件创建具有良好描述性的分类名和文件名,不仅可以更好地组织网站结构,还有助于搜索引擎更有效地抓取文件。虽然搜索引擎能够抓取复杂的URL,但提供相对简单的URL,对于用户和搜索引擎来说都是有帮助的。

优化URL结构的主要方法有,网站自始至终都使用一个URL地址,不要来回变更地址,如果用带www的域名地址,则将不带www的域名使用301重定向技术重定向到主要地址,避免使用大小写字母的URL,网站的URL尽量使用静态URL,避免使用动态URL,URL越短越好,URL的内容使用拼音或者英文最好,方便记忆。

对于动态网站来说,使用伪静态技术可以让网站的外部看起来和静态网站一样,利于搜索引擎的索引。

2、目录结构

目录结构最好用一级到二级,不要超过三级。目录的组织方式尽量采用:首页-》栏目页-》内容页。目录名采用拼音或者英文。避免使用多层嵌套的子目录。

3、robots.txt

robots.txt是一种存放于网站根目录下的文本文件,用于告诉搜索引擎的爬虫(spider),此网站中的哪些内容是不应被搜索引擎的索引,哪些是可以被索引。robots.txt协议并不是一个规范,而只是约定俗成的,通常搜索引擎会识别这个文件,但也有一些特殊情况。

当我们不希望网站中的某些页面被搜索引擎抓取,也许这些网页在搜索结果中出现对于用户来说并没多大用处,就可以把这些页面放在robots.txt里,这可以保证网站的某些内容不出现在搜索结果中。

4、Sitemaps

Sitemaps可方便网站管理员通知搜索引擎他们网站上有哪些可供抓取的网页,有点象BLOG的RSS功能,是一个方便自己的服务,如果大家(互联网上所有的信息源)都采用了这种方式提交自己的更新的话,搜索引擎就再也不用派出那么多爬虫辛辛苦苦的到处乱窜了,任何一个站点,只要有更新,便会自动“通知”搜索引擎,方便搜索引擎进行索引。

Sitemaps文件通常是XML格式的,格式比较简单,Sitemaps协议以 urlset 开始标记开始,以 /urlset 结束标记结束。 每个网址包含一个作为父标记的 url 条目。 每一个 url 父标记包括一个 loc 子标记条目。loc是网页文件的网址。此网址应以http开始并少于2048个字符。 lastmod表示该文件上次修改的日期。此日期允许删除时间部分,例如YYYY-MM-DD。

5、网站导航

网站的导航功能对于帮助用户迅速找到他们想要的内容来说是很重要的,它对帮助搜索引擎理解该网站有哪些重要内容同样非常重要。网站地图是将网站上用于展示网站结构的网页以层级式列表的方式展示。网站导航的主要目的是为了方便用户,但同时它也有利于搜索引擎对整个网站页面更全面地抓取。

主要的网站导航方法有,创造一个自然的层叠结构的网站地图页面,这个导航页面可以让用户很容易地从主干页面找到他们需要的特定内容,有必要的话可以在保证内部链接结构合理的基础上添加导航页。

使用面包屑(breadcrumb)导航模式,面包屑导航是指在网页顶端或者底部放置的一排内部链接,它使用户可以方便地回到上一层结构中的网页或者主页。大多数面包屑导航通常会从最具概括性的页面开始(通常是主页),越往右指向的页面内容越具体,例如“首页-》栏目-》具体文章标题”。

7、Nofollow的使用

nofollow标签是由Google领头新创的一个标签,目的是尽量减少垃圾链接对搜索引擎的影响,减少博客的垃圾留言,目前百度、Google、Yahoo、微软都支持这一标签。当超级链接中出现nofollow标签后,搜索引擎会不考虑这些链接的权重,也不用使用这些链接用于排名。

nofollow标签通常有两种使用方法:一种方法是将"nofollow"写在网页上的meta标签上,用来告诉搜索引擎不要抓取网页上的所有外部和包括内部链接。例如:meta name="robots” content="nofollow” / 。另一种方法是将"nofollow"放在超链接中,告诉搜索引擎不要抓取特定的链接。例如:a rel="nofollow" href="url" 。

需要注意的是,如果一个网站链向了某些被搜索引擎认为是垃圾网站的地址,那么这个网站的权重也会受到影响。因此对于一个网站来说,为了安全保险起见,所有那些有可能是第三方提交的超级链接都应该添加nofollow标签。

8、404页面

404 网页是用户尝试访问网站不存在的网页(由于用户点击了损坏的链接、网页已被删除或用户输入了错误的网址)时看到的页面。之所以称为 404 网页,是因为针对丢失网页的请求,网络服务器会返回 404 HTTP 状态代码,表明该网页未找到。

用户偶尔会因点击失效的链接或输入错误的URL而访问一些在网站域名下但并不存在的页面。使用自定义404网页能有效地帮助用户回到网站中有效页面,大大提高用户体验。404网页最好能提供回到网站主页的链接以及到网站中热门内容页面的链接。

通常用户最好创建一个自定义的 404 网页,以便获得这部分用户流量。一个好的自定义 404 网页可以帮助用户找到所需信息、提供其他实用内容及吸引用户进一步浏览用户的网站。

不过,很多网站设计的404页面都很简单,不少网站为了不损失流量,在404页面里面自动重定向到首页的方式,这并不是一个改善用户体验的设计方法。

网站结构优化包括哪些方面

网站结构主要包括四方面:

一,友好的网站结构

1, 扁平or树型:

2, 链接结构

1)首页链接应该链向重要的频道页,频道页再链向下面的节点页或普通页面。同时,频道页、节点页和普通页面都应该可以链回到首页

2)无论哪些页面之间互相链接,都需要一个描述恰当的锚文本

3)链接不要放在JS、FLASH等搜索引擎不可见的位置,使用图片做链接入口应该完善alt标签

二,通过导航让百度更好地认识站点

对于用户,导航要解决的问题是:我在网站的什么位置,我想看上一级、甚至上上一级更多内容的入口在哪里;对于spider,导航要解决的问题是:这个页面属于哪个领域,要表达的主题是什么。所以说,清晰的导航系统不仅有助于提高用户体验,对SEO的意义也是重大的,所有SEO做得出色的网站基本都拥有清晰明确的导航。

三,合理的domain结构

除了在网站建设的时候站长会思考到底使用二级域名还是子目录,在网站运营的过程中,也会考虑是否要把子目录的内容拆分成二级域名。

四,url结构很重要

1,url结构规律化:同一个网页有不同url,会造成多个url同时被用户推荐导致权值分散;同时百度最终选择展现的那个url不一定符合你的预期。站点应该尽量不把sessionid和统计代码等不必要的内容放在url,如果一定要这样做可以通过robots禁止百度抓取这些非规范url

2,最好能让用户从url即可判断出网页内容,便于蜘蛛解析的同时便于用户间传播

3,url尽量短

4,不要添加蜘蛛难以解析的字符 

5,动态参数不要太多太复杂,目前百度对动态url已经有了很好的处理,但是参数过多过复杂的url有可能被蜘蛛认为不重要而抛弃

关于网站结构的优化和网站结构优化分析的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。

上一篇:购物网站制作(购物网站制作的创新点)
下一篇:求网站设计(网站设计资源)
相关文章

 发表评论

暂时没有评论,来抢沙发吧~