外链论坛

 找回密码
 立即注册
搜索
查看: 55|回复: 5

网站建设要从哪几方面来优化呢?

[复制链接]

3063

主题

3万

回帖

9915万

积分

论坛元老

Rank: 8Rank: 8

积分
99158953
发表于 2024-7-27 02:20:51 | 显示全部楼层 |阅读模式

不论你的网站是用Shopify创立的,还是Wordpress,还是Magento,要重视你的网站都要做优化

咱们在讲到针对一个网站的优化,尤其是站内优化的时候,其实重点包括

2大方面:

- 一是针对页面的seo (on-page )

- 另一一个是网站结构优化,叫做技术性SEO 

因为搜索结果的竞争越来越激烈,对SEO在技术上的优化提出了更高的需求

一个表现良好的网站,必须要是可抓取、快速、安全的网站。

技术性SEO包括的内容非常多,涵盖网站的结构设计、URL、网络地图等内容,况且是一个技术性很强的方面。

今天我重点说一说网站技术SEO的六个基本方面,做好这六大方面,网站的性能会更加优化和健康。

非常多人可能看到这一章节会觉得很枯燥,然则其实是很重要的。

为何呢?

由于一个网站,倘若你花了非常多时间在获取流量上,例如宣传例如红人,然则基本的文案的audit(审视)都过关的话,那样无形之中会大大增多你网站的营销花费

试想一下一个2秒打开速度的网站,和一个十秒才打开的网站,那效果能同样吗?

因此从一个网站的优化方向来讲,尤其是技术性优化的方向来探讨,咱们要从以下几点进行优化:

01

保证网站可抓取

针对搜索引擎优化,做好优秀内容是必须的。然则仅有优秀内容还不足倘若搜索引擎抓取不到这个页面,那你辛辛苦苦编写的内容不是白费了吗?

保证网站可抓取,首要检测robots.txt文件,这个文件是任何网络爬行软件到达站点时的第1个调用点。

robots.txt文件会知道应该被抓取的和不该该被抓取的部分,表现为准许(allow)、禁止(disallow)某些用户代理的行径

经过将/robots.txt添加到根域末尾,能够公开运用robots.txt文件。咱们看一下Hallam网站的示例:

能够看到,Hallam网站不允许以/ wp-admin(网站后端)开头的URL被抓取。经过指明那些地区禁止这些URL,能够节省带宽、服务器资源和爬网预算。

与此同期,搜索引擎爬虫抓取网站的重要部分时,不该该受到禁止。

由于robots.txt是爬虫在抓取网站时看到的第1个文件,因此最好是将robots.txt指向站点地图。能够在旧版的Google Search Console中编辑和测试robots.txt文件。

在robots.txt的测试工具中,下面的网址栏输入任何网址,就能够检测这个网址能否被抓取,robots.txt文件中有错误和警告。

由于旧版的Google Search Console功能要比新版本的功能多有些,在技术SEO方面旧版本会更好用有些

比方说,旧版本能够查看站长工具上的抓取统计信息区域(Craw Stats),针对认识网站的抓取方式会更加的方便。

这个报告有3个图表,表示近期3个月的数据。

每日抓取的网页数量、每日下载的千字节数、下载网页所花费的时间(以毫秒为单位),能够表示网站的抓取速度及和搜索引擎爬虫的关系。

搜索引擎爬虫定时拜访某网站,并且这是一个快速况且容易被抓取的网站的话,这个网站就会有很高的抓取速度。

这些图表数据倘若能保持一致是最好的,任何重大波动都会出问题,可能是HTML损坏,内容陈旧或robots.txt文件阻止了太多URL。

倘若加载一个页面需要很长期暗示爬虫爬取时间太长,建立索引速度较慢。

能够在新版的Google Search Console查看覆盖率报告中的抓取错误。

这些地区都是有爬取问题的页面,点击能够表示这些页面。检测这些页面是什么原由引起的爬取问题,最好不是很重要的页面,尽快处理这些问题。

倘若你在Craw Stats或覆盖率报告中,发掘重大的抓取错误或波动,能够对日志文件进行分析查看。

从服务器日志拜访原始数据可能会比较麻烦,由于分析是高级设置,但它有助于准确理解那些页面能够被抓取、那些不可抓取。

那些页面会被优先处理,那些区域显现了预算浪费的状况,还有爬虫在爬取网站的过程中收到那些服务器响应。

02

检测站点可编入索引

检测爬虫是不是能够抓取网站之后,还要搞清楚网站上的网页有编入Google索引。

非常多办法能够检测这一问题,前面用到的Google Search Console覆盖报告,就能够用来查看每一个页面的状态。

从这个报告中咱们看到四个数据:

错误:404s重定向错误。

有效警告:已编制索引但附有警告的页面。

有效:成功编制索引的页面。

已排除:被排除在索引状态之外的页面及其原由,如重定向或被robots.txt阻止的网页。

能够运用URL检测工具分析特定的URL。

倘若某主页的流量有所下降,就该检测这个新加入的网站是不是已然编入索引,对这个网址进行问题排查。

还有一个好办法可用来检测网站能否索引,便是运用爬取工具,举荐Screaming Frog

Screaming Frog是最强大、运用广泛的爬取软件之一。它有付费版本和免费版本,能够按照网站的体积进行选取

免费版本的功能有限,抓取的数量限于500个URL。而付费版本的年费是149英镑,有非常多的功能和可用API,抓取限制。

运行爬取软件之后,就能够看到和索引关联的两列结果。

Indexability可索引性,表示URL能否被编入索引,是“可索引”还是“不可索引”。

Indexability Status:可索引性状态,表示URL不可索引的原由是什么,是不是被编为了另一个URL,或是带有没有索引标签。

这个工具是批量审核网站一种很好的方式,能够认识那些网页正在被编入索引,那些网页不可被编入索引,这些都会表示在结果中。

对列进行排序并查询反常状况运用Google Analytics API,能有效识别出可索引的重要页面。

最后,还能够运用这个网站检测你的页面有多少是已然索引的:domain Google Search parameter。

在搜索栏中输入site:yourdomain并按Enter键,就能够看到网站上已被Google编入索引的每一个网页。

示例:

这儿咱们看到boots.com有大约95,000个已然索引的URL,经过这个功能咱们晓得Google此刻存储了多少网页。

倘若你的网页数量和被谷歌索引的数量差非常多

那样你应该思考:

网站的HTTP版本是不是仍在编入索引?

已被编入索引的页面有重复的,需要规范化的?

网站的大部分内容是不是应该被编入索引?

经过这三个问题,认识谷歌怎样将网站编入索引,以及怎样做出相应更改。

03

查看站点地图

SEO还有一个不可忽略的重要方面:站点地图。XML站点地图是你的网站到Google和其它搜索引擎爬虫的地图。

实质上,站点地图帮忙这些爬虫给你的网页排名。

有效的站点地图有几点值得重视:

站点地图要在XML文档中正确格式化。

站点地图应该遵循XML站点地图协议。

包括规范版本的网址。

包括索引的网址。

更新或创建新页面时,要包含所有新页面。

关于站点地图的小工具:

1. Yoast SEO插件,能够创建XML站点地图。

2. Screaming Frog,它的站点地图分析非常仔细

另一,还能够在站点题图上查看网址,遗失的网址是少见的网址。

保证站点地图包括最重要的页面,排除不消编进Google索引的页面,并且结构要正确。完成这些操作之后,你应该将站点地图重新提交到Google Search Console。

04

网站要适应移动端设备

谷歌去年宣布了会优先对移动端进行索引。便是说,网页的移动端版本会优先于电脑端版本,进行排名和索引,由于大部分用户重点运用移动设备进行网页拜访,因此网站排名会给移动端优先的权利。

谷歌的Mobile-Friendly Test是一款免费工具,能够用来检测网页在移动端的响应和适应性。

在网址栏输入域名,就能够表示在移动设备上的呈现效果,是不是适应移动设备。

当然能够手动检测网站在移动端的适应状况,用手机浏览一个网站,检测网站的重点转化路径有错误。

网站上面的所有联系表格、tel号码、关键服务页面,是不是都正常运行。倘若你是在电脑端浏览网页的话,就能够右键单击页面,再做检测

05

网页速度

网页速度此刻是Google排名的一个很重要的原因,网页响应快速提高用户体验度的一个很好的方式。

下面我给你们举荐有些测试网站速度的实用工具

Google PageSpeed Insights

这是谷歌的一款功能强大的工具,可以避免运用。它能够在移动端和电脑端对网站进行速度测试,进行打分,并给出加强页面速度的意见

对主页和核心页面进行测试,能够晓得你的网址速度怎样,采取那些办法能够加强网速。

还有一点要提醒一下:咱们说的页面速度,不仅指的是某人打开网页时,加载出一个页面的速度,还包含搜索引擎抓取网页的速度和难易度。

是缩小和绑缚CSS和Javascript文件的原由因此依靠肉眼检测页面加载还不足,还需要运用工具来全面地分析页面是怎样加载的。

谷歌还有一款工具能够测试移动设备的网速,专门针对移动设备加强网速。

它会按照测试给出一个结果报告:

1.网站在在3G和4G网络上的速度,包含网站加载速度有多少秒,评级是多少,网站速度趋势在加快还是减慢;

2.针对每一个页面的个性化修复方式;

3.网速和竞争对手的网速做对比的状况

4.网站收入受到网速的影响状况

Google Analytics

针对网速的问题,还能够运用Google Analytics,它能够给出加强网速的诊断意见

打开Google Analytics,在Behaviour中找到Site Speed,能够查找非常多关于网速的有用信息,包含特定网页在区别浏览器和国家地区的加载效果。

你可以按照页面浏览量进行检测,优先处理最重要的页面。

影响页面加载速度的原因非常多倘若发掘页面加载有问题,能够经过检测有些常规内容去修复页面:

优化图像,图像有压缩过;

修复膨胀的javascript;

减少服务器请求;

保证缓存有效;

检测服务器的速度快不快;

思虑运用内容分发网络(CDN)

06

重复内容审核

最后一项是审核网站内容有重复。针对做SEO的人来讲,内容重复是一个很大的禁忌。

虽然说谷歌不会由于内容重复就处罚某个网站,然则谷歌不爱好重复文案内容,这一点是很知道的。

谷歌认为重复内容对用户是没什么用处的,因此它不会在搜索引擎排名中给有重复内容的页面很好的排名。

检测重复内容,能够运用Google search parameters进行快速查找,输入网址,在搜索结果的最后一页,倘若有重复内容,就会显现以下文字:

倘若这儿显现了重复内容,应该再运用Screaming Frog抓取一下网站。而后根据页面标题进行排序,就能够检测网站上有那些重复的页面。

搜索引擎技术优化让你的网站更加优化和健康。

以上是技术性SEO的六个办法,是网站结构优化相对基本的东西。倘若你们想要在技术上做得更好,还能够继续深入。

咳咳,这般文案会不会显出很枯燥?(摊手...)

以上~~

长按二维码,添加关注!





上一篇:从何处着手开启网站优化?
下一篇:怎么样进行外贸网站优化?
回复

使用道具 举报

0

主题

1万

回帖

1

积分

新手上路

Rank: 1

积分
1
发表于 2024-8-22 03:43:18 | 显示全部楼层
你的见解真是独到,让我受益匪浅。
回复

使用道具 举报

0

主题

1万

回帖

1

积分

新手上路

Rank: 1

积分
1
发表于 2024-8-28 03:04:11 | 显示全部楼层
我完全同意你的观点,说得太对了。
回复

使用道具 举报

3037

主题

3万

回帖

9910万

积分

论坛元老

Rank: 8Rank: 8

积分
99109078
发表于 2024-10-7 07:48:57 | 显示全部楼层
感谢你的精彩评论,为我的思绪打开了新的窗口。
回复

使用道具 举报

3039

主题

3万

回帖

9606万

积分

论坛元老

Rank: 8Rank: 8

积分
96065878
发表于 2024-10-28 17:43:41 | 显示全部楼层
楼主继续加油啊!外链论坛加油!
回复

使用道具 举报

2979

主题

3万

回帖

9956万

积分

论坛元老

Rank: 8Rank: 8

积分
99569190
发表于 昨天 23:49 | 显示全部楼层
你的话语如春风拂面,让我心生暖意。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

站点统计|Archiver|手机版|小黑屋|外链论坛 ( 非经营性网站 )|网站地图

GMT+8, 2024-11-18 06:40 , Processed in 0.118418 second(s), 21 queries .

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.