不论你的网站是用Shopify创立的,还是Wordpress,还是Magento,要重视你的网站都要做优化
咱们在讲到针对一个网站的优化,尤其是站内优化的时候,其实重点包括
2大方面:
- 一是针对页面的seo (on-page )
- 另一一个是网站结构优化,亦叫做技术性SEO
因为搜索结果的竞争越来越激烈,对SEO在技术上的优化亦提出了更高的需求。
一个表现良好的网站,必须要是可抓取、快速、安全的网站。
技术性SEO包括的内容非常多,涵盖网站的结构设计、URL、网络地图等内容,况且是一个技术性很强的方面。
今天我重点说一说网站技术SEO的六个基本方面,做好这六大方面,网站的性能会更加优化和健康。
非常多人可能看到这一章节会觉得很枯燥,然则其实是很重要的。
为何呢?
由于一个网站,倘若你花了非常多时间在获取流量上,例如宣传,例如红人,然则基本的文案的audit(审视)都无过关的话,那样无形之中会大大增多你网站的营销花费。
试想一下一个2秒打开速度的网站,和一个十秒才打开的网站,那效果能同样吗?
因此从一个网站的优化方向来讲,尤其是技术性优化的方向来探讨,咱们要从以下几点进行优化: 01
保证网站可抓取 针对搜索引擎优化,做好优秀内容是必须的。然则仅有优秀内容还不足,倘若搜索引擎抓取不到这个页面,那你辛辛苦苦编写的内容不是白费了吗?
保证网站可抓取,首要要检测robots.txt文件,这个文件是任何网络爬行软件到达站点时的第1个调用点。
robots.txt文件会知道应该被抓取的和不该该被抓取的部分,表现为准许(allow)、禁止(disallow)某些用户代理的行径。
经过将/robots.txt添加到根域末尾,能够公开运用robots.txt文件。咱们看一下Hallam网站的示例:
能够看到,Hallam网站不允许以/ wp-admin(网站后端)开头的URL被抓取。经过指明那些地区禁止这些URL,能够节省带宽、服务器资源和爬网预算。
与此同期,搜索引擎爬虫抓取网站的重要部分时,不该该受到禁止。
由于robots.txt是爬虫在抓取网站时看到的第1个文件,因此最好是将robots.txt指向站点地图。能够在旧版的Google Search Console中编辑和测试robots.txt文件。
在robots.txt的测试工具中,下面的网址栏输入任何网址,就能够检测这个网址能否被抓取,robots.txt文件中有无错误和警告。
由于旧版的Google Search Console功能要比新版本的功能多有些,在技术SEO方面旧版本会更好用有些。
比方说,旧版本能够查看站长工具上的抓取统计信息区域(Craw Stats),针对认识网站的抓取方式会更加的方便。
这个报告有3个图表,表示了近期3个月的数据。
每日抓取的网页数量、每日下载的千字节数、下载网页所花费的时间(以毫秒为单位),能够表示网站的抓取速度及和搜索引擎爬虫的关系。
搜索引擎爬虫定时拜访某网站,并且这是一个快速况且容易被抓取的网站的话,这个网站就会有很高的抓取速度。
这些图表数据倘若能保持一致是最好的,任何重大波动都会出问题,可能是HTML损坏,内容陈旧或robots.txt文件阻止了太多URL。
倘若加载一个页面需要很长期,暗示爬虫爬取时间太长,建立索引速度较慢。
还能够在新版的Google Search Console查看覆盖率报告中的抓取错误。
这些地区都是有爬取问题的页面,点击能够表示这些页面。检测这些页面是什么原由引起的爬取问题,最好不是很重要的页面,尽快处理这些问题。
倘若你在Craw Stats或覆盖率报告中,发掘重大的抓取错误或波动,能够对日志文件进行分析查看。
从服务器日志拜访原始数据可能会比较麻烦,由于分析是高级设置,但它有助于准确理解那些页面能够被抓取、那些不可抓取。
那些页面会被优先处理,那些区域显现了预算浪费的状况,还有爬虫在爬取网站的过程中收到那些服务器响应。 02
检测站点可编入索引
检测爬虫是不是能够抓取网站之后,还要搞清楚网站上的网页有无编入Google索引。
有非常多办法能够检测这一问题,前面用到的Google Search Console覆盖报告,就能够用来查看每一个页面的状态。
从这个报告中咱们看到四个数据:
错误:404s重定向错误。
有效警告:已编制索引但附有警告的页面。
有效:成功编制索引的页面。
已排除:被排除在索引状态之外的页面及其原由,如重定向或被robots.txt阻止的网页。
还能够运用URL检测工具分析特定的URL。
倘若某主页的流量有所下降,就该检测这个新加入的网站是不是已然编入索引,或对这个网址进行问题排查。
还有一个好办法可用来检测网站能否索引,便是运用爬取工具,举荐Screaming Frog。
Screaming Frog是最强大、运用最广泛的爬取软件之一。它有付费版本和免费版本,能够按照网站的体积进行选取。
免费版本的功能有限,抓取的数量限于500个URL。而付费版本的年费是149英镑,有非常多的功能和可用API,无抓取限制。
运行爬取软件之后,就能够看到和索引关联的两列结果。
Indexability:可索引性,表示URL能否被编入索引,是“可索引”还是“不可索引”。
Indexability Status:可索引性状态,表示URL不可索引的原由是什么,是不是被编为了另一个URL,或是带有没有索引标签。
这个工具是批量审核网站一种很好的方式,能够认识那些网页正在被编入索引,那些网页不可被编入索引,这些都会表示在结果中。
对列进行排序并查询反常的状况,运用Google Analytics API,能有效识别出可索引的重要页面。
最后,还能够运用这个网站检测你的页面有多少是已然索引的:domain Google Search parameter。
在搜索栏中输入site:yourdomain并按Enter键,就能够看到网站上已被Google编入索引的每一个网页。
示例:
这儿咱们看到boots.com有大约95,000个已然索引的URL,经过这个功能咱们晓得Google此刻存储了多少网页。
倘若你的网页数量和被谷歌索引的数量差非常多。
那样你应该思考:
网站的HTTP版本是不是仍在编入索引?
已被编入索引的页面有无重复的,需要规范化的?
网站的大部分内容是不是应该被编入索引?
经过这三个问题,认识谷歌怎样将网站编入索引,以及怎样做出相应更改。 03
查看站点地图
SEO还有一个不可忽略的重要方面:站点地图。XML站点地图是你的网站到Google和其它搜索引擎爬虫的地图。
实质上,站点地图帮忙这些爬虫给你的网页排名。
有效的站点地图有几点值得重视:
站点地图要在XML文档中正确格式化。
站点地图应该遵循XML站点地图协议。
只包括规范版本的网址。
不包括无索引的网址。
更新或创建新页面时,要包含所有新页面。
关于站点地图的小工具:
1. Yoast SEO插件,能够创建XML站点地图。
2. Screaming Frog,它的站点地图分析非常仔细。
另一,还能够在站点题图上查看网址,遗失的网址或是少见的网址。
保证站点地图包括最重要的页面,排除不消编进Google索引的页面,并且结构要正确。完成这些操作之后,你应该将站点地图重新提交到Google Search Console。 04
网站要适应移动端设备
谷歌去年宣布了会优先对移动端进行索引。亦便是说,网页的移动端版本会优先于电脑端版本,进行排名和索引,由于大部分用户重点运用移动设备进行网页拜访,因此网站排名亦会给移动端优先的权利。
谷歌的Mobile-Friendly Test是一款免费工具,能够用来检测网页在移动端的响应和适应性。
在网址栏输入域名,就能够表示在移动设备上的呈现效果,是不是适应移动设备。
当然亦能够手动检测网站在移动端的适应状况,用手机浏览一个网站,检测网站的重点转化路径有无错误。
网站上面的所有联系表格、tel号码、关键服务页面,是不是都正常运行。倘若你是在电脑端浏览网页的话,就能够右键单击页面,再做检测。 05
网页速度
网页速度此刻是Google排名的一个很重要的原因,网页响应快速亦是提高用户体验度的一个很好的方式。
下面我给你们举荐有些测试网站速度的实用工具
Google PageSpeed Insights
这是谷歌的一款功能强大的工具,可以避免费运用。它能够在移动端和电脑端对网站进行速度测试,进行打分,并给出加强页面速度的意见。
对主页和核心页面进行测试,能够晓得你的网址速度怎样,采取那些办法能够加强网速。
还有一点要提醒一下:咱们说的页面速度,不仅指的是某人打开网页时,加载出一个页面的速度,还包含搜索引擎抓取网页的速度和难易度。
这亦是缩小和绑缚CSS和Javascript文件的原由。因此依靠肉眼检测页面加载还不足,还需要运用工具来全面地分析页面是怎样加载的。
谷歌还有一款工具能够测试移动设备的网速,专门针对移动设备加强网速。
它会按照测试给出一个结果报告:
1.网站在在3G和4G网络上的速度,包含网站加载速度有多少秒,评级是多少,网站速度趋势在加快还是减慢;
2.针对每一个页面的个性化修复方式;
3.网速和竞争对手的网速做对比的状况;
4.网站收入受到网速的影响状况。
Google Analytics
针对网速的问题,还能够运用Google Analytics,它能够给出加强网速的诊断意见。
打开Google Analytics,在Behaviour中找到Site Speed,能够查找出非常多关于网速的有用信息,包含特定网页在区别浏览器和国家地区的加载效果。
你可以按照页面浏览量进行检测,优先处理最重要的页面。
影响页面加载速度的原因有非常多,倘若你发掘页面加载有问题,能够经过检测有些常规内容去修复页面:
优化图像,图像有无压缩过;
修复膨胀的javascript;
减少服务器请求;
保证缓存有效;
检测服务器的速度快不快;
思虑运用内容分发网络(CDN) 06
重复内容审核
最后一项是审核网站内容有无重复。针对做SEO的人来讲,内容重复是一个很大的禁忌。
虽然说谷歌不会由于内容重复就处罚某个网站,然则谷歌不爱好重复文案内容,这一点是很知道的。
谷歌认为重复内容对用户是没什么用处的,因此它不会在搜索引擎排名中给有重复内容的页面很好的排名。
要检测有无重复内容,能够运用Google search parameters进行快速查找,输入网址,在搜索结果的最后一页,倘若有重复内容,就会显现以下文字:
倘若这儿显现了重复内容,应该再运用Screaming Frog抓取一下网站。而后根据页面标题进行排序,就能够检测网站上有那些重复的页面。
搜索引擎技术优化让你的网站更加优化和健康。
以上是技术性SEO的六个办法,是网站结构优化相对基本的东西。倘若你们想要在技术上做得更好,还能够继续深入。
咳咳,这般的文案会不会显出很枯燥?(摊手...) 以上~~
长按二维码,添加关注!
|