前端性能优化
前端性能优化
Search Engine Optimization)
即搜索引擎优化。 因为,页面的加载会影响到爬虫的爬取,页面加载速度是一项非常重要的指标。况且,页面优化直接影响到了用户体验。所以学习前端性能优化势在必行。
经常面试题:从用户输入浏览器输入url到页面最后呈现 有哪些过程?有什么办法能优化页面性能?
答曰如下:
- 用户输入URL地址
- 浏览器解析URL解析出主机名
- 浏览器将主机名转换成服务器ip地址(浏览器先查找本地DNS缓存列表 没有的话 再向浏览器默认的DNS服务器发送查询请求 同时缓存)
- 浏览器将端口号从URL中解析出来
- 浏览器建立一条与目标Web服务器的TCP连接(三次握手)
- 浏览器向服务器发送一条HTTP请求报文
- 服务器向浏览器返回一条HTTP响应报文
- 关闭连接 浏览器解析文档
- 如果文档中有资源 重复6 7 8 动作 直至资源全部加载完毕
再深一点层次 可说渲染机制,重排、重绘
重排:
定义:DOM结构中的各个元素都有自己的盒子(模型),这些都需要浏览器根据各种样式来计算并根据计算结果将元素放到它该出现的位置,这个过程称之为reflow。
触发Reflow:
- 当你增加、删除、修改DOM结点时,会导致Reflow或Repaint
- 当你移动DOM的位置,或是搞个动画的时候
- 当你修改CSS样式的时候
- 当你Resize窗口的时候(移动端没有这个问题),或者是滚动的时候
- 当你修改网页的
最常问:如何减少Reflow?或者避免Reflow?
重绘:
定义:当各种盒子的位置、大小以及其他属性,例如颜色、字体大小等都确定下来后,浏览器于是便把这些元素都按照各自的特性绘制了一遍,于是页面的内容出现了,这个过程称之为repaint。
页面要呈现的内容,通通都绘制到页面上。
触发Repaint
- DOM改动
- CSS改动
最常问:如何避免最小程序的Repaint?
页面的性能优化很重要,你知道有哪些原因是影响页面性能的?eg…
- HTTP请求
- 复杂的页面逻辑(JS设计)
- 重度的DOM操作
- 服务端响应
- 大量的数据
…
有哪些办法可以加速我们的页面性能?比如…
- 资源压缩与合并(代码打包)
- 异步加载
- CDN
- DNS预解析
- 缓存
…
主要整理的内容:
- 页面加载缓慢原因分析
- 性能优化原则
- 优化工具介绍
- 浏览器的工作机制,了解一些基本常识的原理:
- 为什么要将js放到页脚部分
- 引入样式的几种方式的权重
- css属性书写顺序建议
- 何种类型的DOM操作是耗费性能的
我的小目标
- 前端页面优化,为成为SEO路添砖加瓦
- 写出优质代码,页面性能蹭蹭蹭的往上走
- 面试如果提到页面优化,别短路
- 几种常见的页面优化工具的使用PageSpeed,JSPerf
页面性能优化
前端性能优化可以分为两大部分:浏览器部分、代码部分。
浏览器部分又可以分为:
- 网络层面
- 浏览器渲染层面
- 服务端层面
代码部分又可以分为:
- 构建层面
- 编码层面
- 机制(SSR,英文Server Side Render:服务器端渲染)
- 规范
首先来看看浏览器部分:前端的页面主要在浏览器上运行着,那么我们追根溯源,从浏览器的原理开始,研究如何进行页面性能优化。
浏览器
浏览器的主要作用
浏览器的主要功能就是向服务器发出请求,在浏览器窗口中展示您选择的网络资源。这些网络资源包括以下内容:
- HTML
- CSS
- JavaScript的
- 媒体(图片,视频等)
也可以分为HTML文档(HTML/CSS/JS)、PDF、图片、视频和其他类型。
浏览器的用户界面有很多彼此相同的元素,其中包括:
- 用来输入 URI 的地址栏
- 前进和后退按钮
- 书签设置选项
- 用于刷新和停止加载当前文档的刷新和停止按钮
- 用于返回主页的主页按钮
浏览器的组成结构
用户界面(User Interface) - 包括地址栏、前进/后退按钮、书签菜单等。除了浏览器主窗口显示的您请求的页面外,其他显示的各个部分都属于用户界面。
浏览器引擎(Browser engine) - 在用户界面和渲染引擎之间传送指令。
渲染引擎(Rendering engine) - 负责显示请求的内容。如果请求的内容是 HTML,它就负责解析 HTML 和 CSS 内容,并将解析后的内容显示在屏幕上。
也可以叫呈现引擎(Rendering Engine)或者布局引擎(Layout Engine)
默认情况下,渲染引擎可显示 HTML 和 XML 文档与图片。通过插件(或浏览器扩展程序),还可以显示其他类型的内容;例如,使用 PDF 查看器插件就能显示 PDF 文档。但是在本章中,我们将集中介绍其主要用途:显示使用 CSS 格式化的 HTML 内容和图片。
4.数据存储(Data Persistence)。这是持久层。浏览器需要在硬盘上保存各种数据,例如 Cookie。新的 HTML 规范 (HTML5) 定义了“网络数据库”,这是一个完整(但是轻便)的浏览器内数据库。
浏览器是多进程的
进程线程简单的理解:进程里面可以有多个线程,进程就是QQ,线程就是会话。
- 浏览器是多进程的
- 浏览器之所以能够运行,是因为系统给它的进程分配了资源(cpu、内存)
- 简单点理解,每打开一个Tab页,就相当于创建了一个独立的浏览器进程。
浏览器里面的进程:
Browser进程:浏览器的主进程(负责协调、主控),只有一个。作用有
- 负责浏览器界面显示,与用户交互。如前进,后退等
- 负责各个页面的管理,创建和销毁其他进程
- 将Renderer进程得到的内存中的Bitmap,绘制到用户界面上
- 网络资源的管理,下载等
第三方插件进程:每种类型的插件对应一个进程,仅当使用该插件时才创建
GPU进程:最多一个,用于3D绘制等
渲染进程(浏览器内核)(Renderer进程,内部是多线程的)
- 默认每个Tab页面一个进程,互不影响。
- 主要作用为页面渲染,脚本执行,事件处理等
渲染进程是多线程的:
GUI渲染线程
- 负责渲染浏览器界面,解析HTML,CSS,构建DOM树和RenderObject树,布局和绘制等。
- 当界面需要重绘(Repaint)或由于某种操作引发回流(reflow)时,该线程就会执行
- 注意,GUI渲染线程与JS引擎线程是互斥的,当JS引擎执行时GUI线程会被挂起(相当于被冻结了),GUI更新会被保存在一个队列中等到JS引擎空闲时立即被执行。
js引擎线程
- 也称为JS内核,负责处理Javascript脚本程序。(例如V8引擎)
- JS引擎线程负责解析Javascript脚本,运行代码。
- JS引擎一直等待任务队列中任务的到来,然后加以处理,一个Tab页(renderer进程)中只有一个JS线程在运行
- 同样注意,GUI渲染线程与JS引擎线程是互斥的。所以如果JS执行的时间过长,要放在body下面,否则就会导致页面渲染加载阻塞。
事件触发线程
- 管理着事件队列
- 监听事件,符合条件时把回调函数放入事件队列中
定时触发器线程
- setInterval与setTimeout在此线程中计时完毕后,把回调函数放入事件队列中
- 浏览器定时计数器并不是由JavaScript引擎计数的,(因为JavaScript引擎是单线程的, 如果处于阻塞线程状态就会影响记计时的准确),因此通过单独线程来计时并触发定时(计时完毕后,添加到事件队列中,等待JS引擎空闲后执行)
- 注意,W3C在HTML标准中规定,规定要求setTimeout中低于4ms的时间间隔算为4ms。
异步http请求线程
- 检测到XHR对象状态变化时,将回调函数放入事件队列中
- 将检测到状态变更时,如果设置有回调函数,异步线程就产生状态变更事件,将这个回调再放入事件队列中。再由JavaScript引擎执行。
了解 一下,执行线:
渲染线程与JS引擎线程互斥
由于JavaScript是可操纵DOM的,如果在修改这些元素属性同时渲染界面(即JS线程和UI线程同时运行),那么渲染线程前后获得的元素数据就可能不一致了。
因此为了防止渲染出现不可预期的结果,浏览器设置GUI渲染线程与JS引擎为互斥的关系,当JS引擎执行时GUI线程会被挂起, GUI更新则会被保存在一个队列中等到JS引擎线程空闲时立即被执行。
举一个简单的例子:
1 |
|
JS阻塞页面加载
从上述的互斥关系,可以推导出,JS如果执行时间过长就会阻塞页面。
譬如,假设JS引擎正在进行巨量的计算,此时就算GUI有更新,也会被保存到队列中,等待JS引擎空闲后执行。 然后,由于巨量计算,所以JS引擎很可能很久很久后才能空闲,自然会感觉到巨卡无比。
所以,要尽量避免JS执行时间过长,这样就会造成页面的渲染不连贯,导致页面渲染加载阻塞的感觉。
总结一下:
- css加载不会阻塞DOM树解析(异步加载时DOM照常构建),但会阻塞render树渲染(渲染时需等css加载完毕,因为render树需要css信息)
- Javascript 阻塞 DOM 解析
浏览器的渲染机制
对于渲染,我们首先需要了解一个概念:设备刷新率。
设备刷新率是设备屏幕渲染的频率,通俗一点就是,把屏幕当作墙,设备刷新率就是多久重新粉刷一次墙面。基本我们平常接触的设备,如手机、电脑,它们的默认刷新频率都是60FPS,也就是屏幕在1s内渲染60次,约16.7ms渲染一次屏幕。
这就意味着,我们的浏览器最佳的渲染性能就是所有的操作在一帧16.7ms内完成,能否做到一帧内完成直接决定着渲染性,影响用户交互。
渲染引擎一开始会从网络层获取请求文档的内容,内容的大小一般限制在 8000 个块以内。
然后进行如下所示的基本流程:
渲染引擎将开始解析 HTML 文档,并将各标记逐个转化成“内容树”上的 DOM 节点。同时也会解析外部 CSS 文件以及样式元素中的样式数据。HTML 中这些带有视觉指令的样式信息将用于创建另一个树结构:呈现树。
呈现树包含多个带有视觉属性(如颜色和尺寸)的矩形。这些矩形的排列顺序就是它们将在屏幕上显示的顺序。
呈现树构建完毕之后,进入“布局”处理阶段,也就是为每个节点分配一个应出现在屏幕上的确切坐标。下一个阶段是绘制 - 渲染引擎会遍历呈现树,由用户界面后端层将每个节点绘制出来。
需要着重指出的是,这是一个渐进的过程。为达到更好的用户体验,渲染引擎会力求尽快将内容显示在屏幕上。它不必等到整个 HTML 文档解析完毕之后,就会开始构建呈现树和设置布局。在不断接收和处理来自网络的其余内容的同时,渲染引擎会将部分内容解析并显示出来。
那么知道了,CSSOM 树和 DOM 树合并成渲染树,然后用于计算每个可见元素的布局,并输出给绘制流程,将像素渲染到屏幕上。优化上述每一个步骤对实现最佳渲染性能至关重要。
具体的流程:
- DOM 树与 CSSOM 树合并后形成渲染树。
- 渲染树只包含渲染网页所需的节点。
- 布局计算每个对象的精确位置和大小。
- 最后一步是绘制,使用最终渲染树将像素渲染到屏幕上。
请注意
visibility: hidden
与display: none
是不一样的。前者隐藏元素,但元素仍占据着布局空间(即将其渲染成一个空框),而后者 (display: none
) 将元素从渲染树中完全移除,元素既不可见,也不是布局的组成部分。
以webkit的渲染作为示例:
我们可以使用调试工具来看一个真实的例子:
script
标签的处理
JS可以操作DOM来修改DOM结构,可以操作CSSOM来修改节点样式,这就导致了浏览器在解析HTML时,一旦碰到script
,就会立即停止HTML的解析(而CSS不会),执行JS,再返还控制权。
事实上,JS执行前不仅仅是停止了HTML的解析,它还必须等待CSS的解析完成。当浏览器碰到script
元素时,发现该元素前面的CSS还未解析完,就会等待CSS解析完成,再去执行JS。
JS阻塞了HTML的解析,也阻塞了其后的CSS解析,整个解析进程必须等待JS的执行完成才能够继续,这就是所谓的JS阻塞页面。一个script标签,推迟了DOM的生成、CSSOM的生成以及之后的所有渲染过程,从性能角度上讲,将script
放在页面底部,也就合情合理了。
简单来说:渲染线程与JS引擎线程是互斥的,当JS引擎执行时渲染线程会被挂起(相当于被冻结了),渲染更新会被保存在一个队列中等到JS引擎空闲时立即被执行。
总结一下:
浏览器的渲染流程分为:
- DOM树构建
- CSSOM树构建
- RenderObject树构建
- 布局
- 绘制
重排reflow与重绘repaint
重排reflow
reflow指的是重新计算页面布局。
某个节点reflow时会重新计算节点的尺寸和位置,而且还有可能触发其子节点、祖先节点和页面上的其他节点reflow。在这之后再触发一次repaint。
当render tree中的一部分(或全部)因为元素的规模尺寸,布局,隐藏等改变而需要重新构建。这就称为回流,每个页面至少需要一次回流,就是在页面第一次加载的时候。
导致reflow的操作
- 调整窗口大小
- 改变字体
- 增加或者移除样式表
- 内容变化,比如用户在input框中输入文字
- 激活 CSS 伪类,比如 :hover (IE 中为兄弟结点伪类的激活)
- 操作 class 属性
- 脚本操作 DOM
- 计算 offsetWidth 和 offsetHeight 属性
- 设置 style 属性的值
触发页面重布局的一些css属性
- 盒子模型相关属性会触发重布局
width
height
padding
margin
display
border-width
border
min-height
- 定位属性及浮动也会触发重布局
top
bottom
left
right
position
float
clear
- 改变节点内部文字结构也会触发重布局
text-align
overflow-y
font-weight
overflow
font-family
line-height
vertical-align
white-space
font-size
重绘repaint
repiant或者redraw遍历所有的节点检测各节点的可见性、颜色、轮廓等可见的样式属性,然后根据检测的结果更新页面的响应部分。
当render tree中的一些元素需要更新属性,而这些属性只是影响元素的外观,风格,而不会影响布局的,比如background-color。则就叫称为重绘
只触发重绘不触发重排的一些CSS属性:
color
border-style
、border-radius
visibility
text-decoration
background
、background-image
、background-position
、background-repeat
、background-size
outline
、outline-color
、outline-style
、outline-width
box-shadow
来看一个例子:
1 | var bstyle = document.body.style; // cache |
当然,我们的浏览器是聪明的,它不会像上面那样,你每改一次样式,它就reflow或repaint一次。一般来说,浏览器会把这样的操作积攒一批,然后做一次reflow,这又叫异步reflow或增量异步reflow。但是有些情况浏览器是不会这么做的,比如:resize窗口,改变了页面默认的字体,等。对于这些操作,浏览器会马上进行reflow。
但是有些时候,我们的脚本会阻止浏览器这么干,比如:如果我们请求下面的一些DOM值:
减少重绘与重排:
重绘和回流在实际开发中是很难避免的,我们能做的就是尽量减少这种行为的发生。
js尽量少访问dom节点和css 属性,尽量不要过多的频繁的去增加,修改,删除元素,因为这可能会频繁的导致页面reflow,可以先把该dom节点抽离到内存中进行复杂的操作然后再display到页面上。(虚拟DOM)
减少不必要的 DOM 层级(DOM depth)。改变 DOM 树中的一级会导致所有层级的改变,上至根部,下至被改变节点的子节点。这导致大量时间耗费在执行 reflow 上面。
不要通过父级来改变子元素样式,最好直接改变子元素样式,改变子元素样式尽可能不要影响父元素和兄弟元素的大小和尺寸
尽量通过class来设计元素样式,切忌用style 多次操作单个属性
1
2
3
4
5
6
7
8
9
10
11// bad
var left = 10,
top = 10;
el.style.left = left + "px";
el.style.top = top + "px";
// Good
el.className += " theclassname";
// Good
el.style.cssText += "; left: " + left + "px; top: " + top + "px;";尽可能的为产生动画的 HTML 元素使用
fixed
或absolute
的position
,那么修改他们的 CSS 是不会 Reflow 的。img标签要设置高宽,以减少重绘重排
把DOM离线后修改,如将一个dom脱离文档流,比如
display:none
,再修改属性,这里只发生一次回流。尽量用
transform
来做形变和位移,不会造成回流权衡速度的平滑。比如实现一个动画,以1个像素为单位移动这样最平滑,但reflow就会过于频繁,CPU很快就会被完全占用。如果以3个像素为单位移动就会好很多。
不要用tables布局的另一个原因就是tables中某个元素一旦触发reflow就会导致table里所有的其它元素reflow。在适合用table的场合,可以设置table-layout为auto或fixed,
避免不必要的复杂的 CSS 选择器,尤其是后代选择器(descendant selectors),因为为了匹配选择器将耗费更多的 CPU。
PS: display:none会触发reflow,而visibility:hidden只会触发repaint,因为没有发现位置变化。
总结一下:
重排:元素的尺寸变了、位置变了
重绘:元素的颜色、背景、边框、轮廓变了,但是,元素的几何尺寸没有变。
Reflow的成本比Repaint的成本高得多的多。DOM Tree里的每个结点都会有reflow方法,一个结点的reflow很有可能导致子结点,甚至父点以及同级结点的reflow。在一些高性能的电脑上也许还没什么,但是如果reflow发生在手机上,那么这个过程是非常痛苦和耗电的。
页面加载缓慢的原因
浏览器部分
网络层面
过多的HTTP请求
打开一个网页的时候,后台程序的响应并不所需太多时间,等待的时间主要花费在下载网页元素上了,即HTML、CSS、JavaScript、Flash、图片等。据统计,每增加一个元素,网页载入的时间就会增加25-40毫秒(具体取决于用户的带宽情况)。
资源访问带宽小
两方面,一方面是客户端的带宽,一方面是服务器端的带宽。
网页元素(图片、视频、样式)太大
浏览器渲染层面
渲染阻塞:
浏览器想要渲染一个页面就必须先构建出
DOM
树与CSSOM
树,如果HTML
与CSS
文件结构非常庞大与复杂,这显然会给页面加载速度带来严重影响。所谓渲染阻塞资源,即是对该资源发送请求后还需要先构建对应的
DOM
树或CSSOM
树,这种行为显然会延迟渲染操作的开始时间。JS阻塞与CSS阻塞:
HTML、CSS、JavaScript都是会对渲染产生阻塞的资源,HTML是必需的(没有DOM还谈何渲染),但还可以从CSS与JavaScript着手优化,尽可能地减少阻塞的产生。
重复渲染
DNS解析
服务端层面
- 硬件配置低:这个是双向的
- 服务器软件,比如防火墙、内网策略等
- 未对Nginx这类web服务器进行配置优化
- CPU占满、数据库未优化
- 代码问题,代码效率,代码性能
- 包含了过多的分析类工具
代码部分
构建层面
未对代码进行打包、压缩、兼容性优化。
未合并重复的请求、代码。
编码层面
没有良好的编码习惯,错误的编排JS与CSS
for循环、迭代、同步、重定向、阻塞请求
未删除重复、无用的代码
未对逻辑业务复杂的代码进行重构,了解设计模式,对业务进行疏理
机制(SSR,英文Server Side Render:服务器端渲染)
未加入Async异步机制
未思考页面加载、用户体验
规范
CSS规范
HTML规范/HTML5规范
Airbnb代码规范等。
优化原则
尽量减少HTTP请求
在浏览器(客户端)和服务器发生通信时,就已经消耗了大量的时间,尤其是在网络情况比较糟糕的时候,这个问题尤其的突出。
一个正常HTTP请求的流程简述:如在浏览器中输入”www.xxxxxx.com"并按下回车,浏览器再与这个URL指向的服务器建立连接,然后浏览器才能向服务器发送请求信息,服务器在接受到请求的信息后再返回相应的信息,浏览器接收到来自服务器的应答信息后,对这些数据解释执行。
而当我们请求的网页文件中有很多图片、CSS、JS甚至音乐等信息时,将会频繁的与服务器建立连接,与释放连接,这必定会造成资源的浪费,且每个HTTP请求都会对服务器和浏览器产生性能负担。
网速相同的条件下,下载一个100KB的图片比下载两个50KB的图片要耗费的网络资源更多。所以,请减少HTTP请求。
具体的方法:
组合文件,优化图片,使用sprites设计风格: 将背景图片合并成一个文件,通过
background-image
和background-position
控制显示;确保您的图像不大于它们所需的图像,它们采用正确的文件格式(PNG通常更适用于少于16种颜色的图形,而JPEG通常更适合照片)并且它们是针对Web压缩的。
使用CSS sprites在网站上经常使用的图像创建模板,如按钮和图标。CSS sprites将您的图像组合成一个大图像,一次加载所有(这意味着更少的HTTP请求),然后只显示您想要显示的部分。这意味着您通过不让用户等待加载多个图像来节省加载时间。
有一些在线工具:
肉联图片,使用
data:URL
方案将图像数据嵌入实际页面中。这可以增加HTML文档的大小。将内嵌图像组合到(缓存的)样式表中是一种减少HTTP请求并避免增加页面大小的方法。简化页面的设计
使用内容传送网络CDN
内容分发网络(CDN),也称为内容传送网络,是用于分发传送内容的负载的服务器网络。从本质上讲,您网站的副本存储在多个地理位置不同的数据中心,以便用户可以更快,更可靠地访问您的网站。
对于初创公司和私人网站来说,CDN服务的成本可能过高,但随着您的目标受众变得越来越大并变得更加全球化,CDN对于实现快速响应时间是必要的。
请记住,最终用户响应时间的80-90%用于下载页面中的所有组件:图像,样式表,脚本,Flash等。这是Performance Golden Rule。而不是从重新设计应用程序架构的艰巨任务开始,最好首先分散您的静态内容。这不仅可以大大缩短响应时间,而且由于内容交付网络,它更容易实现。
内容传送网络(CDN)是分布在多个位置的Web服务器的集合,以更有效地向用户传送内容。选择用于向特定用户传送内容的服务器通常基于网络接近度的度量。例如,选择具有最少网络跳数的服务器或具有最快响应时间的服务器。
CDN服务商有很多,这里就不再多说:专门做CDN服务器的蓝讯、网宿、帝联、快网,还有阿里云、腾讯云、华为云等。国外如Akamai Technologies,EdgeCast或level3
除了去购买一些CDN服务商的服务以外,对于大多数开发者,可以使用公共CDN网络上的资源,如以下的方式去使用CDN加速:
1 | <!-- google --> |
避免空src或者是href值
空的src和href都会导致多余的HTTP请求,虽然不影响加载时间,但是会对服务器产生不必要的流量和压力。浏览器仍然会向服务器发起一个 HTTP 请求:
- IE 向页面所在的目录发送请求
- Safari、Chrome、Firefox 向页面本身发送请求
- Opera 不执行任何操作
空的src的image严重的以至于影响整个网站的用户体验,空 src
产生请求的后果不容小憩:
- 给服务器造成意外的流量负担,尤其时日 PV 较大时;
- 浪费服务器计算资源;
- 可能产生报错。
有两种形式:
HTML形式
1
2<img src="">
<a href=""></a>JavaScript形式
1
2var img = new Image();
img.src = "";
解决办法:
- 删除空的
src
和href
标签 - 给
a
标签的href
属性,连接到实际的页面:
1 | <a href="#"></a> |
- 禁止跳转,添加
cursor:pointer
样式
1 | <style> |
- 给
a
标签创建一个带有描述信息的href
属性,并监控click
事件调用preventDefault()
函数。
1 | <a href="#Something_De scriptive" id="my_id">Trigger</a> |
优点:
- 让
<a>
够响应键盘事件并获得焦点(从而屏幕阅读器能够读出背后的内容,增强可访问性) - 优雅降级,在网络连接很差,还没有加载到CSS的时候,
<a>
依然有手型与正常的link样式。
gzip的组件
所有现代浏览器都支持 gzip
压缩并会为所有 HTTP 请求自动协商此类压缩。启用 gzip
压缩可大幅缩减所传输的响应的大小(最多可缩减 90%),从而显著缩短下载相应资源所需的时间、减少客户端的流量消耗并加快网页的首次呈现速度。
从HTTP / 1.1开始,Web客户端表示支持使用HTTP请求中的Accept-Encoding标头进行压缩。
1 | Accept-Encoding:gzip,deflate |
压缩包括XML和JSON在内的任何文本响应都是值得的。不应对图像和PDF文件进行gzip压缩,因为它们已经过压缩。试图对它们进行gzip不仅会浪费CPU,还可能会增加文件大小。
比如,在nginx中开启gzip压缩:
1 | # 开启gzip |
其他web容器启动gzip的方法:
- Apache:使用 mod_deflate
- Nginx:使用 ngx_http_gzip_module
- IIS:配置 HTTP 压缩功能
CSS放在顶部,JS放在底部
把Javascript脚本在底部,删除阻止渲染的JavaScript
在HTML文件<body>
中指定外部样式表和内联样式块可能对浏览器的渲染性能产生不利影响。
- 浏览器阻塞渲染网页直到所有外部的样式表都已被下载。
- (用
<style>
标记指定的)内联样式块可能会导致reflows和页面跳动。
因此,把外部样式表和内联样式块放在页面的<head>
中是很重要的。通过确保样式表首先被下载和解析,可以让浏览器逐步渲染页面。
具体做法:
将内联样式块和
<link>
元素从页面<body>
移动到页面<head>
中。HTML 4.01规范(第12.3节)规定,始终把使用
<link>
标签的外部样式表放在<head>
部分里,还要确保您指定的样式有正确的顺序。把
<style>
区块放在<head>
部分里。使用css媒体类型
如果可以让CSS
资源只在特定条件下使用,这样这些资源就可以在首次加载时先不进行构建CSSOM
树,只有在符合特定条件时,才会让浏览器进行阻塞渲染然后构建CSSOM
树。
CSS
的媒体查询正是用来实现这个功能的,它由媒体类型以及零个或多个检查特定媒体特征状况的表达式组成。
1 | <!-- 没有使用媒体查询,这个css资源会阻塞渲染 --> |
使用媒体查询可以让CSS资源不在首次加载中阻塞渲染,但不管是哪种CSS资源它们的下载请求都不会被忽略,浏览器仍然会先下载CSS文件。
把Javascript脚本在底部,删除阻止渲染的JavaScript
浏览器必须通过在呈现页面之前解析HTML来构建DOM树。如果您的浏览器在此过程中遇到脚本,则必须先停止并执行它,然后才能继续。
具体做法:
将脚本定义或引用放置到<body>
底部。<script defer="defer">
defer 属性规定是否对脚本执行进行延迟, 脚本将在页面完成解析时执行。
蓝色线代表网络读取,红色线代表执行时间,这俩都是针对脚本的;绿色线代表 HTML 解析。
此图告诉我们以下几个要点:
defer
和async
在网络读取(下载)这块儿是一样的,都是异步的(相较于 HTML 解析)- 它俩的差别在于脚本下载完之后何时执行,显然
defer
*是最接近我们对于应用脚本加载和执行的要求的 - 关于
defer
,此图未尽之处在于它是按照加载顺序执行脚本的,这一点要善加利用 async
则是一个乱序执行的主,反正对它来说脚本的加载和执行是紧紧挨着的,所以不管你声明的顺序如何,只要它加载完了就会立刻执行- 仔细想想,
async
对于应用脚本的用处不大,因为它完全不考虑依赖(哪怕是最低级的顺序执行),不过它对于那些可以不依赖任何脚本或不被任何脚本依赖的脚本来说却是非常合适的,最典型的例子:Google Analytics
减少DNS查找
用户访问网站的过程如下:
在地址栏输入网站地址,如www.example.com;
本地DNS得到这个请求,查询本地DNS缓存,如果有这条记录,则直接返回对应的IP;否则,请求网络上的DNS服务器,得到相应的IP,返回给客户机,并缓存这条记录;
浏览器向得到的IP发起建立连接请求,得到响应后建立连接,请求数据;
Server端计算所需数据,并返回给client端;
client端,即浏览器,解析数据并显示在浏览器窗口中,至此,请求完成。
在 一次请求中,DNS解析可以占到请求时间的三分之一左右(这点有待验证),所以如果可以缩短DNS解析时间,就可以加快页面的打开速度。
缩短DNS解析的 方法可以通过延长DNS缓存的时间,选用更快的DNS Server,减少域名总数(例如原来有5个img server,分别为img1.xxx.com至img5.xxx.com,则现在可以减少到3个)等等,但是减少域名个数又会降低资源并行下载的数量, 因为同一域名最多可以并行下载两个资源,所以这里需要一个折衷方案,作者的建议就是将资源分布在大于等于2但小于等于4个域名上(这个也有待验证,例如针 对多大的系统选用多少个域名是最合理的等)。
使用DNS预解析
这里会有一些兼容性问题,可以参见:http://caniuse.com/#feat=link-rel-dns-prefetch
在网页体验中我们常会遇到这种情况,即在调用百度联盟、谷歌联盟以及当前网页所在域名外的域名文件时会遇到请求延时非常严重的情况。那么有没有方法去解决这种请求严重延时的现象呢?
一般来说这种延时的原因不会是对方网站带宽或者负载的原因,那么到底是什么导致了这种情况呢。湛蓝试着进行推测,假设是DNS的问题,因为DNS解析速度很可能是造成资源延时的最大原因。在页面header中添加了以下代码(用以DNS预解析):
1 | <meta http-equiv="x-dns-prefetch-control" content="on" /> |
dns-prefetch需慎用,多页面重复DNS预解析会增加重复DNS查询次数。
使用场景:
- 新用户访问,后端可以通过 Cookie 判断是否为首次进入站点,对于这类用户,DNS Prefetch 可以比较明显地提升访问速度
- 登录页,提前在页面上进行下一跳页用到资源的 DNS Prefetch
- 页面中的静态资源在不同的domain下,如CSS、JS、图片等文件
- 电商网站的商品页大量载入不同domain下的商品图,如淘宝
- 手机网页
- 大型网站
- js或服务端重定向
Chrome中的一些指令:
chrome://histograms/DNS.PrefetchQueue
:查看队列状态chrome://histograms/DNS
:查看从浏览器启动到上一页的DNS记录chrome://dns
:查看个域名DNS统计chrome://net-internals/#dns
:清除host缓存
压缩资源
压缩js,css,image
通过对外部资源进行压缩可以大幅度地减少浏览器需要下载的资源量,它会减少关键路径长度与关键字节,使页面的加载速度变得更快。
对数据进行压缩其实就是使用更少的位数来对数据进行重编码。如今有非常多的压缩算法,且每一个的作用领域也各不相同,它们的复杂度也不相同,不过在这里我不会讲压缩算法的细节,感兴趣的朋友可以自己Google。
在对
HTML
、CSS
和JavaScript
这些文件进行压缩之前,还需要先进行一次冗余压缩。所谓冗余压缩,就是去除多余的字符,例如注释、空格符和换行符。这些字符对于程序员是有用的,毕竟没有格式化的代码可读性是非常恐怖的,但它们对于浏览器是没有任何意义的,去除这些冗余可以减少文件的数据量。小图片采用base64的格式,直接嵌入代码中,可以帮我们减少http请求,但是同样,这个会造成我们代码的提及变大。请求的速度会减慢,这个需要平衡。
常用工具:webpack,gulp
浏览器接收到服务器返回的HTML、CSS和JavaScript字节数据并对其进行解析和转变成像素的渲染过程被称为
关键渲染路径
。通过优化关键渲染路径即可以缩短浏览器渲染页面的时间。删除重复的脚本,类似
tree-shaking
在一个页面中重复引用一个脚本可能存在的问题:浏览器会重复下载并执行脚本文件。
使用合适大小的图片
如果你只需要一个小图,就不要传一个大图。例如你实际需要显示的是一个60x60的头像,就不要传一个100x100的然后再通过设置宽高将它缩小为60x60的。原因很简单,这样会消耗不必要的带宽和系统资源。
减少DOM元素的数量
复杂页面意味着要下载更多字节,这也意味着JavaScript中的DOM访问速度更慢。如果您想要添加事件处理程序,例如,在页面上循环500或5000个DOM元素,则会有所不同。
使用异步加载,async、defer
服务端渲染也是一种减少浏览器资源消耗,减少页面重排重绘,也是一种现行MVVM框架单页应用最主要的SEO优化手段。
避免3xx/4xx
避免重定向
3xx是重定向相关的HTTP响应代码
重定向的意思是,用户的原始请求(例如请求A)被重定向到其他的请求(例如请求B)。
每次页面重定向到另一个页面时,您的访问者都会面临等待HTTP请求 - 响应周期完成的额外时间。例如,如果移动重定向模式如下所示:
example.com
- > www.example.com
- > m.example.com
- > m.example.com/home
,这两个额外重定向中的每一个都会使您的页面成为可能加载速度慢。
HTTP 重定向通过 301
/302
状态码实现。
1 | HTTP/1.1 301 Moved Permanently |
301 Moved Permanently
,这个状态码标识用户所请求的资源被移动到了另外的位置,客户端接收到此响应后,需要发起另外一个请求去下载所需的资源。
302 Found
,这个状态码标识用户所请求的资源被找到了,但不在原始位置,服务器会回复其他的一个位置,客户端收到此响应后,也需要发起另外一个请求去下载所需的资源。
客户端收到服务器的重定向响应后,会根据响应头中 Location
的地址再次发送请求。重定向会影响用户体验,尤其是多次重定向时,用户在一段时间内看不到任何内容,只看到浏览器进度条一直在刷新。
有时重定向无法避免,在糟糕也比抛出 404
好。虽然通过 HTML meta refresh 和 JavaScript 也能实现,但首选 HTTP 3xx
跳转,以保证浏览器「后退」功能正常工作(也利于 SEO)。
常见的优化办法:
最浪费的重定向经常发生、而且很容易被忽略:URL 末尾应该添加
/
但未添加。比如,访问http://astrology.yahoo.com/astrology
将被 301 重定向到http://astrology.yahoo.com/astrology/
(注意末尾的/
)。如果使用 Apache,可以通过Alias
或mod_rewrite
或DirectorySlash
解决这个问题。网站域名变更:CNAME 结合
Alias
或mod_rewrite
或者其他服务器类似功能实现跳转。在定义链接地址的href属性的时候,尽量使用最完整的、直接的地址。例如:
使用www.cnblogs.com
而不是cnblogs.com
使用cn.bing.com
而不是bing.com
使用www.google.com.hk
而不是google.com
使用www.mysite.com/products/
而不是www.mysite.com/products
避免404浏览器找不到资源的情况发生
发出HTTP请求并获得无用的响应(即404 Not Found)是完全没必要的。特别糟糕的是当外部JavaScript的链接错误并且结果是404时。首先,此下载将阻止并行下载。接下来,浏览器可能会尝试解析404响应主体,就像它是JavaScript代码一样,这样就带来的性能的浪费。
404的影响:
有时候,404错误发生了,用户可能根本没有感觉到。例如
- 例如请求favicon.ico文件,或者请求了某个不存在的脚本文件、样式表、图片文件,页面还是会按照正常的方式进行呈现。
- 丢失的脚本文件、样式表、图片文件,会导致页面的某些行为、界面效果出现异常(也可能不是很明显)
- 最大的问题可能是性能方面的影响。尤其是如果请求一个不存在的脚本文件,因为浏览器在请求脚本文件的时候,即便是返回404,它也会尝试去按照Javascript的方式解析响应中的内容。这无疑会增加很多处理的时间,而因为该文件不存在,所以这些都是无用功。
看得到的影响:
- 如果用户请求的某个页面不存在,那么他将收到明确的回应
- 默认情况下,他将收到一个标准的错误页面(请注意:不少用户会被这个页面吓到)
常见的优化办法:
404 意味着Not Found,意思是说未找到资源。既然如此,那么至少会有两种原因导致404错误:
- 该资源按理说是要有,但我们没有提供。用户按照正常的方式来请求,所以资源找不到。
- 为网站提供favicon.ico这种经常可能会被忽略的资源
- 使用一些检查工具:比如Link checker
- 该资源本来就不存在,用户按照不正常的方式来请求,当然还是找不到。
- 避免用户收藏绝对地址,给后期更新带来隐患。可以使用地址Rewrite来重写,或者在设计阶段定义一些灵活友好的地址
- 使用Routing技术,配置路由规则。
AJAX优化
使Ajax可缓存
AJAX=Asynchronous JavaScript And XML,AJAX不是新的编程语言,而是一种使用现有标准的新方法。
AJAX是与服务器交换数据并更新部分网页的艺术,在不重新加载整个页面的情况下。
由于AJAX其实也是需要发起请求,然后服务器执行,并将结果(通常是JSON格式的)发送给浏览器进行最后的呈现或者处理,所以对于网站设计优化的角度而言,我们同样需要考虑对这些请求,是否可以尽可能的利用到缓存的功能来提高性能。
对于AJAX而言,有一些特殊性,并不是所有的AJAX请求都是可以缓存的。
POST
的请求,是不可以在客户端缓存的,每次请求都需要发送给服务器进行处理,每次都会返回状态码200。(这里可以优化的是,服务器端对数据进行缓存,以便提高处理速度)GET
的请求,是可以(并且默认)在客户端进行缓存的,除非指定了不同的地址,否则同一地址的AJAX请求,不会重复再服务器执行,而是返回304。
有的时候,我们可能希望GET
请求不被缓存,有几种做法来达到这样的目的。
- 每次调用的时候,请求不同的地址(可以在原始地址后面添加一个随机的号码)。
- 如果你所使用的是jquery的话,则可以考虑禁用AJAX的缓存。
1 | $.ajaxSetup({ cache: false }); |
axios中
1 | var config = { headers: {'Content-Type': 'application/json','Cache-Control' : 'no-cache'}}; |
使用GET的Ajax请求
在使用XMLHttpRequest(目前的AJAX都是基于它实现的)的时候,浏览器中的POST实现为两步走的过程,首先发送头部信息,然后再发送数据。但如果是使用GET的话,就只有一个TCP的包发送出去(除非有大量的Cookie),这样无疑可以提高性能。
但是get有容量限制,大于2K(对get的限制IE是2K,firefox、chrome是4K)的内容只能用post。
Cookie优化
减小cookie大小
减小cookie的大小,因为在发请求时浏览器会将cookie信息发送到server端,所以应该只在cookie中存必要的信息且越长度越小越好。在 写cookie的时候要记得给cookie设置一个合理的过期时间及域
对一些静态资源不需要使用cookie的单独设置域
当浏览器发出静态图像请求并将cookie与请求一起发送时,服务器对这些cookie没有任何用处。因此,他们只会毫无理由地创建网络流量。您应该确保使用无cookie请求请求静态组件。创建一个子域并在那里托管所有静态组件。
如果您的域名是
www.example.org
,您可以托管您的静态组件static.example.org
。但是,如果您已经在顶级域上设置了cookieexample.org
而不是www.example.org
,则所有请求都static.example.org
将包含这些cookie。在这种情况下,您可以购买一个全新的域,在那里托管您的静态组件,并保持此域无cookie。雅虎 用途yimg.com
,YouTube使用ytimg.com
,亚马逊使用images-amazon.com
等。在无cookie域上托管静态组件的另一个好处是,某些代理可能拒绝缓存使用cookie请求的组件。在相关说明中,如果您想知道是否应该使用
example.org
或www.example.org
作为主页,请考虑cookie的影响。省略www会让您别无选择,只能写入cookie
*.example.org
,因此出于性能原因,最好使用www子域并将cookie写入该子域。
归类一下:
- 去除不必要的 Cookie;
- 尽量压缩 Cookie 大小;
- 注意设置 Cookie 的 domain 级别,如无必要,不要影响到 sub-domain;
- 设置合适的过期时间。
利用缓存
浏览器会缓存大量信息(样式表,图像,JavaScript文件等),以便当访问者返回您的站点时,浏览器不必重新加载整个页面。然后设置“expires”标题,以表示希望缓存该信息的时间。在许多情况下,除非您的网站设计经常更改,否则一年是合理的时间段。
利用浏览器缓存 ,为链接或者资源,添加Expires或Cache-Control头
- 对于静态组件:通过设置远期未来
Expires
标头实现“永不过期”策略 - 对于动态组件:使用适当的
Cache-Control
标头来帮助浏览器处理条件请求
格式:
1 | Expires = "Expires" ":" HTTP-date |
通过HTTP的META设置expires和cache-control
1 | <meta http-equiv="Cache-Control" content="max-age=7200" /> |
上述设置仅为举例,实际使用其一即可。这样写的话仅对该网页有效,对网页中的图片或其他请求无效,并不会做任何cache
。
这样客户端的请求就多了,尽管只是检查Last-modified
状态的东西,但是请求一多对浏览速度必定有影响。
Cache-Control
的参数包括:
- max-age=[单位:秒 seconds] — 设置缓存最大的有效时间. 类似于
Expires
, 但是这个参数定义的是时间大小(比如:60)而不是确定的时间点.单位是[秒 seconds]. - s-maxage=[单位:秒 seconds] — 类似于
max-age
, 但是它只用于公享缓存 (e.g., proxy) . - public — 响应会被缓存,并且在多用户间共享。正常情况, 如果要求 HTTP 认证,响应会自动设置为 private.
- private — 响应只能够作为私有的缓存(e.g., 在一个浏览器中),不能再用户间共享。
- no-cache — 响应不会被缓存,而是实时向服务器端请求资源。这一点很有用,这对保证HTTP 认证能够严格地禁止缓存以保证安全性很有用(这是指页面与public结合使用的情况下).既没有牺牲缓存的效率,又能保证安全。
- no-store — 在任何条件下,响应都不会被缓存,并且不会被写入到客户端的磁盘里,这也是基于安全考虑的某些敏感的响应才会使用这个。
- must-revalidate — 响应在特定条件下会被重用,以满足接下来的请求,但是它必须到服务器端去验证它是不是仍然是最新的。
- proxy-revalidate — 类似于
must-revalidate
,但不适用于代理缓存.
把css与js使用外联的方式进行使用
建议将css和js以外联方式引用以充分利用cache
,只有一个例外就是针对首页,首页可以采用内联来减少http请求数,加快页面显示速度,文中说首 页内联的原因是首页被人们访问的次数不会太多,而且样式一般比较特殊,不像其它页面一样有相同的页面模板(因为就有相同的样式部分),所以首页的样式可以 内联。并且应该在首页加载完成之后,再在后台动态加载后续页面的css和js,以提高后续页面的访问速度。
如果站点上的用户每个会话有多个页面查看,并且您的许多页面重复使用相同的脚本和样式表,则缓存的外部文件可能会带来更大的潜在好处。
对于现在的单页面的应用,更适合于动态加载的方案
缓存favicon.ico,并设置最好小于1k
favicon.ico是一个保留在服务器根目录中的图片,为了减轻拥有favicon.ico的带来的性能问题,请确保:
- 优化它的大小,最好不到1K。
- 设置Expires标头,使其缓存。
配置的ETag
ETag,全程为:Entity Tag
,意思是实体标签,它属于HTTP协议的一部分,也就是所有的Web服务器都应该支持这个特性。它的作用是用一个特殊的字符串来标识某个资源的“版本”,客户端(浏览器)请求的时候,比较ETag如果一致,则表示该资源并没有被修改过,客户端(浏览器)可以使用自己缓存的版本,避免重复下载。
它比last-modified date更具有弹性,例如某个文件在1秒内修改了10次,Etag可以综合Inode(文件的索引节点(inode)数),MTime(修改时间)和Size来精准的进行判断,避开UNIX记录MTime只能精确到秒的问题。 服务器集群使用,可取后两个参数。使用ETags减少Web应用带宽和负载。
响应标 | 优势 和特点 | 劣势 和可能的问题 |
---|---|---|
Expires | - HTTP 1.0就有,简单易用。 - 服务器通过这个Header告诉浏览器,某资源直到某个时间才会过期,所以在没有过期之前,浏览器就直接使用本地的缓存了。 | - 因为这是时间是由服务器发送的(UTC),但如果服务器时间和客户端事件存在不一致,可能会有些问题。 - 可能存在版本的问题,因为如果在到期之前修改过了,客户端是不会知道的。 - Cache-Control中的max-age可以实现类似的效果,但更加好,因为max-age是一个以秒为单位的时间数,而不是具体的时间,所以不存在上面提到的第一个问题。 |
Cache-Contro | - 服务器通过一个Header(Last-Modified)告诉浏览器,某资源最后修改的时间。 - 浏览器在请求的时候,包含一个Header(If-Modified-Since),然后服务器可以进行比较,如果在该时间后没有修改过,则返回304。 - 它比Expires多很多选项设置 | - Last-Modified 也是一个时间,但该时间只能精确到秒,如果在同一个秒中有多次修改(这个在现在的环境下应该确实是可能的),则可能会发生问题。 |
ETag | - 可以更加精确地判断资源是否被修改,因为它不是一个时间值,而是对时间经过处理的一个长整型数值(当然具体算法我们目前还不得而知)。 - 浏览器发起新请求时需要包含 If-None-Match。 | - 如果部署在服务器场环境中,配置不当的话,可能每个服务器会对相同的资源生成不一样的ETag,这样就增加了重复下载的可能性。 |
看一个真实的例子:
其他的一些缓存使用:
- 使用本地缓存,缓存部分常用用户数据、公开数据
- 缓存机制设计:缓存+过期时间
总结一下:
- 添加Expires或Cache-Control
- Etag
- 缓存favicon.ico
- 外联js/css
缩短服务器响应时间
服务器响应时间受到访问流量,每个页面使用的资源,服务器使用的软件以及硬件本身的影响。要改善服务器响应时间,请查找性能瓶颈,如慢速数据库查询,慢速路由或缺少足够的内存并修复它们。最佳服务器响应时间低于200毫秒。
很多潜在因素都可能会延缓服务器响应,例如缓慢的应用逻辑、缓慢的数据库查询、缓慢的路由、框架、库、资源 CPU 不足或内存不足。您需要充分考虑所有这些因素,才能改善服务器的响应用时。 若想找出服务器响应用时过长的原因,首先要进行衡量。然后,准备好相关数据,并参阅有关如何解决该问题的相应指导。当解决问题后,您必须继续衡量服务器响应用时,并设法应对任何会在将来出现的性能瓶颈问题。
- 收集并检查现有性能和数据。若无可用内容,请使用自动化的网络应用监测解决方案(市面上有托管的开源版本,适用于大多数平台)进行评估,或添加自定义的方法。
- 找出并修复首要的性能瓶颈问题。如果z您使用的是热门网页框架或内容管理平台,请参阅与性能优化最佳做法相关的文档。
- 监测并提醒任何会在将来出现的性能衰退问题!
通常来说,服务器的响应时间由数据库的问题居多,还有错误的程序设计(比如:烂用for循环去查数据库)。
优化工具
Google Page Speed
Google Page Speed以帮助开发人员和网站所有者确保他们的网页尽可能顺畅,快速地运行。
Google Page Speed特点:
- 在CSS方面更加注重细节,对于CSS选择器,Google Page Speed提供了大量有用的建议
- 页面速度活动功能类似于加载计时器评估,但它实时提供图表,因此可以在任何给定时间准确查看网站上发生的情况。
- 自动优化:使用PageSpeed模块,可以将Google与您的Nginx或Apache网站服务器集成,以自动优化您的网站。
- 优化库集成:可以找到PageSpeed模块背后优化建议,允许设计和构建自己的工具。
对于某些人来说,Google Page Speed将是显而易见的选择,因为它可以与其他对维护网站性能至关重要的Google工具一起使用,例如Google Analytics。
JsPerf & Benchmark.js
经常看到项目中有一个benchmark的文件夹,那么这个benchmark是干嘛用的?
JsPerf在线:https://jsperf.com/
JsPerf Github地址:https://github.com/jsperf/jsperf.com
Benchmark.js网址:https://github.com/bestiejs/benchmark.js
BenchMark.js可以本地安装,而JsPerf.js是线上使用的。
HTML中引入:
1 | <script src="lodash.js"></script> |
或者使用npm
:
1 | $ {sudo -H} npm i -g npm |
下面是一个具体的用例:
Reg vs IndexOf
1 | var suite = new Benchmark.Suite; |
再来看一个 call与apply的对比:
1 | var Benchmark = require('benchmark'); |
benckmark是对js运行能效的一个对比测试,让你能够知道自己的JS代码中与其他方案对比的时候,是否有优化的空间。当然,这些新的方案,需要自己去编写去测试。同样,也可以在JsPerf的官网上去看其他的测试结果。
执行办法 :
1 | npm init -y |
代码优化——写出优质的代码
命题很大,但是我们要简化来谈一下。
代码优化,先要写出优质的代码,有几点原则:
- 使用辅助应用对代码进行检查,Eslint等
- 使用预编译工具,如less,sass,stylus。
- 使用官方的开发规范:命名规范、注释、使用规范、文档规范
- 写出逻辑上易于阅读的代码:设计模式、代码结构、文档编排(目录结构)
- 代码审查
- 单元测试
- 异常与错误机制
之后就是练习与阅读,阅读别人的代码,学习别人的精华,了解别人代码中的缺点。使用JsPerf或者benchemark去对比优化性能。
前端代码规范:Airbnb,github,Google,腾讯,阿里等。
JsPerf
JsPerf使用简介
线上使用方案
需要使用Github进行登录:
点击Login with Github to Create Test Cases
:
登录之后,进入授权页面:
登录过后,就可以创建自己的测试用例啦:
线下使用方案:
环境准备:
- Mysql
- Nodejs
创建过程:
安装Mysql
1
mysql -uroot -e "CREATE DATABASE jsperf; GRANT ALL ON jsperf.* TO 'jsuser'@'localhost' IDENTIFIED BY 'jspass'; FLUSH PRIVILEGES;"
在 Browserscope.org 注册一个API key ,在 the settings page页面中.
注册一个 new OAuth GitHub application. 使用callback URL 留空. 复制 “Client ID” 和 “Client Secret”到github的页面上。
使用
npm install
安装配置
.env
的文件
1 | NODE_ENV=development |
- 运行
npm start
代码示例for vs foreach
我们对比一下for 与 foreach
测试过程:
测试结果:
这里有一个更全面的对比结果:
https://jsperf.com/for-vs-foreach/75
还有一些比较有意思的测试:
可以通过浏览:https://jsperf.com/popular进行查看
前端项目优化实践
我们来对比下Date()与Moment()中的format
1 | const Benchmark = require('benchmark'); |
输出结果 :
1 | Moment format x 73,570 ops/sec ±4.93% (82 runs sampled) |
PageSpeed
PageSpeed简介
PageSpeed Insights 的Chrome扩展是由谷歌官方开发的一款可以分析页面载入的各个方面,包括资源、网络、DOM以及时间线等等信息的插件,也提供在线访问方式。
使用Google PageSpeed Insights
打开https://developers.google.com/speed/pagespeed/insights/
输入需要分析的网址即可,这里面需要注意必须在公网可以访问到网址。
使用Chrome插件/Mozila插件
下载安装办法:
使用插件ID:
djfpadpbeemogokhllpiakdeadpoclan
到https://chrome-extension-downloader.com/来下载把
ctx
文件拖进去不过我有梯子哈哈哈哈
插件使用:
前端项目优化实践
补充知识
编码、解码形成DOM树的过程
浏览器从网络或硬盘中获得HTML
字节数据后会经过一个流程将字节解析为DOM
树:
- 编码: 先将HTML的原始字节数据转换为文件指定编码的字符。
- 令牌化: 然后浏览器会根据HTML规范来将字符串转换成各种令牌(如
<html>
、<body>
这样的标签以及标签中的字符串和属性等都会被转化为令牌,每个令牌具有特殊含义和一组规则)。令牌记录了标签的开始与结束,通过这个特性可以轻松判断一个标签是否为子标签(假设有<html>
与<body>
两个标签,当<html>
标签的令牌还未遇到它的结束令牌</html>
就遇见了<body>
标签令牌,那么<body>
就是<html>
的子标签)。 - 生成对象: 接下来每个令牌都会被转换成定义其属性和规则的对象(这个对象就是节点对象)。
- 构建完毕: DOM树构建完成,整个对象集合就像是一棵树形结构。可能有人会疑惑为什么
DOM
是一个树形结构,这是因为标签之间含有复杂的父子关系,树形结构正好可以诠释这个关系(CSSOS
同理,层叠样式也含有父子关系。例如:div p {font-size: 18px}
,会先寻找所有p
标签并判断它的父标签是否为div
之后才会决定要不要采用这个样式进行渲染)。
整个DOM
树的构建过程其实就是: 字节 -> 字符 -> 令牌 -> 节点对象 -> 对象模型,下面将通过一个示例HTML
代码与配图更形象地解释这个过程。
如下面的这段HTML
1 | <html> |
优化工作清单
当我们们出现了页面性能问题时,或者在设计我们的应用之前,就可以参考如下的以下进行快速检查。
- 页面内容
- 减少 HTTP 请求数
- 减少 DNS 查询
- 避免重定向
- 缓存 Ajax 请求
- 延迟加载
- 预先加载
- 减少 DOM 元素数量
- 划分内容到不同域名
- 尽量减少 iframe 使用
- 避免 404 错误
- 服务器
- 使用 CDN
- 添加 Expires 或 Cache-Control 响应头
- 启用 Gzip
- 配置 Etag
- 尽早输出缓冲
- Ajax 请求使用 GET 方法
- 避免图片 src 为空
- Cookie
- 减少 Cookie 大小
- 静态资源使用无 Cookie 域名
- CSS
- 把样式表放在
<head>
中 - 不要使用 CSS 表达式
- 使用
link
替代@import
- 不要使用 filter
- 把样式表放在
- JavaScript
- 把脚本放在页面底部
- 使用外部 JavaScript 和 CSS
- 压缩 JavaScript 和 CSS
- 移除重复脚本
- 减少 DOM 操作
- 使用高效的事件处理
- 图片
- 优化图片
- 优化 CSS Sprite
- 不要在 HTML 中缩放图片
- 使用体积小、可缓存的 favicon.ico
- 移动端
- 保持单个文件小于 25 KB
- 打包内容为分段(multipart)文档
优化关键渲染路径
假设有一个HTML
页面,它只引入了一个CSS
外部文件:
1 | <html> |
它的关键渲染路径如下:
首先浏览器要先对服务器发送请求获得HTML
文件,得到HTML
文件后开始构建DOM
树,在遇见<link>
标签时浏览器需要向服务器再次发出请求来获得CSS
文件,然后则是继续构建DOM
树和CSSOM
树,浏览器合并出渲染树,根据渲染树进行布局计算,执行绘制操作,页面渲染完成。
有以下几个用于描述关键渲染路径性能的词汇:
- 关键资源:可能阻塞网页首次渲染的资源(上图中为2个,
HTML
文件与外部CSS
文件style.css
)。 - 关键路径长度: 获取关键资源所需的往返次数或总时间(上图为2次或以上,一次获取
HTML
文件,一次获取CSS
文件,这个次数基于TCP
协议的最大拥塞窗口,一个文件不一定能在一次连接内传输完毕)。 - 关键字节:所有关键资源文件大小的总和(上图为
9KB
)。
接下来,案例代码的需求发生了变化,它新增了一个JavaScript
文件。
1 | <html> |
JavaScript
文件阻塞了DOM
树的构建,并且在执行JavaScript
脚本时还需要先等待构建CSSOM
树,上图的关键渲染路径特性如下:
- 关键资源: 3(
HTML
、style.css
、app.js
) - 关键路径长度: 2或以上(浏览器会在一次连接中一起下载
style.css
和app.js
) - 关键字节:11KB
现在,我们要优化关键渲染路径,首先将<script>
标签添加异步属性async
,这样浏览器的HTML
解析器就不会阻塞这个JavaScript
文件了。
1 | <html> |
- 关键资源:2(
app.js
为异步加载,不会成为阻塞渲染的资源) - 关键路径长度: 2或以上
- 关键字节: 9KB(
app.js
不再是关键资源,所以没有算上它的大小)
接下来对CSS
进行优化,比如添加上媒体查询。
1 | <html> |
- 关键资源:1(
app.js
为异步加载,style.css
只有在打印时才会使用,所以只剩下HTML
一个关键资源,也就是说当DOM
树构建完毕,浏览器就会开始进行渲染) - 关键路径长度:1或以上
- 关键字节:5KB
优化关键渲染路径就是在对关键资源、关键路径长度和关键字节进行优化。关键资源越少,浏览器在渲染前的准备工作就越少;同样,关键路径长度和关键字节关系到浏览器下载资源的效率,它们越少,浏览器下载资源的速度就越快。
我的参考资料来源
- 浏览器的工作原理:新式网络浏览器幕后揭秘 强烈推荐
- 渲染树构建、布局及绘制
- 优化第一个字节的时间
- TCP的三次握手与四次挥手(详解+动图)推荐
- 常见性能优化策略的总结
- Page Speed
- web性能优化篇
- 2018 前端性能优化清单
- (译)2019年前端性能优化清单 — 上篇
- (译)2019年前端性能优化清单 — 中篇
- (译)2019年前端性能优化清单 — 下篇
- PageSpeed Insights 规则
- 浏览器渲染过程与性能优化
- 如何提升 CSS 选择器性能
- 前端性能优化:2018年JavaScript开销及优化工具和方法
- 从浏览器多进程到JS单线程,JS运行机制最全面的一次梳理推荐
- 彻底理解浏览器的缓存机制
- 特别谢鸣博学谷、codewhy、b站!!!!我会努力的!!!