package mainimport ("fmt""net/http")func main() { mux := http.NewServeMux() mux.HandleFunc("/", func(w http.ResponseWriter, req *http.Request) { // The "/" pattern matches everything, so we need to check // that we're at the root here. if req.URL.Path != "/" { http.NotFound(w, req) return } fmt.Fprintf(w, "Welcome to the home page!") }) http.ListenAndServe("localhost:1234", mux) /* 访问方式 http://localhost:1234/ Welcome to the home page! */}
package mainimport ("fmt""net/http")// 设置多个处理器函数func handler1(w http.ResponseWriter, r *http.Request) { fmt.Fprintf(w, "1 欢迎访问 www.ydook.com !")}func handler2(w http.ResponseWriter, r *http.Request) { fmt.Fprintf(w, "2 欢迎访问 www.ydook.com !")}func handler3(w http.ResponseWriter, r *http.Request) { fmt.Fprintf(w, "3 欢迎访问 www.ydook.com !")}func main() { // 设置多路复用处理函数 mux := http.NewServeMux() mux.HandleFunc("/h1", handler1) mux.HandleFunc("/h2", handler2) mux.HandleFunc("/h3", handler3) // 设置服务器 server := &http.Server{ Addr: "127.0.0.1:8000", Handler: mux, } // 设置服务器监听请求端口 server.ListenAndServe()}
HTTP/2有三大特性:头部压缩、Server Push、多路复用。前两个特性意思比较明确, 也好理解, 唯有多路复用不太好理解, 尤其是和HTTP1.1进行对比的时候, 这个问题我想了很长时间,
也对比了很长时间, 现在把思考的结果分享出来, 希望对大家有帮忙。
1 先来说说Keep-Alive
在没有Keep-Alive前,我们与服务器请求数据的流程是这样:
浏览器请求//static.mtime.cn/a.js-->解析域名-->HTTP连接-->服务器处理文件-->返回数据-->浏览器解析、渲染文件
浏览器请求//static.mtime.cn/b.js-->解析域名-->HTTP连接-->服务器处理文件-->返回数据-->浏览器解析、渲染文件
...
...
...
这样循环下去,直至全部文件下载完成。
每次请求都会建立一次HTTP连接, 也就是我们常说的3次握手4次挥手, 这个过程在一次请求过程中占用了相当长的时间, 而且逻辑上是非必需的, 因为不间断的请求数据, 第一次建立连接是正常的, 以后就占用这个通道, 下载其他文件, 这样效率多高啊!
你猜对了, 这就是Keep-Alive。
Keep-Alive解决的问题
Keep-Alive解决的核心问题:一定时间内, 同一域名多次请求数据, 只建立一次HTTP请求, 其他请求可复用每一次建立的连接通道, 以达到提高请求效率的问题。这里面所说的一定时间是可以配置的, 不管你用的是Apache还是nginx。
2 HTTP1.1还是存在效率问题
如上面所说, 在HTTP1.1中是默认开启了Keep-Alive, 他解决了多次连接的问题, 但是依然有两个效率上的问题:
第一个:串行的文件传输。当请求a文件时, b文件只能等待, 等待a连接到服务器、服务器处理文件、服务器返回文件, 这三个步骤。我们假设这三步用时都是1秒, 那么a文件用时为3秒, b文件传输完成用时为6秒, 依此类推。
(注:此项计算有一个前提条件, 就是浏览器和服务器是单通道传输)
第二个:连接数过多。我们假设Apache设置了最大并发数为300, 因为浏览器限制, 浏览器发起的最大请求数为6, 也就是服务器能承载的最高并发为50, 当第51个人访问时, 就需要等待前面某个请求处理完成。
3 HTTP/2的多路复用
HTTP/2的多路复用就是为了解决上述的两个性能问题, 我们来看一下, 他是如何解决的。
解决第一个:在HTTP1.1的协议中, 我们传输的request和response都是基本于文本的, 这样就会引发一个问题:所有的数据必须按顺序传输, 比如需要传输:hello world, 只能从h到d一个一个的传输, 不能并行传输,
因为接收端并不知道这些字符的顺序, 所以并行传输在HTTP1.1是不能实现的。
HTTP/2引入二进制数据帧和流的概念, 其中帧对数据进行顺序标识, 这样浏览器收到数据之后, 就可以按照序列对数据进行合并, 而不会出现合并后数据错乱的情况。
同样是因为有了序列, 服务器就可以并行的传输数据, 这就是流所做的事情。
解决第二个问题:HTTP/2对同一域名下所有请求都是基于流, 也就是说同一域名不管访问多少文件, 也只建立一路连接。同样Apache的最大连接数为300, 因为有了这个新特性, 最大的并发就可以提升到300, 比原来提升了6倍!
JS文件的合并。我们现在优化的一个主要方向就是尽量的减少HTTP的请求数, 对我们工程中的代码, 研发时分模块开发, 上线时我们会把所有的代码进行压缩合并, 合并成一个文件, 这样不管多少模块, 都请求一个文件, 减少了HTTP的请求数。
但是这样做有一个非常严重的问题:文件的缓存。当我们有100个模块时, 有一个模块改了东西, 按照之前的方式, 整个文件浏览器都需要重新下载, 不能被缓存。现在我们有了HTTP/2了, 模块就可以单独的压缩上线, 而不影响其他没有修改的模块。
多域名提高浏览器的下载速度。之前我们有一个优化就是把css文件和js文件放到2个域名下面, 这样浏览器就可以对这两个类型的文件进行同时下载, 避免了浏览器6个通道的限制, 这样做的缺点也是明显的,
1.DNS的解析时间会变长。
2.增加了服务器的压力。有了HTTP/2之后, 根据上面讲的原理, 我们就不用这么搞了, 成本会更低。