后端压缩/解压缩算法是否对客户端页面加载速度有任何明显的影响


Do backend compression/decompression algorithms have any noticeable impact on perceived client-side page load speeds?

我不确定SO是否是这个问题的正确答案,所以如果这是错误的论坛,请不要太苛刻:)

我们公司正在寻求提高页面加载速度,到目前为止,我们已经做了很多标准的事情(使用缓存、CDN、删除任何不必要的代码/CSS、使用原始JS而不是jQuery等)。

我在这里读过gz压缩算法。其中一位贡献者(robin)指出,gzdeflate()gzcompress()的速度相同,但gzinflate()的速度始终是gzuncompress()的两倍。

如果我们使用其中一个Zlib函数压缩/解压缩静态HTML,我怀疑后端执行组件(整个页面加载过程)甚至不会被用户注意到。但是1MB的HTML作为800kB的HTML可能会被注意到。

我的问题是:使用自定义压缩/解压缩算法的后端脚本执行是否会对最终用户的页面加载速度产生任何影响,即使压缩/解压算法非常复杂?(许多函数调用,后端脚本本身相当大,大量使用不便宜的函数,如substr_count()等)

假设您已经在使用压缩/解压缩方法,我会说:不。压缩率相似,您可以根据CPU使用情况选择算法,但在回答问题时,最终用户不会注意到几个额外的比特。最昂贵的操作是"第一个字节的时间"(TTFB)。

你可以在chrome dev工具中做自己的基准测试,这里有一个链接

通过查看使用谷歌、脸书、推特等大型网站的压缩类型来获取参考。