概念

吞吐率(Requests per second)
概念:服务器并发处理能力的量化描述,单位是reqs/s,指的是某个并发用户数下单位时间内处理的请求数。某个并发用户数下单位时间内能处理的最大请求数,称之为最大吞吐率。
计算公式:总请求数 / 处理完成这些请求数所花费的时间,即
Request per second = Complete requests / Time taken for tests

并发连接数(The number of concurrent connections)
概念:某个时刻服务器所接受的请求数目,简单的讲,就是一个会话。

并发用户数(The number of concurrent users,Concurrency Level)
概念:要注意区分这个概念和并发连接数之间的区别,一个用户可能同时会产生多个会话,也即连接数。

用户平均请求等待时间(Time per request)
计算公式:处理完成所有请求数所花费的时间/ (总请求数 / 并发用户数),即
Time per request = Time taken for tests /( Complete requests / Concurrency Level)

服务器平均请求等待时间(Time per request: across all concurrent requests)
计算公式:处理完成所有请求数所花费的时间 / 总请求数,即
Time taken for / testsComplete requests
可以看到,它是吞吐率的倒数。
同时,它也=用户平均请求等待时间/并发用户数,即
Time per request / Concurrency Level

测试报告

命令
压测工具ab
结果
压测工具ab
最上面的是web服务器的信息,本地调试的程序所以没有服务器,域名是localhost,端口是8080

然后是文档所在位置,http响应正文长度

Concurrency Level: 10 并发请求数
Time taken for tests 测试消耗的时间
Complete requests: 1000 完成的请求数
Failed requests: 0 失败的请求数

Total transferred: 整个场景中的网络传输量
HTML transferred: 整个场景中的HTML内容传输量

Requests per second: 995.35 [#/sec] (mean)
吞吐率,相当于 LR 中的每秒事务数,后面括号中的 mean 表示这是一个平均值

Time per request: 10.047 [ms] (mean)
用户平均请求等待时间,相当于 LR 中的平均事务响应时间,后面括号中的 mean 表示这是一个平均值

Time per request: 1.005 [ms] (mean, across all concurrent requests)
服务器平均请求处理时间

Transfer rate: 3642.17 [Kbytes/sec] received
平均每秒网络上的流量,可以帮助排除是否存在网络流量过大导致响应时间延长的问题

Percentage of the requests served within a certain time
网络消耗时间
这段是每个请求处理时间的分布情况,50%的处理时间在xx内,66%的处理时间在xx内…,重要的是看90%的处理时间。

相关文章: