压力测试报告标准版

合集下载
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

压力测试报告标准版
报告目录
1. 引
言 ..................................................................... .. (2)
1.1 编写目
的 ..................................................................... .. (2)
1.2 系统概
述 ..................................................................... .. (2)
1.2.1 项目名
称 ..................................................................... .. (2)
1.2.2 总体目
标 ..................................................................... .. (2)
1.2.3 技术目
标 ..................................................................... ............................................ 2 2. 测试环
境 ..................................................................... (3)
2.1 软硬件环
境 ..................................................................... . (3)
2.1.1网络拓扑结
构 ..................................................................... ..................................... 3 2.4 测试环境约
束 ..................................................................... (4)
3. 测试范围及测试要
求 ..................................................................... .. (4)
3.1测
试 ..................................................................... .. (4)
3.1.1测试内容...................................................................... .. (4)
3.1.2测试通过标
准 ..................................................................... ..................................... 4 4. 测试工
具 ..................................................................... (4)
5. 测试结
果 ..................................................................... (5)
6.1测试时间及人
员 ..................................................................... (5)
6.2测试结果分
析 ..................................................................... . (5)
6. 结
论 ..................................................................... (13)
1. 引言
1.1 编写目的
本文档是对(项目名称)性能测试所做的说明,为充分利用已有的软硬件资源,配合对各
系统应用模块的运行测试方案,查缺补漏完善系统的各项具体功能,保证项目的顺利进行,本
测试报告有助于实现以下目标:
, 明确本次性能测试的测试资源;
, 明确本次性能测试的测试内容;
, 明确本次性能测试的测试方法;
, 明确本次性能测试的系统性能。

1.2 系统概述
1.2.1 项目名称
项目名称:
项目简称:
项目单位:
开发商:
1.2.2 总体目标
中山移动营业厅系统支持200个以上并发客户端的访问 1.2.3 技术目标
1.2.3.1技术目标
使用测试工具实现虚拟用户并发访压力测试,要求系统满足用户并发量在200以上,并能正常
工作。

2. 测试环境
2.1 软硬件环境
硬件环境应用服务器数据库服务器客户端硬件配置 CPU:Intel(R) CPU:Intel(R) CPU:Intel(R)
Pentium(R) D Pentium(R) D Core(TM)
CPU 3.40GHz CPU 3.40GHz CPU 2.20GHz
Memory: 2G Memory: 2G Memory: 2G
HD: 360G HD: 360G HD: 360G
SATA SATA SATA
软件配置 OS:Windows 2003 OS:Windows 2003 Window xp JDK 1.5.0_06 MySQL 5.0.17 Linux Professional ( SP3 ) Tomcat 6
2.1.1网络拓扑结构
2.4 测试环境约束
, 本次测试结果依据目前被测系统的软/硬件环境。

, 本次测试结果依据目前被测系统的程序版本。

, 本次测试结果依据目前被测系统的网络环境。

, 本次测试结果依据目前被测系统的测试数据量。

3. 测试范围及测试要求3.1测试
3.1.1测试内容
根据需求,对登录操作进行并发的压力测试,对主要业务模块中的主要业务进行压力和
负载测试。

3.1.2测试通过标准
系统在并发用户200时,系统表现稳定
4. 测试工具
测试工具:
Loadrunner9.5 (美国Mercury公司)
使用WebService协议。

主要思想是使用虚拟用户(Virtual users)来模拟实际用户对系统施加压力。

模拟图如下:
5. 测试结果
6.1测试时间及人员
时间:2010.6.3
人员:钟
地点:珠海万佳达软件开发有限公司
6.2测试结果分析
LoadRunner进行200用户场景模拟测试结果收集后,显示的该结果的一个摘要信息,如图5- 1所示。

概要中列出了场景执行情况、“Statistics Summary(统计信息摘要)”、“Transaction Summary(事务摘要)”以及“HTTP Responses Summary(HTTP响应摘要)”等。

以简要的信息列出本次测试结果。

图5- 1性能测试结果摘要图
场景执行情况
该部分给出了本次测试场景的名称、结果存放路径及场景的持续时间,如图5- 2所示。

从该图我们知道,本次测试从16:17:08开始,到16:54:38结束,共历时37分30秒。

图5- 2场景执行情况描述图
Statistics Summary(统计信息摘要)
该部分给出了场景执行结束后并发数、总吞吐量、平均每秒吞吐量、总请求数、平均每秒请求数的统计值,如图5- 3所示。

从该图我们得知,本次测试运行的最大并发数为200,总吞吐量为960,974,180字节,平均每秒的吞吐量为426910字节,总的请求数为117,105,平均每秒的请求为52.024。

图5- 3统计信息摘要图
Transaction Summary(事务摘要)
该部分给出了场景执行结束后相关Action的平均响应时间、通过率等情况,如图5- 4所示。

从该图我们得到每个Action的平均响应时间与业务成功率。

图5- 4事务摘要图
HTTP Responses Summary(HTTP响应摘要)
该部分显示在场景执行过程中,每次HTTP请求发出去的状态,是成功还是失败,都在这里体现,如图5- 5所示。

从图中可以看到,在本次测试过程中LoadRunner共模拟发出了117105次请求(与“统计信息摘要”中的“Total Hits”一致),其中“HTTP 200”的是117105次,说明在本次过程中,经过发出的请求全部分都能正确响应了(“HTTP 200”表示请求被正确响应)。

图5- 5 HTTP响应摘要
并发数分析
“Running Vusers(运行的并发数)”显示了在场景执行过程中并发数的执行情况。

它们显示Vuser的状态、完成脚本的Vuser的数量以及集合统计信息,将这些图与事务图结合使用可以确定Vuser的数量对事务响应时间产生的影响。

图5- 6显示了在系统业务性能测试过程中Vusers运行情况,从图中我们可以看到,Vusers的运行趋势与我们场景执行计划中的设置是一样,表明在场景执行过程中,Vusers是按照我们预期的设置运行的,没有Vuser出现运行错误,这样从另一个侧面说明我们的参数化设置是正确的,因为使用唯一数进行参数化设置,如果设置不正确,将会导致Vuser运行错误。

1 Run 0.0 105.1 200 129 78.219
图5- 6运行的并发数图
我们本次测试Running Vusers与集合点是一致,说明整个场景执行过程中,并发数用户的执行正确,系统测试服务器能够应付200个并发用户的业务操作。

响应时间
“Average Transaction Response Time(平均事务响应时间图)”(图5- 7),这张图是平均事务响应时间与结果摘要中的“Transaction Summary”合成的。

1 login_Action_Transaction 0.45
2 47.115 109.38 30.257
1 select_allAction_Transaction 8.719 26.648 144.704 11.231
1 select_oneAction_Transaction 24.484 93.983 329.974 39.933
1 vuser_end_Transaction 0.0 0.011 1.297 0.097
1 vuser_init_Transaction 0.001 0.05 0.418 0.095
图5- 7平均事务响应时间图
从图形下部我们可以看到,登录部分对应的Action是“login_Action”,批量查询对应的Action是“select_allAction”,选择信息查询对应的Action是“select_oneAction”,他们的“Average Time(平均响应时间为)”分别是47.115秒与26.648秒与93.983秒,从这三个数值来看,都过大,不符合要求。

实际事物时间应为
登录:47.115/5 – 5 = 4.423 (减5登录时包含了一个用户信息查询)
批量查询:26.648 /5 = 5.3296
选择信息查询:93.983 /5/7 = 2.685 (除7做了7次点击选择信息)
注:除5 所有的事物都被重复执行5次
看完了“Average Time”,我们再看“90 Percent Time”,表示90%的事务
登录:95.711/5 – 5 = 14.142 (减5登录时包含了一个用户信息查询)
批量查询:39.125/5 = 7.825
选择信息查询:146.797 /5/7 = 4.194 (除7做了7次点击选择信息)
注:除5 所有的事物都被重复执行5次
从图5- 7可以看出,所有Action平均事务响应时间的趋势有较大的波动,所以使用“90 Percent Time”。

根据上面的计算,本次测试结果记录如表5- 1所示。

测试项实际值是否通过
登录业务响应时间 14.142秒 Y
批量查询响应时间 7.825秒 Y
选择信息响应时间 4.194秒 Y
登录业务成功率 100%
考勤业务成功率 100%
登录查询总数 1000
批量查询总数 1000
选择信息总数 1000
CPU使用率维持100%
内存使用率 <20%
表5- 1测试结果对照表一
每秒点击数
图5- 8显示的是“Hits per Second”与“Average Throughput
(bytes/second)”的复合图,从图中可以看出,两种图形的曲线都正常并且基本一致,说明服务器能及时的接受客户端的请求,并能够返回结果。

图5- 8每秒点击数与每秒吞吐量复合图业务成功率。

在“Transaction Summary”中我们可以很明确的看到每个事务的执行状态,如图5- 9
所示。

1 Pass
图5- 9事务状态统计图
从图中可以看出,所有的Aciton都是绿色的,即表示为Passed,同时除了vuser_init与vuser_end两个事务,其他的事务通过数为2163,也就表明在30分钟的时间里,共完成了2163次登录考勤业务操作。

那么根据这些可以判断本次测试登录业务与考勤业务的成功率是100%,再次更新测试结果记录表如表5- 2所示。

测试项实际值是否通过
登录业务响应时间 14.142秒 Y
批量查询响应时间 7.825秒 Y
选择信息响应时间 4.194秒 Y
登录业务成功率 100% Y
考勤业务成功率 100% Y
登录查询总数 1000 Y
批量查询总数 1000 Y
Y 选择信息总数 1000
CPU使用率
内存使用率
表5- 2测试结果对照表二
系统资源
系统资源图显示了在场景执行过程中被监控的机器系统资源使用情况,一般情况下监控机器的CPU、内存、网络、磁盘等各个方面。

本次测试监控的是测试服务器的CPU使用率与内存使用率,以及处理器队列长度,具体的数据如图5- 10所示。

1 % Processor Time (Processor _Total):192.168.0.108 4.167 63.813 91.406 7.081
0.1 Available MBytes (Memory):192.168.0.108 486 500.596 570 13.536
10 Processor Queue Length (System):192.168.0.108 0.0 1.962 31 3.204
图5- 10测试服务器系统资源监控结果图
从图中可以看出,CPU使用率、内存使用率、CPU的队列长度三个指标的曲线逗较为平滑,三者的平均值分别为:63.813 %、500.596、1.962,根据本次性能测试要求的:CPU使用率不超过75%,内存使用为130M。

根据Windwos资源性能指标的解释,一般情况下,如果“Processor Queue Length(处理器队列长度)”一直超过二,则可能表示处理器堵塞,我们这里监控出来的数值是1.962接近2, 而且总体上保持平衡,那么由此推断,测试服务器的CPU也可能是个瓶颈。

获得上述数据后,最新的测试结果记录表如表5- 3所示。

测试项实际值是否通过
登录业务响应时间 14.142秒 Y
批量查询响应时间 7.825秒 Y
选择信息响应时间 4.194秒 Y
登录业务成功率 100% Y
考勤业务成功率 100% Y
登录查询总数 1000 Y
批量查询总数 1000 Y
Y 选择信息总数 1000
CPU使用率 63.813 %
内存使用率 130M
表5- 3测试结果对照表三
从上表数据来看,本次测试总体上已经达到了预期的性能指标,但从其他的数据,比如CPU的队列长度、内存使用率来看,被测服务器的硬件资源需要提升。

通过tomcat 检测工具probe ,内存使用130M。

6. 结论
测试中,系统在大量用户使用和长时间反复运行中,系统未出现不良反应,包括cpu、内存占用过高、内存泄露等,系统反应良好,在大吞吐量情况系统响应时间令人满意,系统稳定性比较可靠。

另:测试250到300用户的情况下系统表现情况。

结果发现系统在250 以上出现连接超时等现象,故在本次测试环境下并发用户峰值在250。

相关文档
最新文档