文章性能测试里的平均事务响应时间ART天青色wy

其实以往的产品初次上线前的过程里,对于性能测试的需求是被惯性弱化的,因为我们用控制流量,白名单机制来等方式一点点消磨取代这方面测试的考量,再加上市场上高性能工具(中间件,负载均衡,消息处理机制的层出不穷)的叠加使用。可能不在考虑,至少不在上线初期考虑这方面内容。

风险显而易见的就是你真到了哪天用户量上来了,要再想优化性能,就变成了直接优化系统架构,因为系统到那个时候冗余到什么程度和地步,无法预测。这个代价是自己“惯性造成的”,自己挖的自己埋吧。

业务背景:

知识:

可能影响ART的指标有至少以下这些:

业务方面:简单来说就以下两个

2.业务复杂度提高,这个好理解,业务复杂了以前三步能搞定的事儿,需要六步搞定,肯定也会受到影响。

系统方面:这个比较多,性能测试中真正去调优的过程,恰恰是以下方式的倒叙。

1.系统资源,硬件资源过小,不足以支撑现有用户量,或者递增,激增用户及业务量。

2.系统资源配置,中间件配置,数据库配置,应用server配置,配置项可能包含的点:Linux系统参数,如文件句柄,端口回收机制。中间件连接数,数据库连接数,应用server框架及其部署方式,熔断机制,流控机制,应用日志级别等。

3.代码处理方式,代码逻辑方式。

4.数据库效率,SQL效率。

5.测试时的加压方式,性能测试脚本合理性,参数合理性,测试数据分布的合理性。

ART分析:

分析之前:

要知道以下几点非常重要:

1.性能测试是必须以性能测试目标(测试指标)为导向的测试(当然功能测试也应该是,但是好像功能测试最后可以妥协),否则没有任何意义。

2.有了第一点的意识,就必须知道你的目标在哪,ART值的多少就是你的其中一个很重要的测试指标。

3.指标一定是测试开始前分析出来的,数据量化出来的,如果你是脑洞的,你的测试就是最大的漏洞,测试结果对系统的影响也很有可能是破坏性的。

性能测试有多折磨人,显而易见了,因为就一个ART的结果你就要通盘考虑以上所有的,何况还有更恐怖的TPS。当然价值与成就感也不言而喻了。需要强调的是这种成就感和价值,这对于研发和测试起到的作用是同等的,且积极的。

分析定位:

要想准确定位ART是多少,那我们怎么入手,怎么分析呢,因为我们的系统有N个系统模块,还不算银行系统有多少次交互,和有多少个系统。

那么方法论来了:拆分,细化,排序外加木桶理论。逐一来讲一下:

拆分

无论你有多少个系统,多少个模块,我们都要在开始测试前拆分出来,认清楚你的交易路径经过了多少个系统,本次测试一笔交易要经过网关系统,账户模块,支付模块,及银行网关系统。

细化:

清楚了交易路径,我们就要进行细化交易,细化到最简单的交易路径,比如我们的目的只是为了测试自己的充值逻辑是否有瓶颈,事实是测试过程中,充值,提现,都在基准负载测试中无法达标(我们定的目标是500ms-800ms以内),

排序:

木桶理论的运用:短板决定最终导向。

假设节点1网关,节点2账户,节点3支付,节点4银行系统。

优先级1:(t9、t10)、(t7、t12)、(t5、t14)、(t3、t16)

优先级2:(t8、t11)、(t6、t13)、(t4、t15)、(t2、t17)

优先级3:(t1、t18)

性能压力工具本身产生的响应问题,非常少。但是也并不是不存在,所以我们放到最后来检查。可以看出我们主要关心(t7、t12)就可以了。

结果:

业界对ART的共识与误区:

一个近乎这些年遗忘的原则258原则,更正一下这个认识吧,如果你知道的是伪道理(以下背景知识是搜索来的,不过受用):

4秒是业务可以接受的上限,因为到了4秒的时候,客户流失率明显增加了;

10秒是完全不可接受的,因为已经导致企业的经济已经入不敷出了。

总的来说这东西是一个很老旧的并且不受用在其他系统的里一个破原则,居然被使用了这么多年,还差点儿搞成了课本,殊不知因地制宜,因人而异,因系统不同而不同的道理。

总结:

2.量化性能目标(包括分解性能目标、量化各部分性能目标);

3.确定系统功能和交易路径;

4.满足性能目标

最后想说的是,架构时且行且思考,实现时且行且思考,测试时且行且耐心,细致,思考。

THE END
1.后端开发一个接口在并发状况下,平均响应时间多长比较合理总结来说,后端接口在并发状况下的平均响应时间,应该综合考虑代码优化、数据库查询优化、使用缓存以及负载均衡等多方面因素。通过系统地分析和针对性地优化,能够实现在高并发状况下保持较低的响应时间,从而提供更加流畅的用户体验。 相关问答FAQs: Q1:如何确定后端接口在并发情况下的平均响应时间是否合理? https://docs.pingcode.com/ask/161336.html
2.java平均响应时长计算平均响应时间多少合适Summary是按整个场景的时间来做平均的,最大最小值,也是从整个场景中取出来的。 (1)平均响应时间:事物全部响应时间做平均计算 (2)90%响应时间:将事物全部响应时间进行排序,然后求90%数据中的最大值,即是说事务所有运行次数中,90%落在这个时间内,10%在这个时间之外, https://blog.51cto.com/u_12192/9475309
3.性能测试基础带你了解性能测试响应时间标准秒之内得到响应时,用户会感觉系统的响应速度慢,但是可以接受,超过 10 秒 后还没有响应,用户就会感觉不能够接受。 不同行业不同业务可接受的响应时间是不同的,一般情况,对于在线实时交易: ?互联网企业:500 毫秒以下,例如淘宝业务 10 毫秒左右。 ? 金融企业:1 秒以下为佳,部分复杂业务 3 秒以下。 https://blog.csdn.net/xwn911/article/details/134929707
4.京东客服咚咚响应时间为多少达标?京东将基于商家日常咚咚使用情况,进行咚咚服务指标监测,主要指标包括咚咚咨询差评率、咚咚平均响应时长、https://www.shuaishou.com/ask/63445.html
5.性能测试具体有些指标?各个指标意义及参考的合理范围?含义:指系统在长时间运行过程中保持正常运行的能力。 合理范围:系统应能够稳定运行至少8小时以上,对于7x24小时运行的系统,应保证稳定运行24小时以上。 9.可扩展性(Scalability): 含义:指系统通过增加资源来提高性能的能力。 合理范围:扩展能力至少在70%以上,理想情况下资源增加几倍,性能也应提升几倍。 https://www.spasvo.com/Company/news_show.asp?id=2047
6.webservice接口性能响应时间多少合适webservice平均响应时间为0.2s以内为合适。webservice协议接口性能测试时,响应时间很小,但是LoadRunner显示通过的事务数很少,50用户并发测试,无pacing,无思考时间,平均响应时间0.3秒,90%事务响应时间0.6秒,测试执行5分钟,按90%事务响应时间、并发用户数及执行时间计算,通过的事务数大概在25000左右,但是事实上LoadRunner才通https://edu.iask.sina.com.cn/jy/gm27EfbNniT8.html
7.性能测试指标TP99,比平均响应时间更需要关注平均响应时间受极端值的影响较大,因为出现1个尖刺,平均响应时间几乎是TP99的7倍! TP99更能反映大多数请求的情况,通过TP99为1ms可以知道,应用系统对于大多数请求,都能在1ms内响应,整体性能达标。而对于尖刺,我们可以通过走势图的MAX来发现,单独进行分析。 https://cloud.tencent.com/developer/article/2432219
8.飞鸽首响和平响指标全链路透传飞鸽对首次响应时长和平均响应时长指标进行了全链路的透传,展示了客服维度、店铺维度和会话维度的指标。具体指标展示位置如下表所示。 注意,客服维度和店铺维度均展示了考核时间内(即每天8:00:00~22:59:59期间)的指标,会话维度展示全天24小时每通会话的首响和平响指标,如需详细了解考核时间内哪些会话未达标,可导出https://school.jinritemai.com/doudian/wap/article/aHUMAnFdWFHn
9.平均响应时间是什么意思,淘宝客服的响应时间怎么算在淘宝交易过程中,客服的响应速度直接关系到买家的购物体验。平均响应时间是一个重要的指标,它反映了客服团队对于买家咨询的反应迅速程度。本文将深入解析平均响应时间的意义以及在淘宝客服中如何计算和提升响应速度。 平均响应时间是什么意思? 平均响应时间是指客服在收到用户咨询或消息后,所用的平均时间来做出回应。这https://www.lbdj.com/zixun/369032975.html
10.京东全球购自营供应商违规管理规则——商品咨询服务不达标细则综合服务评分=即时满意度得分+平均响应时长得分+全天留言率得分+咨询服务时长达标率得分+咨询转化率得分+咨询解决率得分+智能客服纯机满意度得分。详情可参考附录一:考核标准。 3.2考核周期:每日进行考核,每一个自然月统计综合服务评分及达标情况 3.3试用期说明:首次开通商品咨询服务当月及次月为试用期,试用期期间不考https://rule.jd.com/rule/ruleDetail.action?ruleId=774925927179227136