华为云用户手册

  • 操作步骤 登录性能测试服务控制台,在左侧导航栏中选择“PerfTest测试工程”。 在待编辑PerfTest测试工程所在行,单击编辑事务库。 在“事务库”页签中,选择待调试的事务,单击页面右上角的“调试”;也可以单击事务名称后的,选择“调试”。 选择对应的测试资源组作为执行器后单击“启动”。 单击“查看日志”查看事务调试的具体内容。 如果调试结果报错,可根据日志信息,修改相应的事务请求信息,重新进行调试。 在“调试记录”页签,查看调试的历史操作记录。
  • 删除事务 事务删除后将无法恢复,请谨慎操作。 登录性能测试服务控制台,在左侧导航栏中选择“PerfTest测试工程”。 在待编辑PerfTest测试工程所在行,单击编辑事务库。 在“事务库”页签中,单击事务名称后的,选择“删除”。根据系统提示执行删除事务的操作。 您也可以在事务列表下勾选事务名称,在页面下方显示的浮动框中,单击“删除”,根据系统提示执行删除事务的操作。 如果批量删除的事务中有部分事务已被测试任务引用,则批量删除操作仅删除没有被测试任务引用的事务。 图1 删除事务
  • 操作步骤 登录性能测试服务控制台,在左侧导航栏中选择“PerfTest测试工程”。 在待编辑PerfTest测试工程所在行,单击工程名称进入测试工程详情页面。 选择“测试任务”页签,单击“创建任务”。 输入测试“任务名”,选择执行策略。 执行策略分为串行和并行: 串行:每个测试任务下的用例按顺序串行执行。 并行:每个测试任务下的用例并行执行。 单击“添加用例”,在弹出的对话框中选择已创建好的用例。 一个测试用例可以被多个测试任务选择添加。 配置完成后,单击“保存”。
  • 操作步骤 登录性能测试服务控制台,在左侧导航栏中选择“PerfTest测试工程”。 在待编辑PerfTest测试工程所在行,单击工程名称进入测试工程详情页面。 在“测试任务”页签中,在需要关联分析对象的测试任务的操作栏,单击,选择“关联分析对象”。 勾选需要关联的分析对象。如果需关联新的分析对象,单击“添加”,参照设置智能分析添加分析对象,添加完毕后,选择需关联的分析对象,单击“确定”。 图1 关联分析对象
  • 支持审计的关键操作列表 云审计 服务(Cloud Trace Service,简称 CTS ),是华为 云安全 解决方案中专业的日志审计服务,提供对各种云资源操作记录的收集、存储和查询功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 通过云审计服务,您可以记录与 消息通知 服务相关的操作事件,便于日后的查询、审计和回溯。 表1 支持审计的关键操作列表 service_type resource_type resource_id trace_name 中文描述 CPTS cptsProject 数据库主键 createCptsProject 创建工程 CPTS cptsProject 数据库主键 deleteCptsProject 删除工程 CPTS cptsProject 数据库主键 modifyCptsProject 修改工程 CPTS cptsTask 数据库主键 createCptsTask 创建任务 CPTS cptsTask 数据库主键 deleteCptsTask 删除任务 CPTS cptsTask 数据库主键 modifyCptsTask 修改任务 CPTS cptsTemp 数据库主键 createCptsTemp 创建事务 CPTS cptsTemp 数据库主键 deleteCptsTemp 删除事务 CPTS cptsTemp 数据库主键 modifyCptsTemp 修改事务 CPTS cptsCase 数据库主键 createCptsCase 创建用例 CPTS cptsCase 数据库主键 deleteCptsCase 删除用例 CPTS cptsCase 数据库主键 modifyCptsCase 修改用例 CPTS cptsVariable 数据库主键 setVaribale 创建变量 CPTS cptsVariable 数据库主键 updateVaribale 修改变量 CPTS cptsVariable 数据库主键 deleteVaribale 删除变量 CPTS cptsTask 数据库主键 tempDebug 任务用例debug CPTS cptsTaskStatus 数据库主键 updateTaskStatus 更新任务状态
  • 操作步骤 登录性能测试服务控制台,在左侧导航栏中选择“PerfTest测试工程”。 在待编辑PerfTest测试工程所在行,单击工程名称进入测试工程详情页面。 选择“测试用例”页签,在左侧“用例列表”下选择待配置的测试用例。 选择页面右侧的“用例详情”进入用例详情页面,输入测试用例描述、前置条件、测试步骤,依照表1设置用例基本信息。 表1 用例基本信息 参数 参数说明 状态 描述测试用例当前处于哪种状态,如新建、设计中、测试中、完成。 用例ID 用例ID信息。 用例等级 0级:最基本的功能验证,用例不宜过多,各模块尽量保证在10-20个,占比5%左右。 1级:基本功能验证,可用于继承特性的基本功能验证、迭代验收前的基本功能验证等,占比20%左右。 2级:重要特性验证,可用于测试版本(非回归版本)中手工测试,占比60%左右。 3级:一般功能/非重要功能验证,包括对基本/重要功能的异常测试,占比10%~15%左右。 4级:非常特殊输入、场景、阈值条件的用例,该级别用例不宜过多,占比0%~5%左右。 标签 用例自定义标签,用于标识用例。 输入标签:单击标签输入框,输入标签后,用空格或回车键生成标签,每个用例限制10个标签。 删除标签:单击标签输入框,单击已生成标签后的删除该标签。 创建时间 测试用例的创建时间,用例保存后自动生成。 修改时间 测试用例的最新修改时间,用例保存后自动生成。 用例详情信息设置完成后,单击“保存”。
  • 操作步骤 登录性能测试服务控制台,在左侧导航栏中选择“PerfTest测试工程”,单击待操作工程后的。 在“性能报告”页签下,选择需要对比报告的任务,单击任务名称。 在“报告列表”单击“报告对比”。 勾选需要对比的测试报告,单击“确定”。 最多可以选择3份离线报告进行对比,第一勾选的报告作为基线报告。 在“用例指标对比”框中选择用例,可以查看该用例在不同报告中的指标对比。 用例指标对比支持指标筛选。 单击“自定义对比指标”,在“表格设置”弹框中选择需要显示的指标项。 (可选)在弹框右侧拖动已选列,可以改变列表项的顺序。 单击“确认”。
  • 测试用例简介 PerfTest测试工程主要由测试用例、测试任务和性能报告组成。事务库和智能分析属于增强能力。 测试用例、测试任务、性能报告分别对应了性能测试活动的三个主要环节。 图1 性能测试活动流程 其中测试用例是基于某个性能压测场景建立的测试模型。测试任务是基于已定义的(若干个)测试模型发起一次性能测试的活动。性能报告是测试任务执行的结果,呈现的是被测系统在高并发场景下的性能指标。 图2 测试用例、测试任务和性能报告之间的关系 父主题: 测试用例说明
  • 操作步骤 登录性能测试服务控制台,在左侧导航栏中选择“PerfTest测试工程”。 在待编辑PerfTest测试工程所在行,单击工程名称进入测试工程详情页面。 选择“测试用例”页签,可以在页面左侧查看当前已创建的用例目录结构。可以通过以下两种方式创建用例: 在当前目录下创建用例:直接单击“创建用例”。 图1 在当前目录下创建用例 在指定目录下创建用例:将鼠标光标放置在指定目录上,单击,在下拉框中选择“创建用例”。 图2 在指定目录下创建用例 单击“保存”。
  • 产品功能 性能测试服务提供了HTTP/HTTPS/TCP/UDP/HLS/RTMP/WEBSOCKET/HTTP-FLV/MQTT协议的高并发测试能力,可以支持多协议报文内容、事务、测试任务模型的灵活自定义,可实时、离线查看并发、RPS、响应时延等多个维度的性能统计,同时根据用户对性能测试规模的变化,提供按需的私有测试集群创建、扩缩容等性能测试集群管理能力。 多协议高并发性能测试 标准HTTP/HTTPS/TCP/UDP/HLS/RTMP/WEBSOCKET/HTTP-FLV/MQTT报文内容快捷自定义,简单调整即可给不同的被测试应用发送压测流量。 可以根据被测试应用的实际需求,对HTTP/HTTPS/TCP/UDP/HLS/RTMP/WEBSOCKET/HTTP-FLV/MQTT协议报文的任何字段内容进行自定义,包括HTTP GET/POST/PATCH/PUT/DELETE方法、URL、Header、Body等字段的设置和编辑。 虚拟用户的行为定义,适配不同测试场景。 通过思考时间对同一个用户的请求设置发送间隔或者在一个事务中定义多个请求报文来设置每个用户每秒内发起的请求数。 自定义针对响应结果的校验,使请求成功的检查点更准确。 针对每个用户的请求,支持用户配置检查点,在获取到响应报文后针对响应码、头域及响应body内容做结果检验,只有条件匹配后才认为是正常响应。 测试任务模型自定义,支持复杂场景测试 通过多种用例步骤和压力模型的灵活组合,可以帮助用户测试在多操作场景并发下的应用性能表现。 测试用例可以被多个测试任务复用,针对每个测试用例可以选择不同的压力模型,并定义持续时间、并发用户数、震荡或浪涌次数等参数,模拟流量波峰波谷的复杂场景。 图2 支持复杂场景测试
  • 数据保护技术 性能测试服务通过多种手段保护数据安全。 数据保护手段 简要说明 传输加密(HTTPS) 为保证数据传输的安全性,性能测试服务使用HTTPS传输数据。 个人数据保护 通过控制个人数据访问权限以及记录操作日志等方法防止个人数据泄露,保证您的个人数据安全。 隐私数据保护 性能测试服务不消费、不存储用户数据。 数据销毁 用户主动删除业务数据或销户的情况下:非关键数据会实时物理删除;关键数据会被标记软删除后,10分钟后物理删除。 父主题: 安全
  • 千万级性能压测引擎,保障亿级日活系统稳定可靠 企业业务飞速发展,日活剧增,部分大型业务系统达到了亿级日活流量,对现网稳定性运行带来了极大的挑战。如何提前识别大并发给业务带来的性能挑战,成为企业发展的重中之重。 性能测试服务提供千万级集群超大规模并发能力,涵盖超高并发瞬时发起、梯度加压、动态压力调整等能力,满足亿级日活应用的压测要求,支持自定义插件能力实现私有协议和函数的对接,满足各类协议与复杂场景的性能压测,企业可以灵活按需进行高并发测试,提前发现性能问题,保障产品上市质量。
  • 性能测试灵活快捷,助力应用快速上线 协议灵活自定义:支持HTTP/HTTPS测试,适应基于HTTP/HTTPS协议开发的各类应用和微服务接口性能测试;支持TCP/UDP/WEBSOCKET测试,支持字符串负载与16进制码流两种模式,满足各类非HTTP类协议的数据构造;支持HLS/RTMP/HTTP-FLV/MQTT测试。 多事务元素与测试任务阶段的灵活组合:提供灵活的数据报文、事务定义能力,结合多事务组合,测试任务波峰波谷,可模拟多用户多个操作的组合场景,轻松应对复杂场景的测试;支持针对每个事务指定时间段定义并发用户数,模拟突发业务流量。
  • 审计与日志 ● 审计 云审计服务(Cloud Trace Service,CTS),是华为云安全解决方案中专业的日志审计服务,提供对各种云资源操作记录的收集、存储和查询功能,可用于支撑安全分析、合规审计、资源跟踪和问题定位等常见应用场景。 用户开通云审计服务并创建和配置追踪器后,CTS可记录性能测试服务的管理事件和数据事件用于审计。 CTS的详细介绍和开通配置方法,请参见CTS快速入门。 CTS支持追踪的性能测试服务操作列表,请参见支持云审计的操作列表。 ● 日志 云日志 服务(Log Tank Service)提供一站式日志采集、秒级搜索、海量存储、结构化处理、转储和可视化图表等功能,满足应用运维、网络日志可视化分析、等保合规和运营分析等应用场景 出于分析问题的目的,性能测试服务将系统运行的日志实时记录到LTS,并保存3天。 父主题: 安全
  • 责任共担 华为云秉承“将公司对网络和业务安全性保障的责任置于公司的商业利益之上”。针对层出不穷的云安全挑战和无孔不入的云安全威胁与攻击,华为云在遵从法律法规业界标准的基础上,以安全生态圈为护城河,依托华为独有的软硬件优势,构建面向不同区域和行业的完善云服务安全保障体系。 安全性是华为云与您的共同责任,如图1所示。 华为云:负责云服务自身的安全,提供安全的云。华为云的安全责任在于保障其所提供的IaaS、PaaS和SaaS类云服务自身的安全,涵盖华为云数据中心的物理环境设施和运行其上的基础服务、平台服务、应用服务等。这不仅包括华为云基础设施和各项云服务技术的安全功能和性能本身,也包括运维运营安全,以及更广义的安全合规遵从。 租户:负责云服务内部的安全,安全地使用云。华为云租户的安全责任在于对使用的IaaS、PaaS和SaaS类云服务内部的安全以及对租户定制配置进行安全有效的管理,包括但不限于虚拟网络、 虚拟主机 和访客虚拟机的操作系统,虚拟防火墙、API网关和高级安全服务,各项云服务,租户数据,以及身份账号和密钥管理等方面的安全配置。 《华为云安全白皮书》详细介绍华为云安全性的构建思路与措施,包括云安全战略、责任共担模型、合规与隐私、安全组织与人员、基础设施安全、租户服务与租户安全、工程安全、运维运营安全、生态安全。 图1 华为云安全责任共担模型 父主题: 安全
  • 复杂场景支持 生产环境往往是复杂多变的,如一个用户访问可能包含多个请求,不同的用户在进行不同的事务操作,用户访问呈现明显的波峰波谷,瞬时并发用户多等状况,因此需要对服务开展性能测试,提前识别性能瓶颈。 优势 模型灵活定制:支持多事务组合测试,可模拟多用户多个操作的组合场景。 突发流量支持:支持针对每个事务指定时间段定义并发用户数,模拟突发业务流量。 结果校验:支持多种表达式的自定义结果比对,定制您的事务成功标准。 图3 复杂场景支持
  • 电商抢购测试 电商抢购已成为当前互联网应用的普遍需求,有并发用户高、突发请求大、失败用户反复重试等特征,如何保证在高负载运行情况下网站的可用性已经成为运维保障的重点。 优势 真实场景模拟:秒级千万并发能力,瞬间发起大量并发压力,可在一个测试模型里面模拟全网站高负载。 专业测试报告:提供按时延响应区间的统计,客观反映用户体验。 失败用户重试:多种表达式的自定义结果比对,未正常进入网站的可以重试。 图1 电商抢购测试
  • 游戏高峰测试 游戏行业业务波峰波谷明显,具备弹性伸缩的能力,一方面需要验证弹性伸缩是否可以正常工作,另一方面需要验证在流量突发高峰场景下,时延等关键KPI是否达标。 优势 多场景组合模拟:通过多事务组合、事务元素多样性、报文自定义功能模拟真实场景。 波峰波谷模拟:针对每个单事务根据时间段定义压测曲线,模拟波峰波谷。 KPI度量:通过自定义响应超时时间,验证高峰场景游戏KPI满足度。 图2 游戏高峰测试
  • 应用性能调优 定义性能测试模型,通过性能测试服务的执行机给被测应用发送模拟流量,利用服务报告查看被测应用的资源监控、调用链情况,了解应用对事务的并发处理能力,方便进行性能优化。 优势: 灵活扩展:执行机集群按需扩展,支持不同规模的性能测试。 一站式解决方案:通过专业的报告提供应用并发能力、响应时延、应用CPU/内存占用、应用的内部各微服务处理时延等关键指标。 按需收费:根据性能测试持续时间、并发规模进行收费。
  • 基本概念 测试工程:测试工程分为“PerfTest测试工程”和“JMeter测试工程”。PerfTest测试工程指性能测试服务为用户的测试工程提供管理能力,事务、压测任务、测试报告的内容在同一个测试工程内共享复用,您可以为不同的测试项目创建不同的测试工程。JMeter测试工程指用户在性能测试服务中导入JMeter脚本的测试工程。 事务:事务是指用户自定义的操作模型,包括HTTP/HTTPS/TCP/UDP/WEBSOCKET报文、思考时间、响应提取和检查点,以及HLS/RTMP/HTTP-FLV/MQTT报文部分。 报文:报文是HTTP等应用程序之间发送的数据块。这些数据块以一些文本形式的元信息开头,这些信息描述了报文的内容及含义,后面跟着可选的数据部分。这些报文都是在客户端、服务器和代理之间流动。 思考时间:为了更好的模拟用户的行为,需要模拟用户在不同操作之间等待的时间,例如,当用户收到来自服务器的数据时,可能要等待几秒查看数据,然后再做出响应,这种延迟,就称为思考时间 响应提取:如果同一事务中存在多个报文,通过正则表达式或JSON提取把前一个报文的输出提取出来,作后一个报文的输入。 检查点:检查点主要是通过自定义校验信息来验证服务端的返回内容是否正确。 并发用户数:并发用户数指在同一时刻内,对系统进行业务操作的用户数量,在性能测试服务中指用户在定义测试任务阶段设置的虚拟用户数。 响应时间:响应时间指从客户端发一个请求开始计时,到客户端接收到从服务器端返回的响应结果结束所经历的时间。
  • 操作步骤 登录性能测试服务控制台,选择左侧导航栏的“PerfTest测试工程”。 在PerfTest测试工程所在行,单击测试工程名称,例如前面创建的测试工程“Web-test”,进入测试工程详情页面。在“测试用例”页签,可以看到自动生成的默认目录和样本用例。 在默认目录下单击“样本用例”,选择页面右侧的“用例步骤”,选择前置步骤或测试步骤配置。 前置步骤:每个执行线程中,仅执行一次。如无业务需求可以不添加。 测试步骤:测试用例的执行体,需要配置。 在该用例下,单击“添加请求”。输入请求名称,添加请求信息。 报文 必须配置。报文是HTTP应用程序之间发送的数据块。 选择“报文”,根据被测服务的实际情况,设置报文信息。 思考时间 可选配置。为了更好的模拟用户行为,需要模拟用户在不同操作之间的等待时间。例如当用户收到来自服务器的数据时,可能要等待几秒查看数据,然后再做出响应,这种延迟就称为思考时间。 请根据各业务的不同来设置思考时间。建议性能测试的时候,不要设置过长的思考时间,以最坏的情况对服务器施压。 如果需要配置,请启用“思考时间”,设置执行下一个动作之间停留的持续时间,例如:1000毫秒。 响应提取 可选配置。如果同一用例中存在多个报文,通过正则表达式或JSON提取把前一个报文的输出提取出来,作后一个报文的输入。 如果需要配置,请启用“响应提取”,设置响应提取参数。 检查点 可选配置。如果设置检查点,通过自定义校验信息来验证服务端的返回内容是否正确。 如果需要配置,请启用“检查点”,配置检查点参数。 在该用例下,选择“压力配置”。 可根据业务特点选择不同的压力模式,添加多个阶段,每个阶段模拟不同的并发用户数。 配置完成后,单击“保存”。 单击页面右上角的“调试”,选择对应的测试资源组作为执行机后单击“启动”。 单击“查看日志”查看测试用例调试的具体内容。 如果调试结果报错,可根据日志信息,修改用例后重新调试。 在“调试记录”页签,查看调试的历史操作记录。
  • 入门实践 当您完成了环境资源准备、创建测试工程、创建测试用例、创建测试任务等基本操作后,可以根据自身的业务需求使用性能测试服务提供的常用实践。 表1 常用最佳实践 实践 描述 城市政务一网通办系统性能测试 类似“一网通办”等跟国计民生相关的系统,由于突然的访问量暴增导致系统响应慢,为避免流量高峰期使用出现系统崩溃,性能测试服务通过模拟相关实际场景,快速构造压力模型,发现不同压力模型下服务的性能瓶颈,避免宕机。 JMeter测试工程原生性能压测 PerfTest-JMeter测试工程旨在为用户提供JMeter原生引擎的支持,用户可在PerfTest-JMeter测试工程里导入JMeter脚本,使用JMeter原生引擎快速发起高并发的性能测试,可查看完备的性能测试报告。 全局变量使用全流程 全局变量用于构造数据集合,使测试数据更加丰富。在报文事务请求信息的报文内容中引用全局变量,执行压测任务过程会将报文内容中的变量值动态替换为指定的值。
  • 计费示例 假设您已购买峰值并发1万,VUM额度100万的按需套餐包,您在2023/03/10 8:45:30在性能测试服务上启动了并发数为1000的压测任务,然后在9:30:00将其全部停止运行,则计费周期分为如下两个时间段: 8:00:00~9:00:00时间段,在8:45:30~9:00:00间产生费用,该计费周期内的计费时长为870秒。则参考计费项中的计费公式,该计费时间段消耗的VUM为:1000x870÷60=14500(VUM)。 9:00:00~10:00:00时间段,在9:00:00~9:30:00间产生费用,该计费周期内的计费时长为1800秒。则参考计费项中的计费公式,该计费时间段消耗的VUM为:1000x1800÷60=30000(VUM)。 因此,总消耗VUM=14500+30000=44500(VUM),即4.45万VUM,则剩余的VUM=100万-4.45万=95.55万(VUM)。
  • 操作场景 性能测试服务提供体验馆功能,通过体验向导,帮助您快速熟悉性能测试服务的使用流程。 体验馆主要提供以下四个体验向导: 测试服务使用全流程:帮助您熟悉性能测试服务的基本操作,体验如何部署测试工程、测试任务到生成测试报告的一站式服务。 变量调试:帮助您熟悉全局变量和局部变量的添加过程,快速完成压测模型定义,并通过调试功能判断配置是否正确。 电商解决方案:支持大规模并发、多事务组合全链路压测,帮助您快速压测电商网站,解决应用崩溃、扩容等疑难问题。 一网通办系统模板:一网通办系统模型,是在各城市都上线“一网通办”的背景下,专门打造的模型压测样板。具有上手简单、场景拟真、压力配置丰富等特点。
  • 性能测试服务中思考时间和持续时间有什么区别? 性能测试服务里面会涉及到2个时间的概念: 思考时间(单位为ms):是指您在执行两个连续操作期间的等待时间。 压测时长(单位为min):即测试任务阶段的持续时间,压测执行的时间。 思考时间并不会影响并发总的时长,它只会影响到您并发请求的个数。下面以一个例子来解释说明。 思考时间设置为1000ms,压测时长为10min,并发用户为10个。并发请求个数的计算公式为:压测时长*并发用户/思考时间,根据公式得到的并发请求数为6000个(600s*10/1s),那么此压测任务并发的总时长是10min,向服务端发送6000次查询请求。有的时候测试结果会发现并发请求数不到6000,会有一些小差距,这样也是正确的。因为请求过程中消息的响应如果不是立即的,则会有0.1秒的等待回执时间。 父主题: 压测工程管理
  • 并发用户数是什么? 压测是指模拟用户实际业务操作的真实使用场景,并发用户数是指模拟同一时刻内,对系统进行业务操作的用户数量。 例如,游戏网站某个时间点进行竞技活动,那么这个时候对设备的要求肯定是最高的。并发用户数就是模拟成千上万的用户在同一个时间点进行各种操作的配置数。 结合并发用户数、并发时间和思考时间来计算并发请求的数量,压测出服务器最终饱和数据是多少,结合期望的最大值是多少来判断是否满足客户的需求。 父主题: 压测工程管理
  • 节点使用建议 当集群上的节点已经被部署了应用,创建私有资源组时,该节点无法被选用。用于测试资源组的节点不要运行任何应用或做其他用途,否则可能会导致应用运行异常。 如需要压测外部服务,请为每一个执行机节点都绑定一个弹性IP。如需要调试外部服务,请为调试节点和执行节点都绑定弹性IP。测试带宽受限于弹性IP的带宽。 至少需要2台空节点,1台用于压测资源组的调试机(即调试执行机的节点),1台用于压测资源组的执行机(即在压测过程中能够提供自身性能数据的施压目标机器)。请根据需要压测的并发用户数,创建对应规格的节点,PerfTest测试工程的节点规格推荐请参考表1,JMeter测试工程的节点规格推荐请参考表2。节点规格推荐是通用规格,仅供参考。实际压测时,资源规格的需求受思考时间、压测的协议类型、请求和响应的大小数量、响应时间、结果验证等因素影响,用户可根据实际情况进行调整。 PerfTest测试工程中,每台8U16G的执行节点可支撑10000并发;JMeter测试工程中,每台8U16G的执行节点可支撑2000并发。 表1 PerfTest测试工程的节点规格推荐 并发用户数 所需规格 数量 0-5000 调试节点:4U8G 1 执行节点:4U8G 1 5001-10000 调试节点:4U8G 1 执行节点:8U16G 1 10001-20000 调试节点:4U8G 1 执行节点:8U16G 2 20001-30000 调试节点:4U8G 1 执行节点:8U16G 3 30001-40000 调试节点:4U8G 1 执行节点:8U16G 4 40001-50000 调试节点:4U8G 1 执行节点:8U16G 5 50001以上 调试节点:4U8G 1 执行节点:8U16G n 表2 JMeter测试工程的节点规格推荐 并发用户数 所需规格 数量 0-1000 调试节点:4U8G 1 执行节点:4U8G 1 1001-2000 调试节点:4U8G 1 执行节点:8U16G 1 2001-4000 调试节点:4U8G 1 执行节点:8U16G 2 4001-6000 调试节点:4U8G 1 执行节点:8U16G 3 6001-8000 调试节点:4U8G 1 执行节点:8U16G 4 8001-10000 调试节点:4U8G 1 执行节点:8U16G 5 10001以上 调试节点:4U8G 1 执行节点:8U16G n
  • 怎样确定压测任务顺序读取全局变量的值? 如果您想确认压测任务是否会顺序读取全局变量的值,可以通过以下步骤测试: 设置全局变量,取值数量建议在10个以内(例如设置取值为6、5、4、3、2、1),方便快速测试。 设置一个用例,在此用例报文的body体中引用1中设置的全局变量,执行阶段设为按次数方式,并发为1、并发次数为10,启动此用例。 在性能报告中的“明细”页签下,单击“查看日志”,在操作栏单击“查看”,查看请求日志的请求体中全局变量的取值是否和设置的顺序一致。 通过日志可确认后续的取值是否顺序读取,当读取到最后一个值时,返回读取第一个值。 父主题: 压测工程管理
  • 报文如何填写? 报文通俗的解释就是用户在网站界面上的所有单击操作。每个单击操作通过编辑成满足协议规范带有用户请求内容格式的码流传送给不同的第三方,最后得到一个正确或者失败响应的一个过程。得到正确的响应,这个单击动作会操作成功;得到错误的响应,界面会提示一些错误信息指导用户怎么修正。 性能测试服务支持报文的请求类型分为GET、POST、PATCH、PUT和DELETE,那么报文如何填写呢? 首先在压测前需要确认请求接口是一个什么动作。 以查询为例,查询消息就是一个GET请求,在配置时选择GET方式即可。 如果请求消息中有涉及输入参数的情况怎么办? 如果一个请求涉及到用户各种信息的输入,可以通过在操作时按“F12”,或抓包工具(例如wireshark)查看报文是怎么请求的,报文体是什么样的格式,如何传送到第三方接口。然后根据实际业务在压测的报文中填写。 一般情况这类请求方式会是一个POST,选择POST方式后,会有联动的选项展示出来。 图1 报文内容 标准的HTTP/HTTPS格式,报文的头域依照抓包的内容填写;报文体就是具体请求的内容,根据被测服务业务来判断,可以是游戏的登录请求,可以是银行的开户请求等等,只要满足HTTP/HTTPS的协议都可以编辑报文进行压测。 PATCH、PUT和DELETE的原理和POST是一样的。首先确认被测应用的协议类型、请求方式和请求链接,其次确认具体请求的内容。 父主题: 压测工程管理
  • 处理方法 单击控制台左上角的,搜索并单击进入“云容器引擎 CCE”。 在左侧导航栏选择“权限管理” ,在搜索框中选择私有资源组所在集群,单击右上角“添加权限”。 图3 添加权限 用户/用户组选择“委托账号”,搜索“perftest_admin_trust”,命名空间为“全部命名空间”,权限类型为“管理员权限”,单击“确定”。 图4 添加权限配置 完成授权之后,进入性能测试服务页面,在“测试资源”页面将创建失败的资源组删除,重新创建即可。
共100000条
提示

您即将访问非华为云网站,请注意账号财产安全