2022 年安徽省职业院校技能大赛(高职组)
“软件测试”赛项竞赛规程
Q讨论裙:611474045
赛项名称:软件测试赛项组别:高职组
赛项归属产业:电子信息大类
(一)引领职业院校专业建设与课程改革
本赛项竞赛内容以《国家职业教育改革实施方案》为设计方针,以电子信息产业发展的人才需求为依据,以软件测试岗位真实工作过程为载体, 全面检验高等职业院校人才培养方案和用人单位岗位要求的匹配程度,检验学生的软件测试工程实践能力和创新能力,通过“以赛促学、以赛促教、以赛促改”,持续推进专业目录、专业教学标准、课程标准、顶岗实习标准、实训条件建设标准建设,从而提高人才培养的针对性、有效性和专业建设水平。
(二)促进产教融合、校企合作、产业发展
目前人才培养供给侧和产业需求侧在结构、质量、水平上还不能完全适应,“两张皮”问题仍然存在。深化产教融合,促进教育链、人才链与产业链、创新链有机衔接,是当前推进人力资源供给侧结构性改革的迫切要求, 对新形势下全面提高教育质量、扩大就业创业、推进经济转型升级、培育经济发展新动能具有重要意义。本赛项按照行业企业软件测试岗位真实工作过程设计竞赛内容,促进教学过程与生产过程对接、课程内容与职业标准对接、专业设置与产业需求对接,最大限度匹配与适应人才培养供给侧
和产业需求侧,从而促进产教融合、校企合作、产业发展。
(三)展示职教改革成果及师生良好精神面貌
本赛项按照行业企业软件测试岗位真实工作过程设计竞赛内容,通过把真实测试项目流程引入教学与备赛,带动全国高职院校培养出一批懂专业、重实践的“双师型”教师。借助本赛项可以考查参赛选手的实际动手能力、规范操作水平、创新创意水平,以及综合职业能力,从而树立广大师生对质量、效率、成本和规范的意识,为中国软件产业发展输送专业的软件测试人才,展示职教改革成果及参赛师生良好精神面貌。
(四)对接 1+X 证书“岗课赛证”综合育人
职业技能等级证书反应职业活动和个人职业生涯发展所需要的综合能力,拓展学生就业创业本领,缓解结构性就业矛盾。本赛项设计竞赛内容过程融入“Web 应用软件测试”、“移动应用软件测试”等职业技能等级证书标准内容,以真实(企业)工作任务为载体,融合企业认证内容,以实际案例为对象,培养学生分析和解决问题能力,推进“岗课赛证”综合育人。
竞赛以“资产管理系统”为被测对象,采用实际操作形式,完成软件测试工作。竞赛突出实战过程,既满足软件产业对高素质技能人才的需求特点, 又符合高等职业院校基于工作过程的课程教学特点。
比赛围绕软件测试应用领域的主流技术及应用,考察选手面对实际问题的综合分析能力,对测试用例、测试方法的设计能力,对软件测试相关技术的掌握程度。考核内容包括:功能测试计划制定、测试用例设计、测试执行和提交 Bug、测试总结报告编写;自动化测试要求分析、测试工具使用、代码编写和测试执行;性能测试要求分析、测试工具使用、测试执
行;单元测试设计测试数据,编写测试脚本,完成编译和程序运行,进行界面截图;接口测试要求分析、测试工具使用和测试执行;团队合作能力以及应用创新能力等职业素养。
竞赛过程包括以下任务:
序号 | 内容模块 | 具体内容 | 说明 |
能够根据需求文档进行需求理解和分析。 | |||
根据软件测试 | 功能测试范围划分和界定。 | ||
制定功能 | 竞赛项目需求, | 功能测试任务分解。 | |
测试计划 | 制定功能测试 | 对功能测试难度进行预估。 | |
计划 | 能够对功能测试工作量和进度进行预估。 | ||
文档编写规范等。 | |||
根据软件测试 | 能使用典型测试方法进行功能测试用例设计。 | ||
设计功能 | 竞赛项目需求, | 对功能测试用例的输入、预计输出、实际输出 | |
任务一 | 测试用例 | 设计功能测试 用例 | 等规范描述。 文档编写规范等。 |
执行功能测试用例 | 执行功能测试用例,提交缺陷报告 | 根据功能测试用例进行测试,发现并记录 Bug。对 Bug 描述、输入、预计输出、实际输出等规范描述,并对 Bug 截图。 文档编写规范等。 | |
根据功能测试用例执行结果编写功能测试总结 | |||
编写功能测试总结 报告 | 编写功能测试总结报告 | 报告。 Bug 汇总统计等。 Bug 分类、Bug 严重等级分析统计等。 | |
文档编写规范等。 | |||
根据自动化测试要求,考查自动化测试理论知 | |||
根据软件自动 | 识、浏览器基本操作、页面元素进行识别并定 | ||
任务二 | 自动化测试 | 化测试的要求, 编写并执行自 动化测试脚本 | 位、Selenium 基本方法使用、Unittest 框架、数据驱动、数据断言、Page Object 设计模式、数 据驱动+Page Object 模式等,以及自动化测试 |
脚本编写,执行自动化测试脚本。 | |||
任务三 | 性能测试 | 根据软件性能测试的要求,执行性能测试 | 根据性能测试要求分析性能测试的压力点,使用性能测试工具(JMeter 及 LoadRunner),添加脚本,设置场景,执行性能测试,截取过程及 结果截图。 |
任务四 | 单元测试 | 根据软件测试 竞赛项目需求, 编写应用程序, 设计测试数据 并得出测试结 | 根据单元测试要求,编写应用程序、设计测试数据,考查语句、判定、条件等覆盖方法,考察 JUnit 断言、参数化设置、测试套件等方法, 并最终得出测试结果,编写单元测试报告。 |
果,编写单元测 试报告 | |||
任务五 | 接口测试 | 根据软件接口测试的要求,执行接口测试 | 根据接口测试要求,使用接口测试工具,考查用例接口请求设置、用例参数设置、变量设置、测试断言、数据驱动、添加 Cookie 等,执行接 口测试,截取过程及结果截图。 |
竞赛各任务分值权重和时间分布如下:
序号 | 任务名称 | 竞赛时间 |
任务一 | 制定测试计划,权重 5% | 300 分钟 |
设计测试用例,权重 15% | ||
执行测试用例,权重 15% | ||
编写测试总结报告,权重 5% | ||
任务二 | 自动化测试,权重 20% | |
任务三 | 性能测试,权重 20% | |
任务四 | 单元测试,权重 10% | |
任务五 | 接口测试,权重 5% | |
职业素养,权重 5% |
日期 | 时间 | 内容 | 地点 |
11 月 18 日 | 14:00-18:00 | 各参赛队报到 | 住宿酒店 |
15:00-16:00 | 领队会、赛前说明 | 会议室 | |
16:00-16:30 | 选手熟悉赛场 | 竞赛场地 | |
11 月 19 日 | 07:00-08:00 | 赛场检录 | 竞赛场地 |
08:00-09:00 | 信息加密,入场等候 | 竞赛场地 | |
09:00-14:00 | 比赛进行 | 竞赛场地 | |
15:00-20:00 | 成绩评定 | 评分会议室 |
六、竞赛试题
七、竞赛规则
参赛代表队在实施竞赛项目时要求遵循如下规范:
序号 | 标准号 | 中文标准名称 |
1 | GB/T15532—2008 | 计算机软件测试规范 |
2 | GB/T16260—2006 | 软件工程 产品质量 |
3 | GB/T9385—2008 | 计算机软件需求规格说明规范 |
4 | GB/T18905—2002 | 软件工程 产品评价 |
5 | GB/T8567-2006 | 计算机软件文档编制规范 |
6 | GB/T25000.1-2010 | 软件质量要求与评价(SQuaRE)指南 |
7 | GB/T25000.10-2016 | 软件质量要求与评价(SQuaRE)第 10 部分:系 统与软件质量模型 |
8 | GB/T25000.51-2016 | 软件质量要求与评价(SQuaRE)第 51 部分:商业现货 (COTS)软件产品的质量要求与评测细则 |
9 | GB/T25000.62-2014 | 软件质量要求与评价(SQuaRE)易用性测试报告行业通用格式(CIF) |
(一)竞赛设备
设备类别 | 数量 | 设备用途 | 基本配置 |
服务器 | 每支参赛队 2 套 | 1 套功能自动化测试服务器, 内嵌软件测试实训系统、功能测试被测系统、自动化测试被测系统;1 套性能测试服务 器,内嵌性能测试被测系统。 | 性能相当于 2.0GHZ 处理器,4G 及以上内存。 |
客户端 | 每支参赛队 2 台 | 竞赛选手比赛使用。 | 性能相当于 2.0GHZ 处理器,4G 及以上内存。 |
(二)竞赛软件平台
北京四合天地科技有限公司提供的比赛技术平台:《四合天地软件测试实训系统》。
(三)相关软件
设备类别 | 软件类别 | 软件名称 |
服务器 | 操作系统 | Ubuntu |
客户端自带软件 | 操作系统 | Windows10 64 位 |
浏览器 | Chrome 67 IE11 | |
浏览器驱动 | Chrome 67 对应驱动-Chromedriver | |
文档编辑器 | WPS | |
截图工具 | Windows10 系统自带 | |
输入法 | 搜狗拼音输入法、搜狗五笔输入法 | |
性能测试工具 | Apache-JMeter-5.4.1 FiddlerSetup JDK-11.0.11_Windows-X64_bin.exe LoadRunner12.55_Community_Edition 英 |
文版及以上 | ||
自动化测试工具 | Python-3.5.0-amd64 Selenium 版本 3.141.0 ddt 版本 1.4.1 PyCharm(2017.1.1) | |
单元测试工具环境 | JDK-14.0.2_Windows-X64_bin.exe Eclipse_Version:2022-03(4.23.0) junit-4.13.2.jar hamcrest-core-1.3.jar hamcrest-library-1.3.jar | |
接口测试工具 | Postman-win64-6.6.1-Setup |
(一)评分细则(总分 100 分)
任 务 | 考查点 | 评分标准 | 评分细则 | 分值(分) |
任务一 | 制定测试计划 | 测试计划应包括测试目的、测试范围、测试人员、测试环境、测试人员进度安排与模块划分等。 主要评分点包括明确测试范围、合理并完备的进行任务分配、制定有效完备的测试策略等。 | 1.概述说明清晰。 | 5 |
2.测试任务说明清晰。 | ||||
3.测试资源说明清晰。 | ||||
4.功能测试计划列出全部功能 点。 | ||||
5.对每个功能点进行分工。 | ||||
6.功能点的测试分工合理。 | ||||
7.测试整体进度安排说明清晰。 | ||||
8.相关风险说明清晰。 | ||||
设计功能测试用例 | 测试用例包括功能测试用 例。测试用例文档应包括: 测试用例编号、功能点、用例说明、前置条件、输入、执行步骤、预期结果、重要程度。 | 1.用例数量。每写一条规范的测试用例得分=4/用例数量(不能有重复的测试用例,编写要符合 需求且正确)。 | 15 | |
2.重点测试用例数量。每发现 1 个得分=10/重点测试用例数量 (不能有重复的测试用例,编写 要符合需求且正确)。 | ||||
3.测试用例编写符合测试用例规范。 | ||||
执行功能测试用例 | Bug 提交包括功能缺陷等。Bug 提交文档应包括缺陷编号、角色、模块名称、摘要描述、操作步骤、预期结果、实际结果、缺陷严重程 度、提交人、截图等。 | 1.Bug 数量。每发现一个 Bug 得分=4/Bug 数量(Bug 描述要规 范且正确,重复的 Bug 不计入 B ug 数量)。 | 15 | |
2.重点 Bug 数量。每发现一个重 点 Bug 得分=10/重点 Bug 数量 |
(Bug 描述要规范且正确,重复 的 Bug 不计入 Bug 数量)。 | ||||
3.测试 Bug 缺陷报告清单编写 符合规范,每一项均需要填写, 否则得 0 分。 | ||||
编写测试总结报告 | 测试总结报告应包括测试 目的、测试环境、测试人员、测试进度情况、Bug 汇总、测试结论等。 主要评分点包括:测试总结报告内容完整。 | 1.测试概述、测试参考文档、项 目组成员、测试设计介绍填写完整。 | 5 | |
2.用例汇总填写完整。 | ||||
3.测试进度回顾填写完整。 | ||||
4.功能测试回顾描述清晰合理。 | ||||
5.缺陷汇总填写完整。 | ||||
6.测试结论描述清晰合理。 | ||||
任务二 | 自动化测试执行 | 自动化测试执行包括自动化测试脚本编写,执行自动化测试脚本,完成自动化测 试总结报告。 | 1.术语定义描述清晰 | 20 |
2.自动化测试脚本代码正确性。 | ||||
任务三 | 性能测试执行 | 性能测试执行包括使用性能测试工具,添加脚本、回放脚本、配置参数、设置场景、执行性能测试,对测试过程和结果进行截图,完成 性能测试报告。 | 1.术语定义描述清晰。 | 20 |
2.测试策略描述清晰。 | ||||
3.性能测试实施过程执行截图 正确性。 | ||||
4.执行结果填写完整。 | ||||
任务四 | 单元测试执行 | 按照要求编写 Java 程序, 设计测试用例,执行单元测试,编写单元测试报告 | 1.程序源代码 | 10 |
2.测试数据和测试方法代码 | ||||
3.执行结果截图 | ||||
任务五 | 接口测试执行 | 接口测试执行包括使用接口测试工具进行设置,对测试过程和结果进行截图,完 成接口测试总结报告。 | 1.术语定义描述清晰。 | 5 |
2.接口测试实施过程执行截图正确性。 | ||||
职业素养 | 竞赛现场符合企业“5S”(整理、整顿、清扫、清洁和素养)原则, | 1.团队分工明确合理。 | 5 | |
2.操作规范。 | ||||
3.文明竞赛。 |
(二)组织分工
(三)评分方法
竞赛设团体奖。竞赛奖以实际参赛队数为基数,设定为:一等奖占比 1 0%,二等奖占比 20%,三等奖占比 30%。
赛场备用工位:赛场提供占总参赛队伍 10%的备用工位。
竞赛系统可靠性:竞赛系统使用的服务器应进行冗余,数据库、存储
应使用高可用架构。提前开始运行,经过多次压力测试,由学校组织的真实竞赛环境测试。
竞赛备用服务器:现场提供占总参赛队伍 10%的备用服务器。现场应急预案详情,如下:
(一)服务器问题预案
若服务器在比赛过程中出现卡顿、死机等情况,参赛选手举手示意裁判,在裁判与技术支持人员确定情况后,可更换服务器。更换服务器的等待时间,可在比赛结束后延时。
(二)交换机问题预案
若交换机在比赛过程中出现传输速度慢或无故中断等情况,参赛选手举手示意裁判,在裁判与技术支持人员确定情况后,可更换交换机。更换交换机的等待时间,可在比赛结束后延时。
(三)PC 机问题预案
若 PC 机在比赛过程中出现死机、蓝屏等现象(重启后无法解决),参赛选手举手示意裁判,在裁判与技术支持人员确定情况后,可更换备用工位或更换 PC 机进行答题。
赛场严格按照国家防疫措施执行,以对应突发情况发生。
赛事安全是技能竞赛一切工作顺利开展的先决条件,是赛事筹备和运行工作必须考虑的核心问题。采取切实有效措施保证大赛期间参赛选手、指导教师、裁判员、工作人员及观众的人身安全。
(一)比赛环境
对安全工作提出明确要求。赛场的布置,赛场内的器材、设备,应符合国家有关安全规定。如有必要,也可进行赛场仿真模拟测试,以发现可能出现的问题。承办院校赛前须按照要求排除安全隐患。
(二)生活条件
安排好少数民族选手和教师的饮食起居。
(三)组队责任
(四)应急处理
比赛期间发生意外事故时,发现者应在第一时间报告,同时采取措施, 避免事态扩大。立即启动预案予以解决。出现重大安全问题的赛项可以停赛,是否停赛由大赛执委会决定。事后,承办校应向大赛执委会报告详细情况。
(五)处罚措施
(一)参赛队须知
《全国职业院校技能大赛奖惩办法》给予警告、取消比赛成绩、通报批评等处理。其中,对于比赛过程及有关活动造成重大影响的,以适当方式通告参赛院校或其所属地区的教育行政主管部门依据有关规定给予行政或纪律处分,同时停止该院校参加全国职业院校技能大赛 1 年(届)。涉及刑事犯罪的移交司法机关处理。
(二)指导教师须知
(三)参赛选手须知
判员有权中止该队比赛。
(四)工作人员须知
确保大赛圆满成功。
(一)组织安排
为预防控制新冠肺炎疫情,不能进入赛场进行公开观摩。在竞赛开始 1
个小时之后,由承办校组织并派人带领各队领队和指导教师,以及观摩人员在赛场指定的观摩区观摩比赛。
(二)纪律要求
为保证大赛顺利进行,在观摩期间应遵循以下纪律要求:
附件 1:软件测试赛项竞赛任务书(样卷)
2022 年安徽省职业院校技能大赛高职组
“软件测试”赛项竞赛任务书(样卷)
一、竞赛时间、内容及成绩组成
本次竞赛时间共为 5 小时,参赛选手自行安排任务进度,休息、饮水、如厕等不设专门用时,统一含在竞赛时间内。
本次竞赛考核技能点包括:功能测试计划制定、测试用例设计、测试执行和提交Bug、测试总结报告编写;自动化测试要求分析、测试工具使 用、代码编写和测试执行;性能测试要求分析、测试工具使用、测试执行; 单元测试设计测试数据,编写测试脚本,完成编译和程序运行,进行界面截图;接口测试要求分析、测试工具使用和测试执行;团队合作能力以及应用创新能力等职业素养。
“软件测试”赛项竞赛成绩为 100 分,其中职业素养占 5 分,竞赛任务占
95 分。各项竞赛任务占总分权重如下:
序号 | 竞赛任务名称及占总分权重 |
任务一 | 制定测试计划,权重 5% |
设计测试用例,权重 15% | |
执行测试用例,权重 15% | |
编写测试总结报告,权重 5% | |
任务二 | 自动化测试,权重 20% |
任务三 | 性能测试,权重 20% |
任务四 | 单元测试,权重 10% |
任务五 | 接口测试,权重 5% |
1、本次竞赛平台地址、用户名及密码,功能测试被测系统地址、用户名及密码,自动化测试被测系统地址、用户名及密码,性能测试被测系统地址、用户名及密码,以竞赛现场发放为准;
2、本次竞赛提交的所有成果物及 U 盘中不能出现参赛队信息和参赛选手信息,竞赛文档需要填写参赛队及参赛选手信息时以工位号代替;
3、本次竞赛提交的 U 盘中只能保存竞赛成果文档,与竞赛成果无关的文件均不能出现在此 U 盘中;
4、请不要擅自更改竞赛环境(包括强行关闭竞赛服务器),对于擅自更改竞赛环境所造成的后果,由参赛选手自行承担,对于恶意破坏竞赛环境的参赛选手,根据大赛制度予以处理;
5、竞赛过程中参赛选手必须及时保存需要提交的文档(Wrod 及Excel 文档),未及时保存而造成相关文档内容缺失或无法保存,后果由参赛选手自行承担;
6、自动化测试严格按照《A7-BS 资产管理系统自动化测试要求》编写自动化测试脚本,擅自恶意编写无限循环或破坏环境脚本造成系统死机或软件出现问题,后果由参赛选手自行承担;
7、性能测试请严格按照《A9-BS 资产管理系统性能测试要求》设置并发数量和执行时间,擅自提高并发数量和延长执行时间造成的后果由参赛选手自行承担;
8、性能测试过程中,参赛选手可根据需要重置数据库或者重启Tomca
t 服务。重置数据库后数据恢复到开赛初始状态,此结果由参赛选手自行承担(严禁使用JMeter、LoadRunner 访问性能测试-重置数据库和重启Tomc at 服务地址)。重置数据库和重启Tomcat 服务的动作以服务器日志记录为准。重置数据库或者重启 Tomcat 服务不设专门用时(包括现场技术支持), 统一含在竞赛时间内;
9、单元测试过程中,JDK 所含内容及其在系统中的路径设置擅自进行删除、修改;Eclipse 中已建好的项目工程、已安装的相关jar 包擅自删除; Workspace 的默认目录擅自修改;以上事项若擅自进行而造成程序无法编 译、运行的后果,由参赛选手自行承担;
10、竞赛结束后请竞赛选手不要关闭竞赛设备,由于竞赛选手关闭竞赛设备造成的数据丢失等后果由参赛选手自行承担;
11、竞赛中出现各种问题请及时向现场裁判举手示意,不要影响其他参赛选手。
竞赛环境由服务器A、服务器B、客户机 1、客户机 2 组成。
服务器部署说明:服务器 A 中部署竞赛平台(下载文档,上传文档)、功能测试被测系统、自动化测试被测系统,服务器 B 中部署性能测试被测系统。
客户机部署说明:客户机 1 已安装PostMan、Eclips、PyCharm、WPS
相关环境;客户机 2 已安装LoadRunner、JMeter、WPS 等相关环境。
客户机访问限制说明:客户机 1 可访问竞赛平台、功能测试被测系统、
自动化测试被测系统,客户机 2 可访问性能测试被测系统。
任务对应被测系统说明:任务一使用功能测试被测系统完成;任务二使用自动化测试被测系统完成;任务三使用性能测试被测系统完成;任务
四不需要使用系统;任务五使用功能测试被测系统完成。
序号 | 文档名 | 文档下载位置 |
1 | A1-BS 资产管理系统需求说明书.doc | 竞赛平台 |
2 | A2-功能测试计划模板.doc | |
3 | A3-功能测试用例模板.xls | |
4 | A4-功能测试 Bug 缺陷报告清单模板.xls | |
5 | A5-功能测试总结报告模板.doc | |
6 | A6-BS 资产管理系统自动化测试要求.doc | |
7 | A7-自动化测试报告模板.doc | |
8 | A8-BS 资产管理系统性能测试要求.doc | |
9 | A9-性能测试报告模板.doc | |
10 | A10-单元测试要求.doc | |
11 | A11-单元测试报告模板.doc | |
12 | A12-BS 资产管理系统接口测试要求.doc | |
13 | A13-接口测试报告模板.doc |
(三)任务组成
一、制定功能测试计划(5 分)
1、任务描述
根据《A1-BS 资产管理系统需求说明书》进行需求分析,划分和界定测试范围,分解测试任务,预估测试风险、测试工作量和测试进度。按照
《A2-功能测试计划模板》完成功能测试计划文档。
2、任务要求
功能测试计划文档应包括以下内容:
3、任务成果
XX-A2-功能测试计划.doc(XX 代表工位号) 二、设计功能测试用例(15 分)
1、任务描述
根据《A1-BS 资产管理系统需求说明书》和功能测试计划进行需求分析,理解业务功能,设计功能测试用例。按照《A3-功能测试用例模板》完成功能测试用例文档。
2、任务要求
功能测试用例文档应包括以下内容:
3、任务成果
XX-A3-功能测试用例.xls(XX 代表工位号) 三、执行功能测试用例(15 分)
1、任务描述
根据《A1-BS 资产管理系统需求说明书》和功能测试用例,执行功能测试,发现Bug、记录 Bug 并对Bug 截图。按照《A4-功能测试 Bug 缺陷报告清单模板》完成功能测试Bug 缺陷报告清单文档。
2、任务要求
①按模块和Bug 严重程度汇总Bug 数量;
②Bug 缺陷报告清单应包含以下项目:缺陷编号、角色、模块名称、摘要描述、操作步骤、预期结果、实际结果、缺陷严重程度、提交人(工位号)、附件说明(截图)。
①使用谷歌浏览器(Chrome)执行 Web 端功能测试(含界面测试);
3、任务成果
XX-A4-功能测试 Bug 缺陷报告清单.xls(XX 代表工位号) 四、编写功能测试总结报告(5 分)
1、任务描述
根据功能测试情况,按照《A5-功能测试总结报告模版》完成功能测试总结报告文档。
2、任务要求
功能测试总结报告文档应包括以下内容:
3、任务成果
XX-A5-功能测试总结报告.doc(XX 代表工位号) 任务二:自动化测试(20 分)
1、任务描述
根据《A6-BS 资产管理系统自动化测试要求》文档,对页面元素进行
识别和定位、编写自动化测试脚本并执行脚本,将脚本粘贴在自动化测试报告中。按照《A7-自动化测试报告模板》完成自动化测试报告文档。
2、任务要求
①简介:目的、术语定义。
②自动化测试脚本编写:第一题脚本、第二题脚本、第三题脚本、第四题脚本。
使用 1 号客户机上安装的 PyCharm 作为编写自动化测试脚本工具。注意:运行自动化测试脚本过程中,出现报错(网址输入错误、定位
编写自动化测试脚本时对于单引号、双引号、括号和点要在英文状态下进行编写;在将自动化测试脚本粘贴到自动化测试报告时要和在 PyCharm 中的脚本格式保持一致,同时在粘贴时不要出现将所有代码粘贴在一行中或出现空行情况。
3、任务成果
XX-A7-自动化测试报告.doc(XX 代表工位号) 任务三:性能测试(20 分)
1、任务描述
根据《A8-BS 资产管理系统性能测试要求》文档,使用性能测试工具添加脚本、回放脚本、配置参数、设置场景、执行性能测试,对测试过程
和结果进行截图。按照《A9-性能测试报告模板》完成性能测试报告文档。
2、任务要求
①简介:目的、术语定义。
②测试策略:测试方法、用例设计、测试场景。
③性能测试实施过程:性能测试脚本设计、性能测试场景设计与场景执行、性能测试结果。
④执行结果。
使用 2 号客户机 上安装的JMeter、LoadRunner 作为性能测试工具。注意:1、性能测试过程中,出现录制失败、回放失败、脚本执行失败、
用 LoadRunner 进行性能测试时,点击开始录制后若弹出“安全警告”, 点击“是”即可;结束录制后若弹出“根证书存储”,点击“是”即可, 具体图示参考《LoadRunner 已知常见问题汇总》—七。
3、任务成果
XX-A9-性能测试报告.doc(XX 代表工位号) 任务四:单元测试(10 分)
1、任务描述
根据《A10-单元测试要求》文档进行Java 应用程序的编写,设计测试数据,编写单元测试脚本,使用Eclipse 下执行,完成编译和程序运行,运
行结果进行界面截图。按照《A11-单元测试报告模板》完成单元测试报告文档。
2、任务要求
使用 1 号客户机上提供的Eclipse 相关环境完成单元测试。
3、任务成果
XX-A11-单元测试报告.doc(XX 代表工位号) 任务五:接口测试(5 分)
1、任务描述
根据《A12-BS 资产管理系统接口测试要求》,使用接口测试工具进行发送请求、变量设置等内容,对测试过程和结果进行截图。按照《A13-接口测试报告模板》完成接口测试报告文档。
①简介:目的、术语定义。
②接口测试实施过程。
③执行结果。
使用 1 号客户机上安装的 Postman 作为接口测试工具。
XX-A13-接口测试报告.doc(XX 代表工位号)
1、提交方式
任务成果文档需同时在竞赛平台和U 盘中进行提交(所有文档在竞赛平台和U 盘中不得以压缩包形式提交),如果竞赛平台和U 盘中提交的文档内容不一致,以 U 盘为准。提交前请按照竞赛提交文档检查表进行检查。在U 盘中以 XX 工位号建一个文件夹(例如 01),将所有竞赛成果文档保存至该文件夹中,不按照要求命名后果自行承担。
2、文档要求
竞赛提交的所有文档中不能出现参赛队信息和参赛选手信息,竞赛文档需要填写参赛队信息时以工位号代替(XX 代表工位号),竞赛文档需要
填写参赛选手信息时以工位号和参数选手编号代替(举例:21_03,21 代表工位号,03 代表 3 号参赛选手)。
3、竞赛提交文档检查表
序号 | 文档名(XX 代表工位号) | 提交方式 |
1 | XX-A2-功能测试计划.doc | 竞赛平台和 U 盘 |
2 | XX-A3-功能测试用例.xls | 竞赛平台和 U 盘 |
3 | XX-A4-功能测试 Bug 缺陷报告清单.xls | 竞赛平台和 U 盘 |
4 | XX-A5-功能测试总结报告.doc | 竞赛平台和 U 盘 |
5 | XX-A7-自动化测试报告.doc | 竞赛平台和 U 盘 |
6 | XX-A9-性能测试报告.doc | 竞赛平台和 U 盘 |
7 | XX-A11-单元测试报告.doc | 竞赛平台和 U 盘 |
8 | XX-A13-接口测试报告.doc | 竞赛平台和 U 盘 |