课程费用

6800.00 /人

课程时长

2

成为教练

课程简介

随着大语言模型(LLM)技术的迅猛发展,软件测试领域正迎来一场深刻的变革。本课程聚焦 LLM时代下企业级测试的两大核心方向:
1、AI4Test:如何将AI技术(如LLM、Agent、RAG等)应用于传统软件测试,提升测试效率与质量;
2、Test4AI:如何对AI原生应用(如智能客服、Copilot工具等)进行系统化测试与质量保障。

课程结合大量 行业真实案例 和 企业级最佳实践,帮助学员系统掌握LLM与Agent在测试领域的前沿应用,构建面向未来的测试能力体系。

目标收益

1、掌握LLM与Agent核心技术栈
深入理解大语言模型、提示词工程、RAG、Agent设计模式等技术,奠定Test4AI与AI4Test的理论基础。
2、具备AI4Test的落地能力
学会利用LLM生成单元测试、API测试、GUI测试脚本,提升自动化测试的智能化和可维护性。
3、掌握Test4AI的评测体系
系统学习AI原生应用的测试方法与评测流程,掌握模型能力与Agent能力的区分与质量保障策略。
4、获得企业级实战案例经验
通过多个行业真实案例(如智能客服评测、Copilot工具质量保障、需求结构化E2E测试生成等),提升实战能力。
5、拓展软件研发全流程质量视野
了解LLM在需求、设计、编码、测试、发布等各环节的应用,构建AI时代的全流程质量保障体系

培训对象

适合测试开发工程师、质量保障专家、AI应用开发者、技术管理者等角色学习与提升

课程大纲

深入理解Test4AI和AI4Test必须具备的LLM知识体系 1.大语言模型的基本原理详解
2.LLM应用能力的进阶模型(“倒三角”模型)
3.提示词工程基础知识
4.主流提示词使用技巧
5.提示的万能使用公式详解
6.提示词模板的使用
7.提示词静态链的使用
8.提示词的横向扩展
9.提示词的纵向扩展
10.Jinja2在大模型提示词工程中的应用
11.使用OpenAI API
12.ReAct的概念和落地
13.思维链和多思维链
14.RAG的基本原理与应用
15.多模态RAG的使用
16.plugin机制与使用方式
17.Function Call机制与使用方式
18.MCP机制与使用方式
19.Skill机制与使用方式
20.知识工程的设计
21.Harness Engineering的设计
深入理解Test4AI和AI4Test必须具备的Agent知识体系 1.Agent的雏形
2.Agent开发的基本框架
3.业界主流Agent的设计思路与使用
4.Multi-Agent的雏形
5.业界主流Multi-Agent的设计思路
6.多Agent任务调度策略与选型
7.Agent设计模式与选择
8.Multi-Agent的基本逻辑和应用范围
9.Multi-Agent应用示例:MetaGPT
10.Multi-Agent应用示例:DevChat
11.Agent设计模式:顺序执行链模式与案例详解
12.Agent设计模式:路由模式与案例详解
13.Agent设计模式:并行模式与案例详解
14.Agent设计模式:反思模式与案例详解
15.Agent设计模式:工具使用模式与案例详解
16.Agent设计模式:规划模式与案例详解
17.Agent设计模式:多智能体协作模式与案例详解
18.Agent设计模式:人类参与模式与案例详解
19.Agent设计模式:短期记忆管理模式与案例详解
20.Agent设计模式:长期记忆管理模式与案例详解
AI4Test(将AI技术应用于传统软件测试)技术与行业成功案例 1.使用OpenAI API实现单元测试用例的生成
2.LLM用于单元测试用例生成的技术难点与解决思路
3.基于LLM增强传统API自动化测试的行业实践
4.使用OpenAI API实现API接口测试用例的生成
5.使用DeepSeek 实现API组合调用测试用例的生成
6.LLM用于API接口测试用例生成的技术难点与解决思路
7.基于LLM实现可测试性工具的自动生成
8.基于LLM实现测试数据的自动生成
9.基于LLM增强传统GUI自动化测试的行业实践
10.基于LLM增强传统性能测试的行业实践
11.基于LLM增强混沌工程的行业实践
12.测试脚本开发中的GitHub Copilot应用
13.基于OpenClaw实现E2E测试用例的辅助设计与执行
14.基于AI Agent的测试用例设计生成技术
15.基于AI Agent的测试用例脚本生成技术
16.基于Multi-Agent的测试用例设计生成技术
17.基于Multi-Agent的测试用例脚本生成技术
18.使用LLM实现Monkey Test的能力扩展
19.使用LLM实现无脚本的Mobile App探索测试
20.使用LLM识别错误敏感的测试数据
21.使用LLM实现失败测试用例的自动修复
22.使用LLM提升被测对象的可测试性
23.企业级案例:基于需求结构化的E2E GUI自动化测试脚本的生成
Test4AI(AI原生应用如何进行测试)技术与行业成功案例 1.从“测试”到“评测”
2.模型评测的技术概览
3.模型评测的基本方法
4.AI原生应用评测的技术概览
5.AI原生应用评测的基本方法
6.AI原生应用评测的“可验证性”理论
7.AI原生应用评测的特殊性和难点
8.区分模型能力和Agent能力
9.AI原生应用评测的完整流程
10.AI原生应用评测的数据集准备
11.AI原生应用质量全生命周期的扩展
12.AI原生应用评测的业界前沿实践
13.AI原生应用评测的发展方向
14.企业级案例:LLM辅助编程工具的评测与质量控制
15.企业级案例:智能客服系统的评测与质量控制
LLM在软件研发全生命周期中的应用(质量视角:大厂独家案详细解读) 1.软件研发全流程中LLM擅长的部分
2.软件研发全流程中LLM不擅长的部分
3.竞品分析与市场调研阶段LLM的应用场景与案例
4.产品概念与产品定义阶段LLM的应用场景与案例
5.产品原型阶段LLM的应用场景与案例
6.产品体验设计阶段LLM的应用场景与案例
7.需求分析阶段LLM的应用场景与案例
8.技术选型阶段LLM的应用场景与案例
9.顶层设计阶段LLM的应用场景与案例
10.详细设计阶段LLM的应用场景与案例
11.从设计到UML,从UML到代码的完整示例
12.编码阶段LLM的应用场景与案例
13.代码评审阶段LLM的应用场景与案例
14.单元测试阶段LLM的应用场景与案例
15.接口测试阶段LLM的应用场景与案例
16.持续集成流水中LLM的应用场景与案例
17.各类软件工程文档中LLM的应用场景与案例
18.持续发布中LLM的应用场景与案例
19.性能测试阶段LLM的应用场景与案例
20.测试结果分析中LLM的应用场景与案例
深入理解Test4AI和AI4Test必须具备的LLM知识体系
1.大语言模型的基本原理详解
2.LLM应用能力的进阶模型(“倒三角”模型)
3.提示词工程基础知识
4.主流提示词使用技巧
5.提示的万能使用公式详解
6.提示词模板的使用
7.提示词静态链的使用
8.提示词的横向扩展
9.提示词的纵向扩展
10.Jinja2在大模型提示词工程中的应用
11.使用OpenAI API
12.ReAct的概念和落地
13.思维链和多思维链
14.RAG的基本原理与应用
15.多模态RAG的使用
16.plugin机制与使用方式
17.Function Call机制与使用方式
18.MCP机制与使用方式
19.Skill机制与使用方式
20.知识工程的设计
21.Harness Engineering的设计
深入理解Test4AI和AI4Test必须具备的Agent知识体系
1.Agent的雏形
2.Agent开发的基本框架
3.业界主流Agent的设计思路与使用
4.Multi-Agent的雏形
5.业界主流Multi-Agent的设计思路
6.多Agent任务调度策略与选型
7.Agent设计模式与选择
8.Multi-Agent的基本逻辑和应用范围
9.Multi-Agent应用示例:MetaGPT
10.Multi-Agent应用示例:DevChat
11.Agent设计模式:顺序执行链模式与案例详解
12.Agent设计模式:路由模式与案例详解
13.Agent设计模式:并行模式与案例详解
14.Agent设计模式:反思模式与案例详解
15.Agent设计模式:工具使用模式与案例详解
16.Agent设计模式:规划模式与案例详解
17.Agent设计模式:多智能体协作模式与案例详解
18.Agent设计模式:人类参与模式与案例详解
19.Agent设计模式:短期记忆管理模式与案例详解
20.Agent设计模式:长期记忆管理模式与案例详解
AI4Test(将AI技术应用于传统软件测试)技术与行业成功案例
1.使用OpenAI API实现单元测试用例的生成
2.LLM用于单元测试用例生成的技术难点与解决思路
3.基于LLM增强传统API自动化测试的行业实践
4.使用OpenAI API实现API接口测试用例的生成
5.使用DeepSeek 实现API组合调用测试用例的生成
6.LLM用于API接口测试用例生成的技术难点与解决思路
7.基于LLM实现可测试性工具的自动生成
8.基于LLM实现测试数据的自动生成
9.基于LLM增强传统GUI自动化测试的行业实践
10.基于LLM增强传统性能测试的行业实践
11.基于LLM增强混沌工程的行业实践
12.测试脚本开发中的GitHub Copilot应用
13.基于OpenClaw实现E2E测试用例的辅助设计与执行
14.基于AI Agent的测试用例设计生成技术
15.基于AI Agent的测试用例脚本生成技术
16.基于Multi-Agent的测试用例设计生成技术
17.基于Multi-Agent的测试用例脚本生成技术
18.使用LLM实现Monkey Test的能力扩展
19.使用LLM实现无脚本的Mobile App探索测试
20.使用LLM识别错误敏感的测试数据
21.使用LLM实现失败测试用例的自动修复
22.使用LLM提升被测对象的可测试性
23.企业级案例:基于需求结构化的E2E GUI自动化测试脚本的生成
Test4AI(AI原生应用如何进行测试)技术与行业成功案例
1.从“测试”到“评测”
2.模型评测的技术概览
3.模型评测的基本方法
4.AI原生应用评测的技术概览
5.AI原生应用评测的基本方法
6.AI原生应用评测的“可验证性”理论
7.AI原生应用评测的特殊性和难点
8.区分模型能力和Agent能力
9.AI原生应用评测的完整流程
10.AI原生应用评测的数据集准备
11.AI原生应用质量全生命周期的扩展
12.AI原生应用评测的业界前沿实践
13.AI原生应用评测的发展方向
14.企业级案例:LLM辅助编程工具的评测与质量控制
15.企业级案例:智能客服系统的评测与质量控制
LLM在软件研发全生命周期中的应用(质量视角:大厂独家案详细解读)
1.软件研发全流程中LLM擅长的部分
2.软件研发全流程中LLM不擅长的部分
3.竞品分析与市场调研阶段LLM的应用场景与案例
4.产品概念与产品定义阶段LLM的应用场景与案例
5.产品原型阶段LLM的应用场景与案例
6.产品体验设计阶段LLM的应用场景与案例
7.需求分析阶段LLM的应用场景与案例
8.技术选型阶段LLM的应用场景与案例
9.顶层设计阶段LLM的应用场景与案例
10.详细设计阶段LLM的应用场景与案例
11.从设计到UML,从UML到代码的完整示例
12.编码阶段LLM的应用场景与案例
13.代码评审阶段LLM的应用场景与案例
14.单元测试阶段LLM的应用场景与案例
15.接口测试阶段LLM的应用场景与案例
16.持续集成流水中LLM的应用场景与案例
17.各类软件工程文档中LLM的应用场景与案例
18.持续发布中LLM的应用场景与案例
19.性能测试阶段LLM的应用场景与案例
20.测试结果分析中LLM的应用场景与案例

活动详情

提交需求