课程简介
随着大语言模型(LLM)技术的迅猛发展,软件测试领域正迎来一场深刻的变革。本课程聚焦 LLM时代下企业级测试的两大核心方向:
1、AI4Test:如何将AI技术(如LLM、Agent、RAG等)应用于传统软件测试,提升测试效率与质量;
2、Test4AI:如何对AI原生应用(如智能客服、Copilot工具等)进行系统化测试与质量保障。
课程结合大量 行业真实案例 和 企业级最佳实践,帮助学员系统掌握LLM与Agent在测试领域的前沿应用,构建面向未来的测试能力体系。
目标收益
1、掌握LLM与Agent核心技术栈
深入理解大语言模型、提示词工程、RAG、Agent设计模式等技术,奠定Test4AI与AI4Test的理论基础。
2、具备AI4Test的落地能力
学会利用LLM生成单元测试、API测试、GUI测试脚本,提升自动化测试的智能化和可维护性。
3、掌握Test4AI的评测体系
系统学习AI原生应用的测试方法与评测流程,掌握模型能力与Agent能力的区分与质量保障策略。
4、获得企业级实战案例经验
通过多个行业真实案例(如智能客服评测、Copilot工具质量保障、需求结构化E2E测试生成等),提升实战能力。
5、拓展软件研发全流程质量视野
了解LLM在需求、设计、编码、测试、发布等各环节的应用,构建AI时代的全流程质量保障体系
培训对象
适合测试开发工程师、质量保障专家、AI应用开发者、技术管理者等角色学习与提升
课程大纲
| 深入理解Test4AI和AI4Test必须具备的LLM知识体系 |
1.大语言模型的基本原理详解 2.LLM应用能力的进阶模型(“倒三角”模型) 3.提示词工程基础知识 4.主流提示词使用技巧 5.提示的万能使用公式详解 6.提示词模板的使用 7.提示词静态链的使用 8.提示词的横向扩展 9.提示词的纵向扩展 10.Jinja2在大模型提示词工程中的应用 11.使用OpenAI API 12.ReAct的概念和落地 13.思维链和多思维链 14.RAG的基本原理与应用 15.多模态RAG的使用 16.plugin机制与使用方式 17.Function Call机制与使用方式 18.MCP机制与使用方式 19.Skill机制与使用方式 20.知识工程的设计 21.Harness Engineering的设计 |
| 深入理解Test4AI和AI4Test必须具备的Agent知识体系 |
1.Agent的雏形 2.Agent开发的基本框架 3.业界主流Agent的设计思路与使用 4.Multi-Agent的雏形 5.业界主流Multi-Agent的设计思路 6.多Agent任务调度策略与选型 7.Agent设计模式与选择 8.Multi-Agent的基本逻辑和应用范围 9.Multi-Agent应用示例:MetaGPT 10.Multi-Agent应用示例:DevChat 11.Agent设计模式:顺序执行链模式与案例详解 12.Agent设计模式:路由模式与案例详解 13.Agent设计模式:并行模式与案例详解 14.Agent设计模式:反思模式与案例详解 15.Agent设计模式:工具使用模式与案例详解 16.Agent设计模式:规划模式与案例详解 17.Agent设计模式:多智能体协作模式与案例详解 18.Agent设计模式:人类参与模式与案例详解 19.Agent设计模式:短期记忆管理模式与案例详解 20.Agent设计模式:长期记忆管理模式与案例详解 |
| AI4Test(将AI技术应用于传统软件测试)技术与行业成功案例 |
1.使用OpenAI API实现单元测试用例的生成 2.LLM用于单元测试用例生成的技术难点与解决思路 3.基于LLM增强传统API自动化测试的行业实践 4.使用OpenAI API实现API接口测试用例的生成 5.使用DeepSeek 实现API组合调用测试用例的生成 6.LLM用于API接口测试用例生成的技术难点与解决思路 7.基于LLM实现可测试性工具的自动生成 8.基于LLM实现测试数据的自动生成 9.基于LLM增强传统GUI自动化测试的行业实践 10.基于LLM增强传统性能测试的行业实践 11.基于LLM增强混沌工程的行业实践 12.测试脚本开发中的GitHub Copilot应用 13.基于OpenClaw实现E2E测试用例的辅助设计与执行 14.基于AI Agent的测试用例设计生成技术 15.基于AI Agent的测试用例脚本生成技术 16.基于Multi-Agent的测试用例设计生成技术 17.基于Multi-Agent的测试用例脚本生成技术 18.使用LLM实现Monkey Test的能力扩展 19.使用LLM实现无脚本的Mobile App探索测试 20.使用LLM识别错误敏感的测试数据 21.使用LLM实现失败测试用例的自动修复 22.使用LLM提升被测对象的可测试性 23.企业级案例:基于需求结构化的E2E GUI自动化测试脚本的生成 |
| Test4AI(AI原生应用如何进行测试)技术与行业成功案例 |
1.从“测试”到“评测” 2.模型评测的技术概览 3.模型评测的基本方法 4.AI原生应用评测的技术概览 5.AI原生应用评测的基本方法 6.AI原生应用评测的“可验证性”理论 7.AI原生应用评测的特殊性和难点 8.区分模型能力和Agent能力 9.AI原生应用评测的完整流程 10.AI原生应用评测的数据集准备 11.AI原生应用质量全生命周期的扩展 12.AI原生应用评测的业界前沿实践 13.AI原生应用评测的发展方向 14.企业级案例:LLM辅助编程工具的评测与质量控制 15.企业级案例:智能客服系统的评测与质量控制 |
| LLM在软件研发全生命周期中的应用(质量视角:大厂独家案详细解读) |
1.软件研发全流程中LLM擅长的部分 2.软件研发全流程中LLM不擅长的部分 3.竞品分析与市场调研阶段LLM的应用场景与案例 4.产品概念与产品定义阶段LLM的应用场景与案例 5.产品原型阶段LLM的应用场景与案例 6.产品体验设计阶段LLM的应用场景与案例 7.需求分析阶段LLM的应用场景与案例 8.技术选型阶段LLM的应用场景与案例 9.顶层设计阶段LLM的应用场景与案例 10.详细设计阶段LLM的应用场景与案例 11.从设计到UML,从UML到代码的完整示例 12.编码阶段LLM的应用场景与案例 13.代码评审阶段LLM的应用场景与案例 14.单元测试阶段LLM的应用场景与案例 15.接口测试阶段LLM的应用场景与案例 16.持续集成流水中LLM的应用场景与案例 17.各类软件工程文档中LLM的应用场景与案例 18.持续发布中LLM的应用场景与案例 19.性能测试阶段LLM的应用场景与案例 20.测试结果分析中LLM的应用场景与案例 |
|
深入理解Test4AI和AI4Test必须具备的LLM知识体系 1.大语言模型的基本原理详解 2.LLM应用能力的进阶模型(“倒三角”模型) 3.提示词工程基础知识 4.主流提示词使用技巧 5.提示的万能使用公式详解 6.提示词模板的使用 7.提示词静态链的使用 8.提示词的横向扩展 9.提示词的纵向扩展 10.Jinja2在大模型提示词工程中的应用 11.使用OpenAI API 12.ReAct的概念和落地 13.思维链和多思维链 14.RAG的基本原理与应用 15.多模态RAG的使用 16.plugin机制与使用方式 17.Function Call机制与使用方式 18.MCP机制与使用方式 19.Skill机制与使用方式 20.知识工程的设计 21.Harness Engineering的设计 |
|
深入理解Test4AI和AI4Test必须具备的Agent知识体系 1.Agent的雏形 2.Agent开发的基本框架 3.业界主流Agent的设计思路与使用 4.Multi-Agent的雏形 5.业界主流Multi-Agent的设计思路 6.多Agent任务调度策略与选型 7.Agent设计模式与选择 8.Multi-Agent的基本逻辑和应用范围 9.Multi-Agent应用示例:MetaGPT 10.Multi-Agent应用示例:DevChat 11.Agent设计模式:顺序执行链模式与案例详解 12.Agent设计模式:路由模式与案例详解 13.Agent设计模式:并行模式与案例详解 14.Agent设计模式:反思模式与案例详解 15.Agent设计模式:工具使用模式与案例详解 16.Agent设计模式:规划模式与案例详解 17.Agent设计模式:多智能体协作模式与案例详解 18.Agent设计模式:人类参与模式与案例详解 19.Agent设计模式:短期记忆管理模式与案例详解 20.Agent设计模式:长期记忆管理模式与案例详解 |
|
AI4Test(将AI技术应用于传统软件测试)技术与行业成功案例 1.使用OpenAI API实现单元测试用例的生成 2.LLM用于单元测试用例生成的技术难点与解决思路 3.基于LLM增强传统API自动化测试的行业实践 4.使用OpenAI API实现API接口测试用例的生成 5.使用DeepSeek 实现API组合调用测试用例的生成 6.LLM用于API接口测试用例生成的技术难点与解决思路 7.基于LLM实现可测试性工具的自动生成 8.基于LLM实现测试数据的自动生成 9.基于LLM增强传统GUI自动化测试的行业实践 10.基于LLM增强传统性能测试的行业实践 11.基于LLM增强混沌工程的行业实践 12.测试脚本开发中的GitHub Copilot应用 13.基于OpenClaw实现E2E测试用例的辅助设计与执行 14.基于AI Agent的测试用例设计生成技术 15.基于AI Agent的测试用例脚本生成技术 16.基于Multi-Agent的测试用例设计生成技术 17.基于Multi-Agent的测试用例脚本生成技术 18.使用LLM实现Monkey Test的能力扩展 19.使用LLM实现无脚本的Mobile App探索测试 20.使用LLM识别错误敏感的测试数据 21.使用LLM实现失败测试用例的自动修复 22.使用LLM提升被测对象的可测试性 23.企业级案例:基于需求结构化的E2E GUI自动化测试脚本的生成 |
|
Test4AI(AI原生应用如何进行测试)技术与行业成功案例 1.从“测试”到“评测” 2.模型评测的技术概览 3.模型评测的基本方法 4.AI原生应用评测的技术概览 5.AI原生应用评测的基本方法 6.AI原生应用评测的“可验证性”理论 7.AI原生应用评测的特殊性和难点 8.区分模型能力和Agent能力 9.AI原生应用评测的完整流程 10.AI原生应用评测的数据集准备 11.AI原生应用质量全生命周期的扩展 12.AI原生应用评测的业界前沿实践 13.AI原生应用评测的发展方向 14.企业级案例:LLM辅助编程工具的评测与质量控制 15.企业级案例:智能客服系统的评测与质量控制 |
|
LLM在软件研发全生命周期中的应用(质量视角:大厂独家案详细解读) 1.软件研发全流程中LLM擅长的部分 2.软件研发全流程中LLM不擅长的部分 3.竞品分析与市场调研阶段LLM的应用场景与案例 4.产品概念与产品定义阶段LLM的应用场景与案例 5.产品原型阶段LLM的应用场景与案例 6.产品体验设计阶段LLM的应用场景与案例 7.需求分析阶段LLM的应用场景与案例 8.技术选型阶段LLM的应用场景与案例 9.顶层设计阶段LLM的应用场景与案例 10.详细设计阶段LLM的应用场景与案例 11.从设计到UML,从UML到代码的完整示例 12.编码阶段LLM的应用场景与案例 13.代码评审阶段LLM的应用场景与案例 14.单元测试阶段LLM的应用场景与案例 15.接口测试阶段LLM的应用场景与案例 16.持续集成流水中LLM的应用场景与案例 17.各类软件工程文档中LLM的应用场景与案例 18.持续发布中LLM的应用场景与案例 19.性能测试阶段LLM的应用场景与案例 20.测试结果分析中LLM的应用场景与案例 |
近期公开课推荐