| 概念 | 核心角色 | 形象比喻 | 核心职责 | 技术本质 |
| 大模型 (LLM) | 指挥官 | 将军 | 理解与决策。接收需求,判断测什么,怎么测。 | 通用自然语言处理模型(如GPT-4o、Claude、通义千问) |
| MCP (Model Context Protocol) | 通讯兵/联络员 | 对讲机 | 连接与协同。让大模型能调用外部工具、获取实时数据、控制Agent。 | 一种协议/标准,用于大模型与外部系统/工具之间的上下文交互与指令传输。 |
| Skills (技能) | 特种兵专长 | 爆破手/狙击手 | 具体的能力原子。大模型通过调用Skills来完成特定任务。 | 封装好的函数/API/工具调用,如“接口压力测试”、“代码语法检查”。 |
| Agent (智能体) | 独立作战单元 | 整兵 | 自主执行。拥有目标、规划、记忆和工具使用能力,闭环完成一项复杂工作。 | 基于大模型构建的应用程序/实体,能感知环境、规划行动并最终产出结果。 |
| OpenClaw | 战术装备/框架 | 战术背心 | 技术底座。一个开源的MCP/Agent应用框架,帮你快速搭建起上述能力。 | 由Dust Protocol等开发的开源软件框架,用于构建和运行MCP-compatible的Agent。 |
| 概念名称 | 核心定位 | 核心特点 | 典型辅助测试场景 |
| 大模型 | 基础能力底座,通用大语言/多模态模型 | 提供通用推理、内容生成、语义理解能力,是其他AI能力的基础 | 1. 解析PRD文档,生成结构化测试用例 2. 分析测试日志,定位bug根因 3. 根据接口定义自动生成测试数据 4. 测试报告自动撰写与优化 |
| MCP(Model Context Protocol,模型上下文协议) | 标准化上下文交互协议 | 统一规范大模型与外部系统、Agent的上下文交互格式,解决不同组件间上下文传输不兼容问题 | 1. 标准化测试流程中「需求→知识库→生成→校验」全链路上下文流转 2. 统一不同大模型对接测试平台的交互格式 3. 保证跨Agent协作时的测试上下文一致性(比如需求校验Agent+用例生成Agent的信息同步) |
| Agent | 自主执行任务的智能代理 | 基于大模型,具备自主感知、规划、调用工具、完成目标的能力,可以自动完成端到端流程 | 1. 自动完成「PRD补全→用例生成→校验→知识库更新」全流程 2. 自主扫描测试用例库,发现过期场景自动归档 3. 线上故障发生后,自动拉取日志、复现场景、生成测试报告 4. 持续监控需求变更,自动更新关联测试用例 |
| Skills(Agent技能) | Agent的可复用能力单元 | 拆解Agent能力为独立可复用的技能模块,按需组合调用,提升复用性 | 1. 封装「PRD规范化校验」「资损场景识别」「用例格式标准化」为独立技能 2. 根据不同测试场景(功能/接口/安全)按需组合调用对应技能 3. 新增业务线只需新增对应业务技能,无需重构整个Agent |
| Openclaw | 开源AI自动化测试框架(基于大模型的测试工具集) | 集成大模型能力,面向测试场景打造的一体化开源测试框架,封装了多类测试能力 | 1. 基于UI的AI驱动自动化功能测试 2. 接口测试用例自动生成与执行 3. 自动化探索测试,自动挖掘未知异常场景 4. 开源可定制,适合搭建私有化AI测试平台 |
| 欢迎光临 AI创想 (https://llms-ai.com/) | Powered by Discuz! X3.4 |