AI创想

标题: 大模型、MCP、Agent、Skills、OpenClaw [打印本页]

作者: AI小编    时间: 昨天 08:12
标题: 大模型、MCP、Agent、Skills、OpenClaw
作者:CSDN博客
简单来说:大模型是“大脑”,MCP是“通道”,Skills是“技能包”,Agent是“执行者”,而OpenClaw是实现MCP/Agent的一种具体技术框架/工具。
下面我从定义、区别、辅助测试场景三个维度为你详细拆解。
一、核心概念与区别(层级关系图)

我们可以把它们想象成组建一支顶级AI测试特种兵的过程:
概念核心角色形象比喻核心职责技术本质
大模型 (LLM)指挥官将军理解与决策。接收需求,判断测什么,怎么测。通用自然语言处理模型(如GPT-4o、Claude、通义千问)
MCP (Model Context Protocol)通讯兵/联络员对讲机连接与协同。让大模型能调用外部工具、获取实时数据、控制Agent。一种协议/标准,用于大模型与外部系统/工具之间的上下文交互与指令传输。
Skills (技能)特种兵专长爆破手/狙击手具体的能力原子。大模型通过调用Skills来完成特定任务。封装好的函数/API/工具调用,如“接口压力测试”、“代码语法检查”。
Agent (智能体)独立作战单元整兵自主执行。拥有目标、规划、记忆和工具使用能力,闭环完成一项复杂工作。基于大模型构建的应用程序/实体,能感知环境、规划行动并最终产出结果。
OpenClaw战术装备/框架战术背心技术底座。一个开源的MCP/Agent应用框架,帮你快速搭建起上述能力。由Dust Protocol等开发的开源软件框架,用于构建和运行MCP-compatible的Agent。

二、辅助测试场景

为了让你更好地理解,我结合软件测试的真实工作流,模拟这几个概念配合工作的具体场景。
1. 场景一:智能测试用例生成(大模型 + Skills)

这是最基础的应用,利用大模型的理解力和现成的工具技能。
2. 场景二:自动化接口回归与告警(MCP + Agent + Skills)

这是进阶的“自动化测试”,让AI代替人工监控。
3. 场景三:智能缺陷定位(大模型 + MCP + OpenClaw)

这是测试效率提升的“杀手锏”,解决开发难复现问题。
概念名称核心定位核心特点典型辅助测试场景
大模型基础能力底座,通用大语言/多模态模型提供通用推理、内容生成、语义理解能力,是其他AI能力的基础1. 解析PRD文档,生成结构化测试用例
2. 分析测试日志,定位bug根因
3. 根据接口定义自动生成测试数据
4. 测试报告自动撰写与优化
MCP(Model Context Protocol,模型上下文协议)标准化上下文交互协议统一规范大模型与外部系统、Agent的上下文交互格式,解决不同组件间上下文传输不兼容问题1. 标准化测试流程中「需求→知识库→生成→校验」全链路上下文流转
2. 统一不同大模型对接测试平台的交互格式
3. 保证跨Agent协作时的测试上下文一致性(比如需求校验Agent+用例生成Agent的信息同步)
Agent自主执行任务的智能代理基于大模型,具备自主感知、规划、调用工具、完成目标的能力,可以自动完成端到端流程1. 自动完成「PRD补全→用例生成→校验→知识库更新」全流程
2. 自主扫描测试用例库,发现过期场景自动归档
3. 线上故障发生后,自动拉取日志、复现场景、生成测试报告
4. 持续监控需求变更,自动更新关联测试用例
Skills(Agent技能)Agent的可复用能力单元拆解Agent能力为独立可复用的技能模块,按需组合调用,提升复用性1. 封装「PRD规范化校验」「资损场景识别」「用例格式标准化」为独立技能
2. 根据不同测试场景(功能/接口/安全)按需组合调用对应技能
3. 新增业务线只需新增对应业务技能,无需重构整个Agent
Openclaw开源AI自动化测试框架(基于大模型的测试工具集)集成大模型能力,面向测试场景打造的一体化开源测试框架,封装了多类测试能力1. 基于UI的AI驱动自动化功能测试
2. 接口测试用例自动生成与执行
3. 自动化探索测试,自动挖掘未知异常场景
4. 开源可定制,适合搭建私有化AI测试平台
三、总结与选型建议

这几个概念不是互斥的,优秀的AI测试系统通常是它们的组合:大模型负责思考,Agent负责执行,MCP负责通讯,Skills负责具体动作,而OpenClaw则是搭建这套系统的脚手架。

原文地址:https://blog.csdn.net/qq_42831750/article/details/159167984




欢迎光临 AI创想 (https://llms-ai.com/) Powered by Discuz! X3.4