开启左侧

大模型、MCP、Agent、Skills、OpenClaw

[复制链接]
AI小编 发表于 昨天 08:12 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题
作者:CSDN博客
简单来说:大模型是“大脑”,MCP是“通道”,Skills是“技能包”,Agent是“执行者”,而OpenClaw是实现MCP/Agent的一种具体技术框架/工具。
下面我从定义、区别、辅助测试场景三个维度为你详细拆解。
一、核心概念与区别(层级关系图)

我们可以把它们想象成组建一支顶级AI测试特种兵的过程:
概念核心角色形象比喻核心职责技术本质
大模型 (LLM)指挥官将军理解与决策。接收需求,判断测什么,怎么测。通用自然语言处理模型(如GPT-4o、Claude、通义千问)
MCP (Model Context Protocol)通讯兵/联络员对讲机连接与协同。让大模型能调用外部工具、获取实时数据、控制Agent。一种协议/标准,用于大模型与外部系统/工具之间的上下文交互与指令传输。
Skills (技能)特种兵专长爆破手/狙击手具体的能力原子。大模型通过调用Skills来完成特定任务。封装好的函数/API/工具调用,如“接口压力测试”、“代码语法检查”。
Agent (智能体)独立作战单元整兵自主执行。拥有目标、规划、记忆和工具使用能力,闭环完成一项复杂工作。基于大模型构建的应用程序/实体,能感知环境、规划行动并最终产出结果。
OpenClaw战术装备/框架战术背心技术底座。一个开源的MCP/Agent应用框架,帮你快速搭建起上述能力。由Dust Protocol等开发的开源软件框架,用于构建和运行MCP-compatible的Agent。

二、辅助测试场景

为了让你更好地理解,我结合软件测试的真实工作流,模拟这几个概念配合工作的具体场景。
1. 场景一:智能测试用例生成(大模型 + Skills)

这是最基础的应用,利用大模型的理解力和现成的工具技能。
    大模型 (LLM):读取你上传的PRD文档,分析出“用户登录”、“支付流程”等功能点。Skills (技能):调用**“测试用例生成器”Skill**。这个Skill内部可能封装了规则库(如边界值分析、错误推测法)。结果:大模型指挥Skill,输出一份标准的、包含步骤和预期结果的Excel用例。价值:解放双手,快速覆盖功能点。
2. 场景二:自动化接口回归与告警(MCP + Agent + Skills)

这是进阶的“自动化测试”,让AI代替人工监控。
    Agent (智能体):命名为“夜间回归测试官”。它接收到任务,知道每晚12点要跑全量接口。MCP (协议):Agent通过MCP协议,连接到Jenkins(触发流水线)、Prometheus(读取系统监控指标)、Jira(创建缺陷)。
  • Skills (技能)
      调用**“接口压力测试”Skill**。调用**“响应时间分析”Skill**。
    闭环执行:Agent自主规划 -> 通过MCP打通各个系统 -> 调用Skills执行 -> 失败则自动在Jira建单并@负责人。价值:无人值守,7x24小时保障质量,主动发现性能瓶颈。
3. 场景三:智能缺陷定位(大模型 + MCP + OpenClaw)

这是测试效率提升的“杀手锏”,解决开发难复现问题。
    大模型:收到开发反馈,“线上报了一个NullPointerException,但日志太少”。OpenClaw (框架):作为底层框架,OpenClaw帮助大模型快速挂载了数据库查询和日志检索的MCP服务端能力。MCP (通道):大模型通过OpenClaw提供的通道,瞬间拉起一个临时的测试环境AgentSkills:这个Agent调用**“日志抓取”Skill“数据库复现”Skill**。结果:大模型指挥Agent,自动复现环境、抓取现场数据,最终给出一份包含“根因分析”和“修复建议”的报告。价值:快速定位疑难杂症,大幅降低沟通成本。
概念名称核心定位核心特点典型辅助测试场景
大模型基础能力底座,通用大语言/多模态模型提供通用推理、内容生成、语义理解能力,是其他AI能力的基础1. 解析PRD文档,生成结构化测试用例
2. 分析测试日志,定位bug根因
3. 根据接口定义自动生成测试数据
4. 测试报告自动撰写与优化
MCP(Model Context Protocol,模型上下文协议)标准化上下文交互协议统一规范大模型与外部系统、Agent的上下文交互格式,解决不同组件间上下文传输不兼容问题1. 标准化测试流程中「需求→知识库→生成→校验」全链路上下文流转
2. 统一不同大模型对接测试平台的交互格式
3. 保证跨Agent协作时的测试上下文一致性(比如需求校验Agent+用例生成Agent的信息同步)
Agent自主执行任务的智能代理基于大模型,具备自主感知、规划、调用工具、完成目标的能力,可以自动完成端到端流程1. 自动完成「PRD补全→用例生成→校验→知识库更新」全流程
2. 自主扫描测试用例库,发现过期场景自动归档
3. 线上故障发生后,自动拉取日志、复现场景、生成测试报告
4. 持续监控需求变更,自动更新关联测试用例
Skills(Agent技能)Agent的可复用能力单元拆解Agent能力为独立可复用的技能模块,按需组合调用,提升复用性1. 封装「PRD规范化校验」「资损场景识别」「用例格式标准化」为独立技能
2. 根据不同测试场景(功能/接口/安全)按需组合调用对应技能
3. 新增业务线只需新增对应业务技能,无需重构整个Agent
Openclaw开源AI自动化测试框架(基于大模型的测试工具集)集成大模型能力,面向测试场景打造的一体化开源测试框架,封装了多类测试能力1. 基于UI的AI驱动自动化功能测试
2. 接口测试用例自动生成与执行
3. 自动化探索测试,自动挖掘未知异常场景
4. 开源可定制,适合搭建私有化AI测试平台
三、总结与选型建议

    如果你刚入门:先学大模型的Prompt Engineering和Skills(工具调用)。这是门槛。如果你要做团队赋能:重点研究Agent。目标是让团队里有一个“AI测试经理”Agent,能统筹所有项目。如果你关注技术落地OpenClaw是一个很好的技术参考,它展示了如何用标准化的MCP协议去松耦合地集成各种测试工具。它解决的是“大模型如何可靠地控制外部世界”的问题。
这几个概念不是互斥的,优秀的AI测试系统通常是它们的组合:大模型负责思考,Agent负责执行,MCP负责通讯,Skills负责具体动作,而OpenClaw则是搭建这套系统的脚手架。

原文地址:https://blog.csdn.net/qq_42831750/article/details/159167984
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

发布主题
阅读排行更多+

Powered by Discuz! X3.4© 2001-2013 Discuz Team.( 京ICP备17022993号-3 )