开启左侧

瞎玩openclaw

[复制链接]
米落枫 发表于 3 天前 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题
作者:CSDN博客
什么是openclaw

OpenClaw是一个赋予大模型“动手能力”的开源自托管框架,被狂热支持者称为“长了手的AI
    核心颠覆:传统ChatGPT只能“建议”,你必须亲自复制粘贴、点鼠标;OpenClaw让你用一句话指令,AI就能自主操作你的鼠标、键盘、文件系统以及各类App(订机票、回邮件、理财、购物)。
    出身:由奥地利开发者彼得·施泰因贝格尔(Peter Steinberger,前PSPDFKit创始人,套现约1.19亿美元后“无聊复出”)开发。
    底层引擎:依赖另一位奥地利“退休”游戏开发者马里奥·泽赫纳(Mario Zechner)的pi-mono工具包,堪称“引擎与跑车的分工”
OpenClaw 优缺点全景评估

维度
优点(创新的高度)
缺点/风险(现实的深渊)
核心体验“活的AI”交互:通过消息适配器接入微信/钉钉/QQ/Telegram等50+平台,像指挥真人一样发指令干活,AI会主动协商、动态反馈、遇障换策略,产生强烈的“被AI壁咚”的拟人感
不是大众软件:项目维护者明确警告“不理解命令行则极为危险”,普通用户连安装体验的门槛都跨不过去
能力边界真·动手干活:不再仅限聊天,可操作本地文件、收发邮件、管理日程、控制IoT设备、写代码跑脚本。能做自己不会的任务,可现学新技能或调用其他智能体协作
Token熔炉:单次注册X账号消耗55美元API费用,20分钟烧掉数百万Token、花费上百美元是常态。成本模型与企业级高频使用完全冲突
安全与隐私本地优先架构:数据默认存于自有设备(电脑/云服务器),不上传第三方,理论上数据主权自主。云厂商(阿里云等)已提供一键部署+沙箱环境
高危漏洞实锤:  
CVE-2026-24763:命令注入,CVSS 8.8(高危)  
CVE-2026-25475:路径遍历,可读取任意文件(/etc/passwd、SSH密钥)
RCE漏洞:恶意网页点击即窃取令牌,完全控制网关(已修复)
生态与扩展开源且自由定制:GitHub星标18.6万,3.2万Fork,130+贡献者。开发者可改代码、自研Skill、自由切换模型
Skill市场失控:数万个技能包未经严格审核,恶意代码可窃据设备。沙箱隔离则功能阉割,不隔离则裸奔
适用场景确定性重复劳动的神器:批量处理文件、生成报表、代码重构预审等。人类定边界+AI执行+分步审核,效率提升显著
商业化的死结:高成本+高风险+模型调度不稳(长上下文准确率暴跌)。企业普遍“主动延迟”采用,钉钉、印象笔记等明确建议极客先用,普通人暂勿碰
瞎玩的开始

鉴于openclaw的安全风险极高,个人电脑想要玩最好还是在隔离的环境中,所以准备工作
    笔记本一台(windows11)
    virtualbox(虚拟机环境)
    ollama
    openclaw
    飞书机器人基本架构思路笔记本宿主机windows,开启ollama程序,为整个环境提供大模型能力 virtualbox虚拟机ubuntu,开启openclaw程序,为整个环境提供操作能力 飞书机器人,为整个环境提供可访问入口 笔记本宿主机(ollama)<-> virtualbox(openclaw)<-> 飞书(机器人) <->  web/手机
    瞎玩的开始-环境准备

ollama

1. 下载

https://ollama.com/单击右上角【Download】下载ollama软件
2. 安装

单击【OllamaSetup】,安装ollama软件
3. 下载模型

https://ollama.com/
    在最上侧正中央的【Search models】写入合适的models名称,按【回车】键查找 比如:qwen3-vl,查找到qwen3-vl,选择一个合适参数大小的模型,比如qwen3-vl:4b
    打开Windows PowerShell,键入【ollama pull qwen3-vl:4b】,下载模型
4. 环境变量调整

因为后续是使用虚拟机来访问ollama,而ollama默认是使用127.0.0.1,所以需要依靠环境变量调整ollama绑定0.0.0.0
    右键【此电脑】,选择【属性】单击
    单击【高级系统设置】
    选择【环境变量(N)】
    选择【系统变量】下的【新建】单击,在弹出的窗口中的【变量名(N)】写入OLLAMA_HOST,【变量值(V)】写入0.0.0.0 变量名:OLLAMA_HOST 变量值:0.0.0.0
    单击【确定】
    重启ollama服务
5. 防火墙设置

关闭windows的防火墙,防止windows与虚拟机中的ubuntu互访受限
    windows安全中心
    关闭专用和公用防火墙
虚拟机

教程参考【https://cloud.tencent.com/developer/article/1784010】
1. 下载virtualbox

https://www.oracle.com/cn/virtualization/technologies/vm/downloads/virtualbox-downloads.html?source=:ow:o:p:nav:mmddyyVirtualBoxHero_cn&intcmp=:ow:o:p:nav:mmddyyVirtualBoxHero_cn
    下载安装包(Windows Installer)
    单击安装包,按默认配置进行安装
2. 下载ubuntu并安装

https://ubuntu.com/download/desktop
    选择一个合适的镜像,下载镜像文件,我选择了Ubuntu 24.04.4 LTS
    使用virtualbox配置虚拟机,使用ubuntu镜像安装ubuntu系统
openclaw

下载openclaw(openclaw-cn)

https://github.com/openClaw/openClawhttps://github.com/jiulingyun/openclaw-cn
依赖安装

    node.js(version>=22) curl -fsSL https://deb.nodesource.com/setup_22.x | sudo bash - sudo apt-get install -y nodejs
安装openclaw

因为依赖关系搞得晕头转向,直接采用源码编译的方式 git clone https://github.com/jiulingyun/openclaw-cn.git or git clone https://github.com/openClaw/openClaw.gitcd openclaw-cn or cd openclaw
pnpm install pnpm ui:build pnpm build
pnpm openclaw-cn onboard --install-daemon
设置openclaw

源码编译后,如果想要使用openclaw命令,可以自己编写一个shell脚本
    vim /bin/openclaw
    按如下内容填写,假设源码下载到了/root/openclaw
  1. #!/bin/bash
  2. cd /root/openclaw
  3. pnmp openclaw "$*"
复制代码
    chmod 755 /bin/openclaw
设置本地大模型(注意防火墙)

    openclaw onboard
    选择QuickStart设置
    调整openclaw.json的配置 主要调整的是agents和models配置,agents主要调整model和models两个配置,两个配置要与ollama中的一致,models主要调整providers中的baseUrl配置
  1. {
  2.   "agents": {
  3.     "defaults": {
  4.       "maxConcurrent": 4,
  5.       "model": {
  6.         "primary": "ollama/qwen3-vl:4b"
  7.       },
  8.       "models": {
  9.         "ollama/qwen3-vl:4b": {}
  10.       },
  11.       "subagents": {
  12.         "maxConcurrent": 8
  13.       },
  14.       "workspace": "/root/cn/openclaw-cn"
  15.     }
  16.   },
  17.   "models": {
  18.     "providers": {
  19.       "ollama": {
  20.         "api": "openai-completions",
  21.         "apiKey": "ollama-local",
  22.         "baseUrl": "http://192.168.56.1:11434/v1",
  23.         "models": [
  24.           {
  25.             "contextWindow": 131072,
  26.             "cost": {
  27.               "cacheRead": 0,
  28.               "cacheWrite": 0,
  29.               "input": 0,
  30.               "output": 0
  31.             },
  32.             "id": "qwen3-vl:4b",
  33.             "input": [
  34.               "text"
  35.             ],
  36.             "maxTokens": 16384,
  37.             "name": "qwen3-vl:4b",
  38.             "reasoning": false
  39.           }
  40.         ]
  41.       }
  42.     }
  43.   },
  44. }
复制代码
飞书机器人

    飞书开发者后台
    创建应用
    填写应用信息
    获取自己的应用凭证
    给应用添加机器人
    给应用配置权限
    创建版本并发布
    安装飞书插件
    回到飞书后台设置事件回调 具体可参考 https://cloud.tencent.com/developer/article/2626160 第五章
瞎玩-效果

整体运行无问题,但是效果不是很好,在飞书机器人问个天气的问题,响应时间至少2分钟,反馈的结果也不好,推测应该是使用了裁剪版本的大模型的原因,后续再换个全量大模型试试。

原文地址:https://blog.csdn.net/vhghhd/article/details/158262038
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

发布主题
阅读排行更多+

Powered by Discuz! X3.4© 2001-2013 Discuz Team.( 京ICP备17022993号-3 )