AI创想

标题: OpenClaw实战系列01:OpenClaw接入飞书机器人全接入指南 + Ollama本地大模型 [打印本页]

作者: AI小编    时间: 昨天 22:42
标题: OpenClaw实战系列01:OpenClaw接入飞书机器人全接入指南 + Ollama本地大模型
作者:Peter·Pan爱编程
文章目录


引言

在AI技术爆发的2026年,我们不再满足于使用公用的ChatGPT或Claude。出于数据隐私、定制化需求或离线可用的考虑,本地部署AI大模型并接入日常办公软件成为了新的刚需。
本文将带你从零开始,完成以下目标:
第一步:环境准备与核心思想

在开始前,我们需要明确技术架构:飞书 → OpenClaw(调度器) → Ollama(本地模型)。
第二步:部署Ollama——把大模型“养”在本地

Ollama 是目前最便捷的本地模型运行工具,它支持 Llama 3、DeepSeek-R1、Qwen 2.5 等一系列主流模型
1. 安装 Ollama

访问 Ollama 官网 下载对应系统的安装包,或使用命令行安装(以Linux/WSL为例):
  1. curl-fsSL https://ollama.com/install.sh |sh
复制代码
安装完成后,验证版本:
  1. ollama --version
复制代码
并通过 ollama serve 确保服务在后台运行(通常安装后会自动注册为服务)。
2. 拉取并运行模型

根据你的硬件配置选择合适的模型。对于大多数用户,推荐使用 DeepSeek-R1(7B) 或 Llama 3.2(3B),兼顾性能与资源占用。
  1. # 运行 DeepSeek-R1(会自动下载)
  2. ollama run deepseek-r1:7b
  3. # 或者运行 Llama 3.2(更轻量)
  4. ollama run llama3.2
复制代码
出现 Send a message 提示即表示模型启动成功。
注意:记下这个终端,后续OpenClaw会通过API调用它。
3. 确认API可用性

Ollama 默认会在本地 11434 端口开启API服务。我们可以用 curl 测试一下:
  1. curl http://localhost:11434/api/generate -d'{
  2.   "model": "deepseek-r1:7b",
  3.   "prompt": "你好,你是谁?",
  4.   "stream": false
  5. }'
复制代码
看到包含“DeepSeek”或对应模型名的JSON返回,说明Ollama已经准备就绪。
第三步:安装OpenClaw——AI大脑的“躯干”

OpenClaw 负责连接聊天软件(飞书)和AI大脑(Ollama),并管理各种工具(Skills)。
1. 安装Node.js

OpenClaw 需要 Node.js 22.0 或更高版本。
  1. # 以Ubuntu为例curl-fsSL https://deb.nodesource.com/setup_22.x |sudo-Ebash -
  2. sudoaptinstall-y nodejs
  3. node-v# 检查版本
复制代码
2. 一键安装 OpenClaw

官方提供了一键安装脚本,会自动处理大部分配置。
  1. curl-fsSL https://openclaw.bot/install.sh |bash
复制代码
安装完成后,执行初始化向导。注意: 最新版的向导已经支持直接配置飞书和模型了,非常方便!
  1. openclaw onboard --install-daemon
复制代码
在向导中:
3. 验证安装

启动服务并检查状态:
  1. openclaw gateway start
  2. openclaw status
复制代码
此时访问 http://127.0.0.1:18789 应该能看到 OpenClaw 的 Web 控制台(Dashboard)。
第四步:打通飞书——创建并配置机器人

这是让AI“落地”的关键一步,我们需要在飞书开放平台注册一个机器人应用。
1. 创建飞书应用

2. 配置机器人能力

3. 发布应用

第五步:OpenClaw与飞书“握手”

现在,我们要让 OpenClaw 认识这个飞书机器人。
方法一:使用 onboard 向导重新配置(推荐最新版)
  1. openclaw onboard
复制代码
当问到渠道时,选择 feishu,并输入刚才拿到的 App ID 和 App Secret。
方法二:手动添加渠道

如果已经完成了onboard,可以使用 channels 命令:
  1. openclaw channels add# 选择 feishu,按提示输入 APP ID 和 APP SECRET
复制代码
配置完成后,必须重启网关才能使配置生效:
  1. openclaw gateway restart
  2. # 或者旧版本命令 openclaw-cn gateway restart
复制代码
查看实时日志,确认飞书连接是否成功:
  1. openclaw logs --follow
复制代码
看到类似 Feishu client connected 或 login success 的字样,说明连接成功。
批准配对

再次回到飞书,向你的机器人发送任意消息(例如“你好”)。
此时,飞书机器人会回复一串 Pairing code: xxxx-xxxx。
在命令行中执行批准命令:
  1. openclaw pairing approve feishu <你收到的code>
复制代码
第六步:实战测试与玩法拓展

现在,你的飞书AI助理已经可以工作了。你可以把它拉到群里,或者私聊。
1. 本地能力测试

在飞书里输入指令:
2. 结合Ollama的优势

由于我们用的是Ollama,你可以随时切换模型而无需重启OpenClaw。只需修改OpenClaw配置中的模型名,或者通过OpenClaw的TUI界面临时切换模型。
  1. # 在OpenClaw的TUI界面
  2. /model deepseek-r1:7b
复制代码
3. 云端模型备用

如果你的本地机器性能不足,或者需要处理超长文本,Ollama也支持调用云端模型(如GLM4.7等),可以在配置中随时切换,实现本地与云端的“双模”运行。
常见问题与避坑指南

总结

通过 OpenClaw + Ollama + 飞书的组合,我们成功搭建了一个完全私有、免费、可定制的AI助理。它不仅能在日常聊天中提供帮助,还能通过OpenClaw强大的“技能”体系,真正去操作你的电脑、管理文件、甚至执行代码。
这套方案将数据留在本地,既保证了隐私安全,又锻炼了动手能力。现在,去给你的AI助理添加更多酷炫的技能吧!
参考文献:


原文地址:https://blog.csdn.net/weixin_42125125/article/details/158235752




欢迎光临 AI创想 (https://llms-ai.com/) Powered by Discuz! X3.4