AI创想
标题:
Openclaw +本地 Ollama +Qwen webUI chat 没有任何反应
[打印本页]
作者:
米落枫
时间:
4 天前
标题:
Openclaw +本地 Ollama +Qwen webUI chat 没有任何反应
作者:CSDN博客
测试openclaw 的前端版本,和openclaw gateway 版本是否一致;
通常将 openclaw 升级到最新版本
npm update openclaw
npm list openclaw
2fen@ E:\2fen
└── openclaw@2026.2.22
确保本地 llm 服务正常运行,
启动vllmOllama服务已成功启动!
- 服务地址 : http://127.0.0.1:11434/v1
测试本地llm 运行状态:
curl http://127.0.0.1:11434/v1/models
$env:OPENCLAW_STATE_DIR="e:\指定路径\.openclaw"; $env:OPENCLAW_CONFIG_PATH="e:\指定路径\.openclaw\openclaw.json"; node ./node_modules/openclaw/dist/index.js gateway
用以上命令直接在指定位置运行 openclaw gateway
原文地址:https://blog.csdn.net/Wange_video/article/details/158317983
欢迎光临 AI创想 (https://llms-ai.com/)
Powered by Discuz! X3.4