开启左侧

langchain连接知识库

[复制链接]
dehuana 发表于 2025-9-7 23:37:51 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题
1、到github或者gitee上拉取项目(langchain-chatchat)
将项目url复制到vscode的“克隆仓库”上打开(但是打开的终端是windows);
或者租用恒源云服务器,在hy-tmp下新建文件夹,在终端执行git clone https://gitee.com/mirrors/langchain-chatchat.git(这样就可以用linux终端了)
2、读readme,右上角可以打开预览


3、查看python版本
python --version,确保环境没问题
4、安装langchain
pip install langchain-chatchat -U(基础安装,只安装 langchain-chatchat 包及其默认依赖项)
或者 pip install "langchain-chatchat[xinference]" -U(扩展安装,不仅安装 langchain-chatchat 包及其默认依赖项,还会安装 [xinference] 这个额外的依赖项组中定义的所有依赖项)
它们之间的关系可以理解为,后者是前者的扩展,需要搭配 Xinference 框架使用时,用后者
-U 或 --upgrade 选项,这意味着如果 langchain-chatchat 包已经安装,pip 会尝试将其升级到最新版本
5、安装xinference
pip install "xinference[all]"


如果有cannot build wheel 错误


通过查找命令 find /usr -name libgomp.s0.1
找到内容/usr/lib/x86_64-linux-gnu/libgomp.so.1
然后在执行安装命令前,指定LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/usr/lib/x86_64-linux-gnu:$LD_LIBRARY_PATH
然后再执行如下命令就成功了pip install "xinference[all]"
为什么要设置 LD_LIBRARY_PATH?
libgomp.so.1 位于 /usr/lib/x86_64-linux-gnu/,而这个路径可能不在系统的默认库路径中。当你尝试安装 xinference[all] 时,某些依赖项可能需要 libgomp.so.1,但因为系统无法找到它,导致安装失败或出现错误。
通过设置 LD_LIBRARY_PATH,你告诉系统在加载共享库时,除了默认路径外,还要从 /usr/lib/x86_64-linux-gnu/ 中查找库文件。这解决了 libgomp.so.1 无法找到的问题。
6、启动xinference
xinference-local
接着会出现一个链接,点进去打开网页就是了


7、加载模型
launch model:选择要部署的模型,有在线的内置模型(比如选择glm-chat,就可以自动帮你到huggingface或魔塔社区下载)
如果是本地微调过的大模型呢?
先要注册模型,register model,把自己的本地模型路径复制过去
然后回到launch model,在custom models里可以看到刚注册的自定义模型,点进去点击加速运行它,后台会进行加载,然后就可以在running models看到该模型
启动大语言模型之后,还要指定编码模型。
先去魔塔社区下载编码模型,
pip install modelscope
export MODELSCOPE_CACHE='/hy-tmp'
modelscope download --model AI-ModelScope/bge-large-zh-v1.5,
然后到register model,注册模型
接着到launch model,部署模型,依然是custom models,选择下面的Embedding models,
选择bge,然后运行
最后到running models查看到模型
8、调langchain配置
为什么输入chatchat-config model --help 报错呢?bash: chatchat-config: command not found
因为仓库更新了,直接去配置文件中修改(拉取项目时,注意更新日期。这次是因为在gitee上的是旧版的,用不了命令行了,


(1)设置 Chatchat 存储配置文件和数据文件的根目录
export CHATCHAT_ROOT=/path/to/chatchat_data(如果不设置这个的话,会找不到配置文件,必须到配置文件所在的目录下才可以,即cd hy-tmp/langchain_test/langchain-chatchat/)
执行初始化命令,生成配置文件
chatchat init


(2)修改配置文件
进入model_settings.yaml
a. 修改默认llm和编码模型
b. 修改模型平台(找到xinference)




9、启动模型
chatchat kb -r,也可以到网页端去手动启动模型,确保running models里能找到模型
10、启动项目
chatchat start -a


回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

发布主题
阅读排行更多+

Powered by Discuz! X3.4© 2001-2013 Discuz Team.( 京ICP备17022993号-3 )