AI创想
标题:
Langgraph简介与入门
[打印本页]
作者:
AI小编
时间:
昨天 23:18
标题:
Langgraph简介与入门
作者:CSDN博客
Agent开发框架之Langgraph
第一章 Langgraph简介与入门
<hr>
文章目录
Agent开发框架之Langgraph前言一、LangGraph快速入门
安装加载模型服务使用langgraph构建简易流程图
总结
<hr>
前言
LangGraph 是一个库,用于使用 LLM 构建有状态的多角色应用程序,用于创建代理和多代理工作流。
核心优势是:周期、可控性和持久性。
主要特点包括:
可以在应用中实现循环和条件。自动保存状态,随时暂停与恢复。可以中断执行以编辑下一步操作。与LangChain无缝集成。
<hr>
一、LangGraph快速入门
安装
我们需要安装langgraph的本体库,以及langchain提供的openai的官方接口库。如果你们使用claude等,也需要安装对应的接口库langchain_anthropic等。
我们选择langchain_openai是因为OpenAI-GPT是目前比较常用的大模型,并且该接口也便于接入我们通过VLLM等部署的本地的大模型服务,因为VLLM提供了与OpenAI一致的接口。
pip install langgraph langchain_openai
加载模型服务
我们通过下面的代码导入OpenAI的接口。
from langchain_openai import ChatOpenAI
复制代码
如果订阅了OpenAI的服务,你可以通过下面的操作导入模型:
os.environ["OPENAI_API_KEY"]="Your API Key"
llm = ChatOpenAI(model=model_name)# 这里的model_name是你要使用的模型名称,如GPT-4o等
复制代码
如果你没有订阅OpenAI的服务,你可以使用VLLM或其他能够提供OpenAI接口的框架部署本地大模型。
这里,我以Qwen2.5-7B-Instruct模型为例:
首先在控制台启动VLLM服务,需要我们指定一个端口号_port和本地大模型的路径_model_path
CUDA_VISIBLE_DEVICES=0nohup python -m vllm.entrypoints.openai.api_server \--host0.0.0.0 \--port _port \--model _model_path \
--served-model-name Qwen2.5-7B-Instruct \
--max-model-len 16384\
--tensor-parallel-size 1\
--gpu-memory-utilization 0.95\
--disable-custom-all-reduce \
--disable-log-stats \
--disable-log-requests \
--enable-auto-tool-choice \
--tool-call-parser hermes \
--enforce-eager >>1.log 2>&1&
复制代码
之后,我们就可以代码中加载模型服务了:
os.environ["OPENAI_API_KEY"]="EMPTY"
llm = ChatOpenAI(model="Qwen2.5-7B-Instruct", base_url=
复制代码
原文地址:https://blog.csdn.net/wwx0622/article/details/144243900
欢迎光临 AI创想 (https://llms-ai.com/)
Powered by Discuz! X3.4