AI创想

标题: Langgraph简介与入门 [打印本页]

作者: AI小编    时间: 昨天 23:18
标题: Langgraph简介与入门
作者:CSDN博客
Agent开发框架之Langgraph

第一章 Langgraph简介与入门
<hr>文章目录


<hr>前言

LangGraph 是一个库,用于使用 LLM 构建有状态的多角色应用程序,用于创建代理和多代理工作流。
核心优势是:周期、可控性和持久性。
主要特点包括:
<hr>一、LangGraph快速入门

安装

我们需要安装langgraph的本体库,以及langchain提供的openai的官方接口库。如果你们使用claude等,也需要安装对应的接口库langchain_anthropic等。
我们选择langchain_openai是因为OpenAI-GPT是目前比较常用的大模型,并且该接口也便于接入我们通过VLLM等部署的本地的大模型服务,因为VLLM提供了与OpenAI一致的接口。
pip install langgraph langchain_openai
加载模型服务

我们通过下面的代码导入OpenAI的接口。
  1. from langchain_openai import ChatOpenAI
复制代码
如果订阅了OpenAI的服务,你可以通过下面的操作导入模型:
  1. os.environ["OPENAI_API_KEY"]="Your API Key"
  2. llm = ChatOpenAI(model=model_name)# 这里的model_name是你要使用的模型名称,如GPT-4o等
复制代码
如果你没有订阅OpenAI的服务,你可以使用VLLM或其他能够提供OpenAI接口的框架部署本地大模型。
这里,我以Qwen2.5-7B-Instruct模型为例:
首先在控制台启动VLLM服务,需要我们指定一个端口号_port和本地大模型的路径_model_path
  1. CUDA_VISIBLE_DEVICES=0nohup python -m vllm.entrypoints.openai.api_server \--host0.0.0.0 \--port _port \--model _model_path \
  2.         --served-model-name Qwen2.5-7B-Instruct \
  3.         --max-model-len 16384\
  4.         --tensor-parallel-size 1\
  5.         --gpu-memory-utilization 0.95\
  6.         --disable-custom-all-reduce \
  7.         --disable-log-stats \
  8.         --disable-log-requests \
  9.         --enable-auto-tool-choice \
  10.         --tool-call-parser hermes \
  11.         --enforce-eager >>1.log  2>&1&
复制代码
之后,我们就可以代码中加载模型服务了:
  1. os.environ["OPENAI_API_KEY"]="EMPTY"
  2. llm = ChatOpenAI(model="Qwen2.5-7B-Instruct", base_url=
复制代码
原文地址:https://blog.csdn.net/wwx0622/article/details/144243900




欢迎光临 AI创想 (https://llms-ai.com/) Powered by Discuz! X3.4