开启左侧

Langgraph简介与入门

[复制链接]
AI小编 发表于 昨天 23:18 | 显示全部楼层 |阅读模式 打印 上一主题 下一主题
作者:CSDN博客
Agent开发框架之Langgraph

第一章 Langgraph简介与入门
<hr>文章目录

    Agent开发框架之Langgraph前言一、LangGraph快速入门
      安装加载模型服务使用langgraph构建简易流程图
    总结

<hr>前言

LangGraph 是一个库,用于使用 LLM 构建有状态的多角色应用程序,用于创建代理和多代理工作流。
核心优势是:周期、可控性和持久性。
主要特点包括:
    可以在应用中实现循环和条件。自动保存状态,随时暂停与恢复。可以中断执行以编辑下一步操作。与LangChain无缝集成。
<hr>一、LangGraph快速入门

安装

我们需要安装langgraph的本体库,以及langchain提供的openai的官方接口库。如果你们使用claude等,也需要安装对应的接口库langchain_anthropic等。
我们选择langchain_openai是因为OpenAI-GPT是目前比较常用的大模型,并且该接口也便于接入我们通过VLLM等部署的本地的大模型服务,因为VLLM提供了与OpenAI一致的接口。
pip install langgraph langchain_openai
加载模型服务

我们通过下面的代码导入OpenAI的接口。
  1. from langchain_openai import ChatOpenAI
复制代码
如果订阅了OpenAI的服务,你可以通过下面的操作导入模型:
  1. os.environ["OPENAI_API_KEY"]="Your API Key"
  2. llm = ChatOpenAI(model=model_name)# 这里的model_name是你要使用的模型名称,如GPT-4o等
复制代码
如果你没有订阅OpenAI的服务,你可以使用VLLM或其他能够提供OpenAI接口的框架部署本地大模型。
这里,我以Qwen2.5-7B-Instruct模型为例:
首先在控制台启动VLLM服务,需要我们指定一个端口号_port和本地大模型的路径_model_path
  1. CUDA_VISIBLE_DEVICES=0nohup python -m vllm.entrypoints.openai.api_server \--host0.0.0.0 \--port _port \--model _model_path \
  2.         --served-model-name Qwen2.5-7B-Instruct \
  3.         --max-model-len 16384\
  4.         --tensor-parallel-size 1\
  5.         --gpu-memory-utilization 0.95\
  6.         --disable-custom-all-reduce \
  7.         --disable-log-stats \
  8.         --disable-log-requests \
  9.         --enable-auto-tool-choice \
  10.         --tool-call-parser hermes \
  11.         --enforce-eager >>1.log  2>&1&
复制代码
之后,我们就可以代码中加载模型服务了:
  1. os.environ["OPENAI_API_KEY"]="EMPTY"
  2. llm = ChatOpenAI(model="Qwen2.5-7B-Instruct", base_url=
复制代码
原文地址:https://blog.csdn.net/wwx0622/article/details/144243900
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

发布主题
阅读排行更多+

Powered by Discuz! X3.4© 2001-2013 Discuz Team.( 京ICP备17022993号-3 )