LangChain的位置:5.LangChin资料介绍
构成应用程序的链、智能体、RAG。langchain-community:第三方集成
比如:Model I/O、Retrieval、Tool & Toolkit;合作伙伴包 langchain-openai,langchain-anthropic 等。langchain-Core:基础抽象和 LangChain 表达式语言(LCEL)
正是因为 LangSmith 这样的工具出现,才使得 LangChain 意义更大,要不仅靠一些 API(当然也可以不用,用原生的 API),支持不住 LangChain 的热度。结构 4:LangServe
-c:是–channel的缩写,conda 用于指定包的安装来源渠道。建议:二者最好不好混用,推荐先 conda 装基础包,后 pip 补充的顺序。
conda-forge:该源比官方默认渠道更新更快、包更全
检索 - 增强 - 生成过程:检索可以理解为第 10 步,增强理解为第 12 步(这里的提示词包含检索到的数据),生成理解为第 15 步。类似的细节图:
大脑主要由一个大型语言模型 LLM 组成,承担着信息处理和决策等功能,并可以呈现推理和规划的过程,能很好地应对未知任务。2、记忆(Memory)记忆机制能让智能体在处理重复工作时调用以前的经验,从而避免用户进行大量重复交互。
短期记忆:存储单次对话周期的上下文信息,属于临时信息存储机制。受限于模型的上下文窗口长度。
ChatGPT:支持约 8k token 的上下文>GPT4:支持约 32k token 的上下文
最新的很多大模型:都支持 100 万、1000 万 token 的上下文(相当于 2000 万字文本或 20 小时视频)
一般情况下模型中 token 和字数的换算比例大致如下:
○ 1 个英文字符 ≈ 0.3 个 token。
○ 1 个中文字符 ≈ 0.6 个 token。
长期记忆:可以横跨多个任务或时间周期,可存储并调用核心知识,非即时任务。3、工具使用(Tool Use):
○ 长期记忆,可以通过模型参数微调(固化知识)、知识图谱(结构化语义网络)或向量数据库(相似性检索)方式实现。
智能体会形成完整的计划流程。例如先读取以前工作的经验和记忆,之后规划子目标并使用相应工具去处理问题,最后输出给用户并完成反思。3.3 大模型应用开发的4个场景
这个模块使⽤最多,也最简单Model I/O:标准化各个大模型的输入和输出,包含输入模版,模型本身和格式化输出。
⽬前最热⻔的智能体开发实践,未来能够真正实现通⽤⼈⼯智能的落地⽅案。核心组件5:Retrieval
这⾥的Agent,就会涉及到前⾯讲的memory,以及tools。
绿⾊的是⼊库存储前的操作。核心组件6:Callbacks
回调函数,对于程序员们应该都不陌⽣。这个函数允许我们在LLM的各个阶段使⽤各种各样的“钩⼦”,从而达实现⽇志的记录、监控以及流式传输等功能。4.4 小结
辅助:⽐如,向量数据库的分块和嵌⼊,⽤于追踪、观测的Callbacks5.LangChain的helloword
任务:⽐如,Tools,Memory
我们要做的就是⼀个⼀个module去攻破,最后将他们融会贯通,也就成为⼀名合格的LangChain
学习者了。
| 欢迎光临 AI创想 (https://llms-ai.com/) | Powered by Discuz! X3.4 |