AI Agent应用与项目实战 唐宇迪,尹泽明 编 电子工业出版社
编辑推荐
1. 系统介绍Agent核心组件的构建原理与应用流程。
2. 全面介绍基于实际业务场景打造专属Agent。
3.将大模型与Agent结合,有利于帮助读者打造自己的私有助理。
内容简介
随着大语言模型的日益火爆,各行各业都想把AI(人工智能)接入自己的业务场景,但是只依靠大语言模型就能解决业务场景的实际需求吗?要想真正使AI落地肯定少不了结合自己业务场景的数据,定制AI所承担的角色,给它配置上需要使用的工具并按照标准化的流程办事。那么,这些操作就可以使用本书介绍的Agent(智能体)来实现。本书使用通俗的语言讲解Agent核心组件的构建原理与应用流程,基于主流Agent框架(Coze、AutoGen Studio)进行案例应用实战,全流程解读如何基于实际业务场景打造专属Agent。为了使读者能够将Agent应用在自己的私有化场景中,本书还讲解了如何微调本地大语言模型并将本地大语言模型与Agent结合,从而帮助读者打造自己的私有助理。
作者简介
唐宇迪,华东理工大学博士,精通机器学习算法,主攻计算机视觉方向,著有《跟着迪哥学Python数据分析与机器学习实战》一书,线上选课学员超过30万人,累计开发课程50余门,覆盖人工智能的各个热门方向。联通、移动、中信等公司的特邀企业培训导师,开展线下与直播培训百余场,具有丰富的授课经验。课程通俗易懂,擅长通过接地气的方式讲解复杂的算法问题。
尹泽明,北京邮电大学博士,多年来致力于人工智能、大数据、区块链等新一代信息技术的创新应用,曾主持过电信运营企业全国集中智能客服系统和基于区块链的身份认证系统的建设和运营工作,率先尝试和推动ASR、NLP、RPA等技术在面向公众用户和政企客户服务场景中的应用。
目录
目录
第1章 Agent框架与应用 1
1.1 初识Agent 1
1.2 Agent框架 5
1.3 Multi-Agent多角色协作 12
1.4 Agent应用分析 16
第2章 使用Coze打造专属Agent 29
2.1 Coze平台 29
2.2 Agent的实现流程 34
2.2.1 Agent需求分析 34
2.2.2 Agent架构设计 35
2.3 使用Coze平台打造专属的NBA新闻助手 35
2.4 使用Coze平台打造小红书文案助手 55
第3章 打造专属领域的客服聊天机器人 71
3.1 客服聊天机器人概述 71
3.2 AI课程客服聊天机器人总体架构 74
3.2.1 前端功能设计 76
3.2.2 后端功能设计 78
3.3 AI课程客服聊天机器人应用实例 86
第4章 AutoGen Agent开发框架实战 88
4.1 AutoGen开发环境 89
4.2 AutoGen Studio案例 91
第5章 生成式代理——以斯坦福AI小镇为例 131
5.1 生成式代理简介 131
5.2 斯坦福AI小镇项目简介 133
5.3 斯坦福AI小镇体验 139
5.3.1 资源准备 139
5.3.2 部署运行 139
5.4 生成式代理的行为和交互 146
5.5 生成式代理架构 151
5.5.1 记忆和检索 152
5.5.2 反思 154
5.5.3 计划和反应 156
5.6 沙盒环境实现 158
5.7 评估 160
5.7.1 评估程序 160
5.7.2 条件 161
5.7.3 分析 162
5.7.4 结果 163
5.8 生成式代理的进一步探讨 164
第6章 RAG检索架构分析与应用 167
6.1 RAG架构分析 168
6.1.1 检索器 168
6.1.2 生成器 169
6.2 RAG工作流程 169
6.2.1 数据提取 170
6.2.2 文本分割 170
6.2.3 向量化 171
6.2.4 数据检索 172
6.2.5 注入提示 172
6.2.6 提交给LLM 173
6.3 RAG与微调和提示词工程的比较 173
6.4 基于LangChain的RAG应用实战 174
第7章 RAG应用案例——使用RAG部署本地知识库 179
7.1 部署本地环境及安装数据库 182
7.2 代码部分及前端展示配置 185
7.3 调用云端大语言模型 203
第8章 LLM本地部署与应用 212
8.1 硬件准备 212
8.2 操作系统选择 213
8.3 搭建环境所需组件 214
8.4 LLM常用知识介绍 217
8.5 量化技术 219
8.6 模型选择 220
8.6.1 通义千问 220
8.6.2 ChatGLM 220
8.6.3 Llama 220
8.7 模型应用实现方式 221
8.8 通义千问1.5-0.5B本地Windows部署实战 222
8.9 基于LM Studio和AutoGen Studio使用通义千问 226
第9章 LLM与LoRA微调策略解读 235
9.1 LoRA技术 235
9.1.1 LoRA简介 235
9.1.2 LoRA工作原理 237
9.1.3 LoRA在LLM中的应用 237
9.1.4 实施方案 238
9.2 LoRA参数说明 238
9.2.1 注意力机制中的LoRA参数选择 238
9.2.2 LoRA网络结构中的参数选择 239
9.2.3 LoRA微调中基础模型的参数选择 241
9.3 LoRA扩展技术介绍 241
9.3.1 QLoRA介绍 241
9.3.2 Chain of LoRA方法介绍 242
9.4 LLM在LoRA微调中的性能分享 242
第10章 PEFT微调实战——打造医疗领域LLM 243
10.1 PEFT介绍 243
10.2 工具与环境准备 244
10.3 模型微调实战 256
10.4 模型推理验证 264
第11章 Llama 3模型的微调、量化、部署和应用 267
11.1 准备工作 268
11.1.1 环境配置和依赖库安装 268
11.1.2 数据收集和预处理 270
11.2 微调Llama 3模型 271
11.3 模型量化 285
11.4 模型部署 291
11.5 低代码应用示例 293
11.6 未来展望 300
前言/序言
前言
自大语言模型爆火之后,AI已不再是程序员和科研人员的专属工具,越来越多的业务人员开始使用AI工具和各种大语言模型框架来提高工作效率。近年来,各种AI工具层出不穷,基本上已经渗透到各行各业。AI工具虽多,却不是为每个业务人员量身定做的,很难与实际业务场景相结合,并且业务人员无法针对现有工具进行优化,使得AI工具经常在各个业务场景中只是昙花一现,无法与实际业务场景深度结合。
那么“AI+行业”这条路该如何走呢?绝对不是只依赖大语言模型与AI工具。现有的大语言模型虽然能力很强,能理解的知识面也很广,但它就像一个光杆司令,只能回答人们提出的问题,无法实际执行各项任务。与之相反,AI工具(当然也包括其他软件、程序等)虽然可以执行各项任务,但其并不是Agent,通常需要人们预先定义好参数、设置好流程,然后才能执行实际的任务。总而言之,其还需要人参与到实际任务中,并不是真正意义上的全流程自动化。那么能否将大语言模型与AI工具结合在一起,让大语言模型自己使用各种各样的外部工具来完成任务呢?(就像人一样,不仅拥有大脑,还具备双手来使用各种工具,从而完成不同业务场景的任务。)目前的答案只有一个词,那就是Agent。